PIAROFF
Компании
Новости
Пресс-релизы
События
Статьи
~1 минут

Чат-боты выдают неверную информацию по запросам в 3-27% случаев — исследование

Чат-боты различных разработчиков склонны придумывать информацию как минимум в 3% случаев, а бывает, и в 27%, написала в понедельник газета The New York Times со ссылкой на исследование основанной бывшими работниками Google компании Vectara. Как отмеч...

Tag : генеративный ИИ,США,чат-бот

Чат-боты различных разработчиков склонны придумывать информацию как минимум в 3% случаев, а бывает, и в 27%, написала в понедельник газета The New York Times со ссылкой на исследование основанной бывшими работниками Google компании Vectara.

Как отмечает издание, подобная тенденция — серьёзная проблема для тех, кто пользуется технологией при работе с судебными документами, медицинскими данными или с конфиденциальной информацией компаний.

В ходе эксперимента Vectara поставила перед различными чат-ботами простую задачу — пересказать содержание новостной статьи. Но даже в этом случае ИИ-системы непременно придумывали то, о чём в оригинальном тексте не сообщалось.

Исследователи считают, что это происходит потому, что чат-боты «не понимают поставленной задачи».

Напомним, о склонности сервисов генеративного ИИ выдумывать факты сообщалось и ранее. Так, при попытке пересказать новость один из сервисов указал неправильно имя и возраст жертвы, напутал с местом, где произошло событие, фальсифицировал цитату мэра Буэнос-Айреса, указал неверно имя мэра и пр.

См. также:

  • Alphabet потеряла $100+ млрд после неудачной презентации ИИ-бота Bard >>>
  • ChatGPT причислил австралийского борца с коррупцией ко взяточникам >>>