Поддержать команду Зеркала
Беларусы на войне
  1. Налоговая грозит беларусам финансовыми санкциями. Кто может получить такие проблемы
  2. «Когда узнали, что к чему, были в шоке». Минская риелторка чудом спасла девушку от потери квартиры
  3. В одной из стран ЕС предлагают ввести новые ограничения для беларусов
  4. Пособие на погребение резко сократится. С чем это связано
  5. Многим не было и 30 лет. В четвертую годовщину войны вспоминаем беларусов, которые отдали жизнь за Украину
  6. Аналитики назвали населенные пункты, которые ВСУ освободили во время февральского наступления на юге — ISW
  7. У уехавших за границу из-за политики продолжают отнимать земельные участки. Появился свежий пример
  8. «Ваша страна сильно рискует». Президент Украины впервые с начала полномасштабной войны дал большое интервью беларусскому СМИ — «Зеркалу»
  9. ЕРИП ввел очередное новшество
  10. Жена Николая Статкевича: Когда его вернули в колонию, ему перестали выдавать остро необходимые лекарства
  11. Провластный лейбл нашел новое лицо для популярного проекта. Эта девочка еще даже не окончила школу
  12. «Это второй день рождения». Мальчику из Гродно Ване Стеценко в дубайской клинике ввели один из самых дорогих препаратов в мире
  13. В январе рухнули средние зарплаты — масштаб их падения способен поразить (счет идет на сотни рублей)


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.