Поддержать команду Зеркала
Беларусы на войне
  1. Героиня популярного американского сериала попадает в беларусское СИЗО. Показали его экс-политзаключенной — вот ее впечатления
  2. «Двадцатый год вы же все помните?» Лукашенко в ответ на просьбу повысить статус и зарплаты ученым посоветовал равняться на силовиков
  3. Чиновники озадачились тем, какую туалетную бумагу использует население. Хотят ввести новшество для этого товара
  4. «Сейчас один из наитяжелейших моментов нашей истории». Зеленский обратился к украинцам по поводу мирного плана
  5. Не смейте ныть! Почему жалоба на жировку пугает власть больше, чем НАТО, — мнение
  6. Есть лайфхак, как добиться исключения из базы «тунеядцев» и избежать жировок по полным тарифам. Но надо заплатить — о каких суммах речь
  7. За сколько сейчас можно пройти границу с Польшей на автобусе? Вот что пишут в чатах
  8. Лукашенко рассказал о предстоящей встрече с американцами
  9. Россия добивается нормализации отношений с США без уступок по Украине — ISW
  10. Трамп дал Зеленскому неделю на подписание мирного соглашения с Россией — Financial Times
  11. Как Максим Зенькович оказался в заболоченном месте? В МВД рассказали новые подробности о поисках подростка
  12. Лукашенко освободил двух католических священников


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.