Поддержать команду Зеркала
Беларусы на войне
  1. В 2026 году для населения отменят одну из налоговых льгот
  2. На видео о «могилевском маньяке» силовики держат его на длинных ремнях. Спросили у BELPOL, что это и зачем
  3. Лукашенко последнее время достаточно часто говорит о «самой большой проблеме». Свежая статистика показывает, что стало еще хуже
  4. «Между старшим поколением и молодыми специалистами возрастной разрыв». Чиновник озвучил серьезную проблему, грозящую его району и стране
  5. Стали известны новые детали исчезновения в Турции Котова
  6. Помните, как относительно недавно надо было записываться в очередь для покупки авто Geely? Сейчас реальность иная — клиентов заманивают
  7. Чиновники вызвали на ковер руководителей Wildberries, Ozon и Emall. Какие вопросы к ним возникли и чего добиваются власти
  8. Блогерша рассказала, как ее задержали на границе при въезде в Беларусь и судили за протесты
  9. В России блокируют интернет беларусских мобильных операторов — рассказываем подробности
  10. Беларусы нашли замену доллару: спрос на него на минимуме. Прогноз по валютам
  11. «Фаза 0». Эксперты назвали признаки того, что Россия ускорила первый этап подготовки к будущей войне с НАТО
  12. Путин продолжает попытки удержать США от отправки «Томагавков» в Украину. Почему — рассказали в ISW
  13. Нацбанк рассказал об аномальном поведении населения в обменниках
  14. Бюро: Стало известно, кому принадлежит недавно открытый минский ресторан (возможно, теперь вам не захочется его посещать)
  15. «Флагшток»: В Гомельской области силовики придумали новый повод для репрессий — онлайн-опрос 5-летней давности


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.