Поддержать команду Зеркала
Беларусы на войне
  1. Беларуске дали срок за посылки политзаключенным, которые она покупала за свои деньги. Где в ее действиях нашли экстремизм
  2. Узнали, чем в Минске владеет Григорий Азаренок. Если думаете, что у него замок, — мы вас разочаруем
  3. Поляков спросили, какая соседняя страна вызывает у них наибольшую симпатию. Вот что они думают о Беларуси
  4. «Будут задержки зарплаты». «Киберпартизаны» рассказали «Зеркалу» о последствиях атаки на «Химволокно»
  5. Функционера БРСМ судили за измену государству и дали 17 лет — «Наша Ніва»
  6. Лукашенко снова высказался о «вероломном нападении» на Иран. Но главным виновником назвал не США
  7. Трамп рассказал, на каком месте война в Украине в его «списке приоритетов»
  8. «Все трактуют как доход». Налоговая рассылает «письма счастья» — требует отчитаться, откуда пришли деньги: к кому возникают такие вопросы
  9. Эксперты говорят, что командование армии РФ продолжает действовать в «параллельной реальности» — о чем речь
  10. Беларусам стали чаще отказывать в повторном ВНЖ в Польше, если они допустили одну ошибку с первым
  11. По всей Беларуси водители не могут зарядить электромобили на станциях Malanka. Что произошло
  12. Рейс из Омана, который не долетел до аэропорта назначения, возвращается в Минск — «Белавиа»
  13. Кто такие аятоллы? Объясняем, почему они главные в Иране и кто может быть следующим
  14. Рублю прогнозировали непростое начало 2026 года. Тем временем в обменниках сложилась весьма нетипичная ситуация


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.