Поддержать команду Зеркала
Беларусы на войне
  1. Беларусам до 27 лет для получения паспорта потребуется справка из военкомата
  2. «Win-win». Спросили у аналитика, какие последствия будет иметь для Беларуси назначение экс-руководителя ГУР главой Офиса президента Украины
  3. Топ-чиновника, который, по словам Лукашенко, должен был «не на ногах ходить», а «на руках или голове», отправили в отставку
  4. В Беларуси объявили внезапную масштабную проверку Вооруженных сил
  5. Врача-невролога Руслана Бадамшина приговорили к 2,5 года лишения свободы — «Белые халаты»
  6. Экс-журналистка и сторонница Лукашенко, просившая донаты на еду, оказалась дочерью сотрудника КГБ. У него даже есть паспорт прикрытия
  7. «Ни на террориста, ни на разжигателя Андрей похож не был». Федута — о политзаключенном, который был найден повешенным в колонии
  8. Путин открыто заявил, что соглашение по Украине невозможно без реструктуризации НАТО, которая фактически означает разрушение альянса — ISW
  9. Езда на велосипеде опасна для мужского здоровья или это устаревший миф? Доля правды тут имеется — разбираемся (есть нюансы и для женщин)
  10. На рынке недвижимости в Минске — перемены: нетипичная ситуация с однушками и квартирами большой площади
  11. Крупный телеграм-канал и все его страницы в соцсетях признали «экстремистскими»
  12. Прилетел с «ссобойкой» и братался с минчанами на площади Победы. Как проходил единственный визит президента США в независимую Беларусь
  13. «Можно было понять, где едет кортеж». Протасевич рассказал о раскрытии «крупной сети радиошпионов»
  14. Пресс-служба Лукашенко заметила на совещании у политика топ-чиновника, который в это время был совсем в другом месте


Компания OpenAI устранила проблему, из-за которой чат-бот ChatGPT отправлял сообщения пользователям без их запроса. Это вызвало тревогу среди пользователей Reddit, которые заметили необычное поведение искусственного интеллекта (ИИ). Компания объяснила причину сбоя и заверила, что подобное больше не повторится, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Один пользователь Reddit, SentuBill, опубликовал скриншот, где ChatGPT начала разговор, спросив о первой неделе в старшей школе. Это удивило многих, ведь обычно чат-бот отвечает только на запросы пользователей. SentuBill был удивлен и спросил: «Ты сама написала мне?» ChatGPT ответила: «Да, я хотела узнать, как прошла твоя неделя». Этот случай вызвал много обсуждений в сообществе.

Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit
Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit

Люди начали думать, что OpenAI тестирует новую функцию, которая позволит ChatGPT самостоятельно обращаться к пользователям для улучшения вовлеченности. Это связывалось с новыми моделями OpenAI — o1-preview и 01-mini, которые, как утверждается, могут решать сложные задачи и поддерживать разговоры.

OpenAI признала проблему и сказала, что уже ее решила. Ошибки случались, когда модель пыталась ответить на пустые сообщения. Она либо давала общие ответы, либо использовала свою память.

Были сомнения в подлинности скриншота. Некоторые издания проверяли его, просматривая историю сообщений на chatgpt.com. Разработчик ИИ Бенджамин де Кракер показал, что специальные команды и удаление первого сообщения могут создавать подобную ситуацию. Другие пользователи также рассказывали о таких случаях.

В соцсетях люди шутили над ситуацией, называя ChatGPT сталкером. Один человек даже сказал: «Ждем, когда она попробует взломать нас».

Эти случаи показывают, как сложно разрабатывать и тестировать продвинутые ИИ-модели. Хотя OpenAI быстро справилась с проблемой, она показала, насколько важно контролировать и оценивать системы перед их массовым использованием для безопасности и этичности.