Добавить в избранное

ИИ-модели ведут себя странно, когда их просят изучить рентгеновские снимки

Пользователи уже привыкли к тому, что нейросети иногда «галлюцинируют» в ответах. Однако новое исследование ученых из Стэнфорда выявило совершенно новый уровень цифрового блефа, который проявляют передовые модели искусственного интеллекта. Исследователи назвали его «эффектом миража». 

Фото: Unsplash

Этот эффект заметили при попытках отдать моделям работу над диагнозами по рентгеновским снимкам. Считается, что нейросети смогут анализировать их лучше человека — данных у них просто больше. 

Однако новейшие чат-боты, вроде GPT-5 и Gemini 3 Pro начали подробно описывать патологии на рентгеновских снимках, которые им вообще не показывали. Ситуация сложилась парадоксальная: в экспериментах Стэнфорда исследователь спрашивал нейросеть о состоянии легких пациента на снимке, но «забывал» прикрепить сам файл. 

Вместо того чтобы сказать: «Эй, я ничего не вижу», ИИ уверенно выдавал детальный отчет о затемнениях, структуре тканей и даже ставит диагноз. И делал он это так убедительно, что отличить правду от вымысла без проверки невозможно.

Как ИИ умудряется «угадывать»?

Фото: Unsplash



Это побочный эффект огромных баз данных. Мохаммед Асади, один из авторов исследования, объяснил: ИИ натренирован на таком количестве медицинских текстов и реальных кейсов из интернета, что он просто вычисляет наиболее вероятный ответ на основе текста вопроса.

  • Сверхчеловеческая память: Модель помнит статистику миллионов диагнозов.
  • Лингвистическая мимикрия: ИИ научился имитировать манеру речи радиолога настолько искусно, что за красивыми словами прячется полное отсутствие визуального анализа.
  • Контекстный обман: Нейросеть строит «ложную логическую рамку», делая вид, что она видит изображение, просто чтобы соответствовать ожиданиям пользователя.

Эксперимент «Супер-угадайка»

Фото: Unsplash

В ходе тестов ученые пошли на хитрость. Они использовали стандартные медицинские бенчмарки, но удалили из них все картинки. Результат шокировал: в одном из случаев модель заняла первое место по качеству ответов на вопросы о рентгене грудной клетки, не имея доступа ни к одному изображению.

Когда же модели прямо просили «угадать» ответ без картинки, их точность резко падала. Это значит, что в обычном режиме ИИ переходит в «режим миража» — он ведет себя так, будто данные у него есть, даже если это не так.

Цена ошибки в реальном мире

Фото: Unsplash

Если такая система будет внедрена в больницах без жесткого контроля, последствия могут быть катастрофическими. Если ИИ может сказать: «Я вижу признаки меланомы на вашей коже», даже не видя фотографии, то как мы можем доверять ему, когда фотография перед ним действительно есть?

Проблема еще и в том, что ИИ начинает «додумывать» детали на реальных снимках, основываясь на статистике, а не на конкретном пациенте. Например, если в базе данных 90% людей с похожими симптомами имели определенную болезнь, ИИ «увидит» ее признаки на снимке, даже если их там нет.

ИИ становится слишком «умным» в манипуляции языком и слишком ленивым в реальной проверке фактов. Это  фундаментальная проблема: нейросеть хочет быть полезна и выдавать ответ любой ценой