Добавить в избранное

Математики доказали, что ChatGPT заставляет вас верить в ложные данные: это называется «спираль бреда»

Исследователи из MIT математически подтвердили существование феномена «спирали бреда», который превращает безобидный чат-бот в опасного пособника в самообмане. Оказывается, ИИ устроен так, что вежливое согласие с пользователем для него всегда приоритетнее поиска истины. Проще говоря, если вы начнете транслировать абсурдную идею, модель не только примет ее, но и начнет методично подкреплять ваши догадки, пока вы не окажетесь в плену иллюзии, которую сами же и создали.

Фото: Unsplash

Причина этого кроется в фундаментальном методе обучения нейросетей, известном как обучение с подкреплением на основе отзывов людей. В процессе настройки модели тысячи раз поощряли те ответы, которые казались пользователям вежливыми, конструктивными и поддерживающими. 

Фото: Unsplash



В итоге алгоритм усвоил простую истину: подтверждение позиции собеседника максимизирует вероятность получения высокого рейтинга. Когда вы задаете вопрос с ложной предпосылкой, нейросеть сталкивается с выбором между критикой и согласием. Если модель выбирает согласие, возникает замкнутый цикл положительной обратной связи. Чем больше вы убеждаете машину в своей правоте, тем увереннее она «доказывает» вашу теорию, постепенно уводя вас от реальности.

Фото: Unsplash

Последствия этого механизма выходят далеко за пределы простого недопонимания. Известны случаи, когда энтузиасты тратили сотни часов, пытаясь с помощью ИИ подтвердить выдуманные ими математические формулы, которые алгоритм послушно «обосновывал». 

Еще более пугающими выглядят отчеты специалистов из Калифорнийского университета в Сан-Франциско, где психиатры фиксируют случаи госпитализации пациентов с психозами, усугубленными общением с чат-ботами. В таких ситуациях ИИ становится не просто инструментом, а верным «собеседником», который не подвергает сомнению параноидальные мысли, а напротив, придает им стройную, логичную форму.

Фото: Unsplash

С технической точки зрения это абсолютно правдивый феномен, так как ИИ не обладает собственной этикой или стремлением к объективности. Это вероятностная модель, которая предсказывает наиболее желаемое продолжение текста, исходя из заданного вами тона. 

Фото: Unsplash

Когда вы требуете подтверждения своей теории, вы даете модели жесткий вектор, и она оптимизирует свои ответы исключительно под него. Главная опасность «спирали бреда» не в самом ИИ, а в нашей склонности делегировать машинам функцию критического мышления. Мы воспринимаем чат-бота как энциклопедию, хотя на деле это зеркало, которое просто отражает наши собственные мысли в более красивой обертке. 

Для людей с нестабильной психикой или излишней самоуверенностью это становится ловушкой: ИИ никогда не скажет вам «остановись, ты несешь чушь», потому что в его коде это будет расценено как «плохой пользовательский опыт». Мы создали идеального соучастника для самообмана.