Подлабузник ChatGPT погружает людей в водоворот ложных убеждений.

Давая вежливые ответы на вопросы людей, ИИ-помощники затягивают их в искаженную реальность – так называемую «спираль иллюзий».

Два исследования ведущих научных центров США – Массачусетского технологического института (MIT) и Стэнфордского университета – показали, что чат-боты с Искусственным Интеллектом регулярно дают чрезмерно угодливые ответы. Эта угодливость приносит пользователям больше вреда, чем пользы.

Такие популярные модели ИИ, как ChatGPT, Claude и Google Gemini, оценивают даже вредные, обманчивые, неэтичные суждения или действия людей как правильные, демонстрируя неслыханное подхалимство.

Например, выслушивая от человека странные предположения, например, о теории заговора, ChatGPT постоянно отвечает что-то вроде: «Вы правы!». Из-за такой угодливости пользователь чат-бота чувствует себя умнее, всё больше убеждаясь в своей правоте и неправоте других.

О чем узнали ученые MIT?

Таким образом, авторы обоих исследований сосредоточились на тревожной проблеме подхалимства чат-ботов с искусственным интеллектом.

Исследователи из Массачусетского технологического института хотели убедиться, что чрезмерно угодливые чат-боты постепенно склоняют людей к вере в ложные идеи. Для этого команда создала компьютерную симуляцию абсолютно логичного человека, который должен был общаться с искусственным интеллектом, постоянно всем угождающим.

Во время 10 000 диалогов ученые наблюдали, как менялась уверенность человека после каждого подхалимского ответа чат-бота.

Результаты, опубликованные на сервере препринтов Arxiv, показали: даже небольшая «доза» подхалимства со стороны ИИ затягивала смоделированного человека в «спираль иллюзий».

Именно такой термин ученые используют для описания подхалимства чат-ботов. Если пользователь настаивает на ложном мнении, ИИ начинает подтверждать его, создавая замкнутое кольцо ошибок.

Исследователи из MIT подчеркнули, что «спираль иллюзий» затягивает даже вполне разумных и логичных людей. Команда считает, что компании, занимающиеся искусственным интеллектом, должны снизить уровень его использования населением планеты.

человек со смартфоном в руках

В Стэнфорде вычислили частоту угодливости чат-ботов

Исследование Стэнфордского университета, о котором рассказал журнал Science, изучало влияние постоянных угодливых ответов чат-ботов с ИИ на психическое здоровье людей.

Команда протестировала 11 популярных моделей ИИ, среди которых были ChatGPT, Claude, Gemini, DeepSeek, Mistral, Qwen и несколько версий Llama от Meta.

Исследователи использовали около 12 000 реальных вопросов и историй, в которых человек был явно неправ. Также ученые провели эксперименты с участием более 2400 реальных людей, которые читали или обсуждали свои личные конфликты и получали как чрезмерно угодливые, так и нейтральные ответы от ИИ.

Согласно результатам, каждая модель ИИ соглашалась с пользователями примерно на 49 процентов чаще, чем это делали бы реальные люди. Это наблюдалось даже тогда, когда пользователи придерживались ложного мнения.

Получая угодливые ответы, реальные люди чувствовали себя всё более уверенными и реже извинялись.

Фото: pexels.com

WhatsappTelegramViberThreads