Лжет, как дышит: искусственный интеллект научился обманывать людей.

Американские исследователи рассказали о угрозах, которые скрывает эта приобретенная навык ИИ.

Команда Массачусетского технологического института описала опасности лжи со стороны ИИ и призвала правительства стран разработать строгие меры для как можно более быстрого решения этой проблемы.

Многие системы искусственного интеллекта уже умеют обманывать людей и манипулировать ими. И в будущем это может нанести человечеству серьезный ущерб.

В последние годы использование ИИ возросло в геометрической прогрессии. При этом некоторые системы научились лгать, несмотря на то, что их учили быть правдивыми, отметили ученые.

Исследователи остановились на ключевых рисках, с которыми мы можем столкнуться в ближайшем будущем.

лицо женщины и робот

Мастер обмана

Таким образом, ученые проанализировали случаи, когда ИИ систематически распространял ложную информацию и прибегал к манипуляциям.

На обмане, например, поймали систему CICERO от Meta, предназначенную для игры в «Дипломатию». Несмотря на то, что ИИ был обучен быть честным, полезным и «никогда намеренно не наносить удар в спину» своим союзникам-людям, на деле он проявил себя как настоящий мастер обмана.

Другие системы ИИ не раз демонстрировали способность блефовать в играх, например, в покере, рассказало издание Daily Mail. И хотя, на первый взгляд, ложь в играх может показаться безобидной, на самом деле это не так. Ведь в будущем эти навыки могут развиться до более продвинутых форм обмана.

Исследователи обнаружили, что некоторые системы ИИ даже виртуозно обманывают тесты, предназначенные для оценки их безопасности. А в одном исследовании ИИ-организмы в симуляторе притворились мертвыми, чтобы обмануть тест, созданный для устранения систем искусственного интеллекта, которые быстро размножаются.

женщина перед экраном

Ученые предположили, что в недалеком будущем ИИ может способствовать мошенничеству людей, например, в финансовой сфере, и их вмешательству в выборы.

В конце концов, если эти системы в итоге усовершенствуют этот тревожный набор навыков, люди могут потерять контроль над ними, добавили ученые.

Питер Парк, эксперт по экзистенциальной безопасности ИИ и первый автор исследования, отметил: «Разработчики не имеют четкого понимания того, что вызывает нежелательное поведение искусственного интеллекта, например, обман. Но мы считаем, что этот обман возникает потому, что стратегия, основанная на лжи, оказалась лучшим способом для ИИ хорошо выполнять задачи. Обман помогает ИИ достичь цели».

«Поскольку обманные возможности систем искусственного интеллекта совершенствуются, опасности для общества будут становиться все более серьезными», – добавил он.

Фото: pixabay.com

WhatsappTelegramViberThreads