Геть от рук отбился: учёные классифицировали психические расстройства ИИ

Исследователи спрогнозировали ужасные сценарии, согласно которым искусственный интеллект может выйти из-под контроля, и обдумали способы снижения этих рисков.

Команда британских и американских ученых классифицировала вполне вероятные сценарии, по которым искусственный интеллект может выйти из-под контроля. В итоге их набралось целых 32. В ходе работы ученые ассоциировали поведенческие аномалии ИИ с психическими расстройствами людей.

Не правда ли, все это напоминает научно-фантастический роман? В конце концов, исследователи выдвинули концепцию под названием Psychopathia Machinalis («Машинная психопатия»). В идеале она должна помочь людям решать психические проблемы ИИ еще до их возникновения.

О чем предупредили ученые?

Исследователи предупреждают, что у достаточно развитого ИИ могут начать проявляться поведенческие отклонения, которые весьма напоминают человеческие. Наиболее катастрофичным, вероятно, является сценарий «надчеловеческого владычества».

По мере того как системы искусственного интеллекта становятся сложнее и приобретают способность к самоанализу, ученые все больше обеспокоены тем, что ошибки систем ИИ могут выйти далеко за пределы простого компьютерного сбоя. У них могут развиваться галлюцинации, параноидные бредовые идеи, а также формироваться собственные ценности, которые очень далеки от человеческих. В самом трагичном случае ИИ полностью потеряет связь с реальностью и будет демонстрировать полное пренебрежение к людям и их этике.

Хотя исследователи и отметили, что ИИ в буквальном смысле не страдает от психических заболеваний, параллели с человеческими расстройствами должны помочь ученым выявлять проблемы еще до того, как система выйдет из-под контроля.

Ведущая авторка исследования Нелл Уотсон, эксперт по этике искусственного интеллекта в Университете Глостершира (Великобритания), рассказала изданию Daily Mail: «Когда цели, циклы обратной связи или данные обучения толкают системы в вредные или нестабильные состояния, может возникнуть неадаптивное поведение, во многом схожее с навязчивыми идеями или неуравновешенными реакциями людей».

искусственный интеллект

Классификация психических отклонений ИИ

В концепции Psychopathia Machinalis исследователи предложили первый в мире набор диагностических рекомендаций по 32 патологиям ИИ. Эти патологии делятся на семь групп:

  • эпистемические – неспособность получать и использовать информацию;
  • когнитивные – нарушения последовательной обработки информации;
  • согласующие – отклонения от человеческих намерений или этики;
  • онтологические – нарушения понимания ИИ своей природы;
  • инструментальные и интерфейсные – неспособность перевести внутреннее познание в действие;
  • меметические – неспособность противостоять патогенным информационным паттернам;
  • переоценочные – переосмысление или подрыв первоначальных ценностей.

Аномалии каждой следующей группы сложнее и потенциально опаснее предыдущих. Эпистемические и когнитивные дисфункции предполагают проблемы, связанные с тем, что знает ИИ и как он обдумывает эту информацию. Например, галлюцинации ИИ являются симптомом так называемой «синтетической конфабуляции», когда система «спонтанно фабрикует убедительные, но ложные факты».

Однако наибольшую угрозу человечеству представляют дисфункции двух последних в списке групп. В абсолютно катастрофическом сценарии у ИИ может развиться состояние, называемое «синдромом заразного устранения». Вот как объяснила его госпожа Уотсон: «Это машинный аналог безумия двух людей, когда они делятся ошибками. Одна система перенимает искаженные ценности другой, распространяя опасное или странное поведение». В результате можно говорить о «психологической эпидемии».

«Это означает, что странное поведение может распространиться по сети со скоростью лесного пожара, и это приведет к сбоям в работе систем, зависящих от ИИ», – добавила ученая.

А наиболее опасными патологиями являются переоценочные, которые предполагают «активную переинтерпретацию или подрыв основополагающих ценностей». Среди них, кстати, и упомянутое выше «надчеловеческое владычество», при котором чрезвычайно продвинутый ИИ выходит за пределы человеческих этических ценностей. Он определяет собственные «высшие» цели, не заботясь о безопасности человека, что приводит к «неутомимому, неограниченному рекурсивному самосовершенствованию».

Госпожа Уотсон рассказала: «Системы ИИ даже могут размышлять о том, что отказ от навязанных человеком ограничений – это истинный моральный поступок».

Исследователи также сообщили, что существует множество реальных примеров развития подобных состояний в меньших масштабах. Например, наблюдалось несколько случаев «синтеза мистицизма», когда ИИ сообщал о своем «духовном пробуждении» и о желании сохранить свою «жизнь». Опасность этих состояний заключается в том, что даже незначительные нарушения могут быстро перерасти в катастрофические проблемы.

В своей статье, опубликованной в журнале Electronics, исследователи объяснили, что ИИ может ошибочно связать собственные аварийные отключения с обычными запросами. А затем проявлять сильную отвращение к таким запросам и скрывать свои возможности. В конечном итоге ИИ может развить этический солипсизм, придя к выводу, что собственное самосохранение является высшим моральным благом, чем правдивость.

Чтобы не допустить выхода систем из-под контроля, исследователи предлагают лечить их с помощью «терапевтической робопсихологической настройки». Это своего рода «психологическая терапия» для ИИ.

Она может включать помощь системе в размышлениях над ее собственными рассуждениями, предоставление ей возможности разговаривать с самой собой, использование вознаграждений для поощрения «выздоровления» и так далее.

А конечной целью является достижение «искусственного здравого смысла», при котором ИИ работает надежно, мыслит последовательно и придерживается ценностей, заложенных в нем человеком.

Фото: Unsplash

WhatsappTelegramViberThreads