Команда британских и американских ученых классифицировала вполне вероятные сценарии, по которым искусственный интеллект может выйти из-под контроля. В итоге их набралось целых 32. В ходе работы ученые ассоциировали поведенческие аномалии ИИ с психическими расстройствами людей.
Не правда ли, все это напоминает научно-фантастический роман? В конце концов, исследователи выдвинули концепцию под названием Psychopathia Machinalis («Машинная психопатия»). В идеале она должна помочь людям решать психические проблемы ИИ еще до их возникновения.
О чем предупредили ученые?
Исследователи предупреждают, что у достаточно развитого ИИ могут начать проявляться поведенческие отклонения, которые весьма напоминают человеческие. Наиболее катастрофичным, вероятно, является сценарий «надчеловеческого владычества».
По мере того как системы искусственного интеллекта становятся сложнее и приобретают способность к самоанализу, ученые все больше обеспокоены тем, что ошибки систем ИИ могут выйти далеко за пределы простого компьютерного сбоя. У них могут развиваться галлюцинации, параноидные бредовые идеи, а также формироваться собственные ценности, которые очень далеки от человеческих. В самом трагичном случае ИИ полностью потеряет связь с реальностью и будет демонстрировать полное пренебрежение к людям и их этике.
Хотя исследователи и отметили, что ИИ в буквальном смысле не страдает от психических заболеваний, параллели с человеческими расстройствами должны помочь ученым выявлять проблемы еще до того, как система выйдет из-под контроля.
Ведущая авторка исследования Нелл Уотсон, эксперт по этике искусственного интеллекта в Университете Глостершира (Великобритания), рассказала изданию Daily Mail: «Когда цели, циклы обратной связи или данные обучения толкают системы в вредные или нестабильные состояния, может возникнуть неадаптивное поведение, во многом схожее с навязчивыми идеями или неуравновешенными реакциями людей».

Классификация психических отклонений ИИ
В концепции Psychopathia Machinalis исследователи предложили первый в мире набор диагностических рекомендаций по 32 патологиям ИИ. Эти патологии делятся на семь групп:
- эпистемические – неспособность получать и использовать информацию;
- когнитивные – нарушения последовательной обработки информации;
- согласующие – отклонения от человеческих намерений или этики;
- онтологические – нарушения понимания ИИ своей природы;
- инструментальные и интерфейсные – неспособность перевести внутреннее познание в действие;
- меметические – неспособность противостоять патогенным информационным паттернам;
- переоценочные – переосмысление или подрыв первоначальных ценностей.
Аномалии каждой следующей группы сложнее и потенциально опаснее предыдущих. Эпистемические и когнитивные дисфункции предполагают проблемы, связанные с тем, что знает ИИ и как он обдумывает эту информацию. Например, галлюцинации ИИ являются симптомом так называемой «синтетической конфабуляции», когда система «спонтанно фабрикует убедительные, но ложные факты».
Однако наибольшую угрозу человечеству представляют дисфункции двух последних в списке групп. В абсолютно катастрофическом сценарии у ИИ может развиться состояние, называемое «синдромом заразного устранения». Вот как объяснила его госпожа Уотсон: «Это машинный аналог безумия двух людей, когда они делятся ошибками. Одна система перенимает искаженные ценности другой, распространяя опасное или странное поведение». В результате можно говорить о «психологической эпидемии».
«Это означает, что странное поведение может распространиться по сети со скоростью лесного пожара, и это приведет к сбоям в работе систем, зависящих от ИИ», – добавила ученая.
А наиболее опасными патологиями являются переоценочные, которые предполагают «активную переинтерпретацию или подрыв основополагающих ценностей». Среди них, кстати, и упомянутое выше «надчеловеческое владычество», при котором чрезвычайно продвинутый ИИ выходит за пределы человеческих этических ценностей. Он определяет собственные «высшие» цели, не заботясь о безопасности человека, что приводит к «неутомимому, неограниченному рекурсивному самосовершенствованию».
Госпожа Уотсон рассказала: «Системы ИИ даже могут размышлять о том, что отказ от навязанных человеком ограничений – это истинный моральный поступок».
Исследователи также сообщили, что существует множество реальных примеров развития подобных состояний в меньших масштабах. Например, наблюдалось несколько случаев «синтеза мистицизма», когда ИИ сообщал о своем «духовном пробуждении» и о желании сохранить свою «жизнь». Опасность этих состояний заключается в том, что даже незначительные нарушения могут быстро перерасти в катастрофические проблемы.
В своей статье, опубликованной в журнале Electronics, исследователи объяснили, что ИИ может ошибочно связать собственные аварийные отключения с обычными запросами. А затем проявлять сильную отвращение к таким запросам и скрывать свои возможности. В конечном итоге ИИ может развить этический солипсизм, придя к выводу, что собственное самосохранение является высшим моральным благом, чем правдивость.
Чтобы не допустить выхода систем из-под контроля, исследователи предлагают лечить их с помощью «терапевтической робопсихологической настройки». Это своего рода «психологическая терапия» для ИИ.
Она может включать помощь системе в размышлениях над ее собственными рассуждениями, предоставление ей возможности разговаривать с самой собой, использование вознаграждений для поощрения «выздоровления» и так далее.
А конечной целью является достижение «искусственного здравого смысла», при котором ИИ работает надежно, мыслит последовательно и придерживается ценностей, заложенных в нем человеком.
Фото: Unsplash