Искусственный интеллект в поисках преступников

Япония тестирует инновационную систему безопасности, в которой искусственный интеллект будет задействован для выявления потенциальных преступников.

Таким образом, японская полиция надеется предотвратить серьезные преступления. Как отмечается, изначально эти инновационные технологии будут использоваться только для защиты высокопоставленных VIP-личностей. Эта идея возникла через год после убийства бывшего премьер-министра Синдзо Абэ. Полиция опасается новых нападений со стороны «одиноких преступников», поэтому стремится привлечь ИИ для выявления таких лиц заранее.

Искусственный интеллект против одиноких преступников

Тестовая система мониторинга безопасности с ИИ намеренно будет избегать технологий распознавания лиц. Вместо этого она сосредоточится на распознавании трех типов шаблонов машинного обучения. Камеры с использованием искусственного интеллекта будут выявлять подозрительное поведение и объекты, которые могут представлять угрозу для окружающих, а также вероятные вторжения в зону ограниченного доступа.

Пока заявлено, что тестовый запуск этой системы наблюдения и безопасности в Японии состоится до марта 2024 года. По мнению некоторых экспертов в области безопасности, касающихся террористических угроз, новейшие камеры на базе ИИ обеспечат больше возможностей для бдительности и помогут сделать работу полицейских значительно эффективнее. Однако такую точку зрения поддерживают не все. Некоторые обеспокоены внедрением этих технологий из-за наличия скрытых алгоритмов.

Камеры наблюдения с ИИИз-за неожиданного убийства премьер-министра в прошлом году и неудавшегося покушения на нового избранника в этом году японская полиция всеми силами пытается предотвратить резонансные преступления, которые часто совершают так называемые «одинокие преступники». В Японии их также называют «отаку», что означает «замкнутый».

Оба этих термина относятся к одиноким молодым людям, которые составляют недовольную часть японского общества. Такие лица не связаны с криминалом, но иногда проявляют насилие.

Система пока что на стадии тестирования

Сторонники инновационного метода борьбы с одинокими преступниками утверждают, что новейшие камеры смогут наблюдать за подозрительными лицами, а ИИ будет обучаться распознавать реальную угрозу. Например, в зону внимания могут попасть те, кто часто и нервно оглядывается, и имеет другие проявления поведения «виновного разума».

По мнению экспертов, таким образом системы наблюдения с искусственным интеллектом смогут идентифицировать потенциально угрожающих лиц среди толпы или при других отвлекающих факторах и выявлять подозрительные предметы. Такие действия очень сложны даже для опытных работников сферы безопасности. Автоматизация этого процесса значительно облегчит работу специалистов.

В настоящее время эти новейшие технологии выявления потенциальных злоумышленников только тестируются. Эксперты отмечают, что на этом этапе крайне важно хорошо оценить точность работы роботизированной системы, чтобы понять, стоит ли внедрять ее на официальном уровне.

Другие похожие технологии в сфере безопасности

Следует отметить, что японцы не являются новаторами в этом направлении применения искусственного интеллекта. По словам эксперта по безопасности Иссао Итабаси, еще по данным 2019 года в 176 странах мира исследовали эти технологии, а в 52 из них – уже использовали их.

Кроме того, Япония еще в прошлом году внедрила аналогичную систему на базе ИИ для использования на железной дороге с целью выявления подозрительных действий. Японцам принадлежит и стартап Vaak, который разработал гуманоидного робота для выявления потенциальных воров по их движениям и жестам.

Роботы в службе безопасностиСуществует подозрение, что именно это программное обеспечение заложено в основу новейшей технологии на службе у японской полиции. Однако официального подтверждения этому нет.

Как отмечает издание Daily Mail, ИИ Vaak запрограммирован на распознавание подозрительных действий на записях безопасности. По утверждению разработчиков технологии, этот робот может различать обычное и потенциально преступное поведение людей. Замечая что-то подозрительное при видеонаблюдении, он предупреждает о потенциальной угрозе через специальное приложение.

Однако исследователи предупреждают, что робот Vaak для борьбы с кражами имеет расовые и другие предвзятости. В целом, согласно исследованию 2018 года, многие популярные системы ИИ демонстрируют сексистские и расистские наклонности. Поэтому исследователи призывают обратить внимание на этот недостаток искусственного интеллекта.

Прогнозирующие системы с ИИ на службе безопасности

Искусственный интеллект на основе данных из предыдущих отчетов может прогнозировать, где и когда вероятны новые преступления. В базу данных, которую использует робот от Palantir Technologies, входит широкий спектр информации – от географии до судимостей и записей в социальных сетях. На основе этого ИИ определяет лиц или места, которые могут быть причастны к преступлению.

Также существует множество других прогнозирующих систем аналогичного типа, которые значительно отличаются друг от друга. Например, в полиции Чикаго используют так называемый «экстренный список». Он создан по алгоритму, который выделяет людей, вероятнее всего, причастных к стрельбе.

Однако многие эксперты отмечают наличие проблем у этой системы с ИИ. Кроме того, установлено, что данные о прошлых преступлениях не являются достаточно значимым показателем будущей преступной активности.

Фото: pixabay.com

WhatsappTelegramViberThreads