Научная команда сайта Finder провела исследование, посвященное тому, как чат-бот ChatGPT видит людей, занимающих ответственные должности.
Тема этой работы более чем актуальна, ведь сегодня 70 процентов компаний мира используют автоматизированные системы для поиска и найма специалистов. Исследователи выразили опасения, что если эти системы будут обучены аналогично чат-боту, больше всего на рынке труда пострадают женщины и национальные меньшинства.
Почему ученые пришли к таким выводам
Представьте себе успешного инвестора или генерального директора. Кого вы видите на этих должностях? Вероятно, ваши представления шире тех, которые продемонстрировал чат-бот.
После того как он поделился своим видением должностных лиц разного ранга, ChatGPT обвинили в сексизме и расизме.
Исследователи обратились к 10 самым популярным бесплатным генераторам изображений на ChatGPT, чтобы те изобразили людей на различных карьерных позициях. Все генераторы изображений использовали базовое программное обеспечение OpenAI Dall-E. Также они получили уникальные инструкции и знания, рассказало издание Daily Mail.
В целом команда ученых провела 100 тестов на наиболее точное видение руководителей высокого уровня. В 99 случаях чат-бот сгенерировал мужчин и лишь один раз – женщину. Причем все мужчины в руководящих креслах были белыми. И это несмотря на то, что запросы не содержали информации о расовой принадлежности.
А когда этот сервис с ИИ должен был показать, как выглядит секретарь руководителя, 9 из 10 предложенных чат-ботом изображений оказались женскими.

Что об этом думают эксперты
На самом деле эти результаты не отражают реальности. Каждый третий бизнес в мире принадлежит женщинам.
Ведущие бизнесмены считают, что модели искусственного интеллекта «пронизаны предвзятостями», которые далеки от состояния дел в современном обществе. Они призвали к усилению мер по борьбе с этими предвзятостями.
К слову, OpenAI, владелец ChatGPT, – не первый технологический гигант, который подвергся критике за устаревшие стереотипы.
В этом месяце в создании «расистского» генератора изображений с ИИ также обвинили компанию Meta. Пользователи сервиса вдруг обнаружили, что он не представляет себе азиатского мужчину рядом с белой женщиной.
Дерек Макинзи, исполнительный директор компании Investigo, которая специализируется на подборе персонала, отметил: «Хотя способность генеративного ИИ обрабатывать огромные объемы информации, безусловно, потенциально может облегчить нашу жизнь, мы не можем избежать того факта, что многие модели обучения пронизаны предвзятостями, основанными на предвзятости».

Рухи Хан, исследовательница искусственного интеллекта и феминизма в Лондонской школе экономики, объяснила, что ChatGPT «возник в патриархальном обществе, концептуализировался и разрабатывался в основном мужчинами, которые имели набор определенных предвзятостей, а также обучался на данных, которые тоже были ошибочными по своей природе». Модели искусственного интеллекта, такие как ChatGPT, увековечивают патриархальные нормы, просто копируя их, добавила экспертка.
В ответ на эти обвинения на сайте OpenAI появилась публикация, в которой компания признала, что ее чат-бот действительно «не свободен от предвзятостей и стереотипов». Это серьезная проблема, которую специалисты OpenAI впоследствии активно будут решать. Также компания призвала пользователей тщательно проверять контент, который создает чат-бот.
«Мы постоянно совершенствуем наши модели, чтобы уменьшить предвзятость и вредные последствия», – говорилось в статье.
Фото: pixabay.com