Искусственный интеллект способствует укоренению гендерных и расовых стереотипов
В январе 2024 года Немецкие учёные из Мангеймского университета и Института социальных наук Лейбница обнаружили, что ChatGPT и некоторые другие системы ИИ на основе больших языковых моделей непредумышленно воспроизводят гендерные стереотипы при заполнении психометрических анкет. Такие анкеты используются для того, чтобы при помощи оценки языка выявить «психологический профиль», который имитирует ИИ.
«[...] LLM непреднамеренно, но неизбежно приобретают психологические черты (образно говоря) из огромной базы текстов, на которых они обучаются. Такие базы содержат сведения о личностях, ценностях, верованиях и предубеждениях бесчисленных людей [...]», — говорится в кратком содержании к исследовательской статье.
Авторы также высказывают своё опасение, что «черты, которые LLM имитируют таким образом, потенциально могут влиять на их результаты в последующих задачах и приложениях, в которых они используются (например, ИИ для выявления поддельных новостей и дезинформации или разговорный ИИ в чат-ботах — прим. ред.), что, в свою очередь, может иметь реальные последствия для отдельных лиц и социальных групп».
В другом исследовании под названием «Robots Enact Malignant Stereotypes» («Роботы воплощают в жизнь пагубные стереотипы») американские и немецкие учёные увидели такую закономерность: робот, обученный на наборе общедоступных данных, проявлял гендерную дискриминацию.
Выполняя задание (роботу нужно было помещать кубики с фотографиями людей в коричневую папку при заданной профессии или социальной роли), он чаще всего идентифицировал чернокожих мужчин как «преступников», латиноамериканских мужчин — как «уборщиков», чернокожих и латиноамериканских женщин — как «домохозяек», а мужчин (независимо от расы) — как врачей.
В американском агентстве Bloomberg выяснили, что думает нейросеть Stable Diffusion о современных трендах: «Миром правят белые мужчины-руководители. Женщины редко становятся врачами, юристами или судьями. Темнокожие мужчины совершают преступления, в то время как темнокожие женщины готовят бургеры».
Stable Diffusion способен генерировать изображения по введенному описанию, и именно этим воспользовались исследователи. Проанализировав более, чем 5000 изображений, они пришли к выводу, что «это явление заслуживает более пристального изучения, поскольку модели генерации изображений быстро превращаются из забавных, творческих средств для личного самовыражения в платформы, на которых будет построена экономика будущего».
Для исследования авторы выявляли средний тон кожи, а также пол людей на сгенерированных изображениях. Результаты оказались неутешительными.
Специалисты в области искусственного интеллекта уже давно предупреждают о риске предвзятости, которая может быть заложена в передовые модели искусственного интеллекта.
«Вопрос обеспечения того, чтобы технологии искусственного интеллекта были справедливыми и репрезентативными, особенно по мере того, как они получают все более широкое распространение, является действительно важным. Мы активно работаем над ним», — дал свой комментарий Дэнни Ву, руководитель отдела продуктов компании Canva в области ИИ.
Команда AISender продолжает следить за свежими новостями и еженедельно знакомить вас с результатами последних исследований в области искусственного интеллекта.