Исследователи оспаривают широко распространённое мнение о том, что предвзятость, вызванная искусственным интеллектом, — это технический недостаток. Вместо этого ученые теперь утверждают, что на ИИ сильно влияет динамика власти в обществе. Современная технология учится на исторических данных, сформированных человеческими предубеждениями, впитывая и увековечивая дискриминацию в процессе. Это означает, что искусственный интеллект не создаёт неравенство, а воспроизводит и усиливает его.
Наше исследование освещает реальные примеры, когда ИИ усилил существующие предубеждения
Туба Биркан, профессор
Профессор Туба Биркан объяснил, что одним из ярких примеров является инструмент найма персонала в американскую компанию Amazon, основанный на искусственном интеллекте, который, как было обнаружено, отдает предпочтение кандидатам мужского пола. В конечном итоге это решение усиливает гендерное неравенство на рынке труда. Аналогичным образом, правительственные системы обнаружения мошенничества с использованием искусственного интеллекта ошибочно обвинили семьи, особенно мигрантов, в мошенничестве. В свою очередь это привело к серьезным последствиям для пострадавших. Два этих примера демонстрируют, как искусственный интеллект, вместо того чтобы устранять предвзятость, может в конечном итоге усилить дискриминацию, если его не контролировать. Без прозрачности и подотчётности ИИ рискует стать инструментом, который закрепляет существующие социальные иерархии, а не бросает им вызов".
Специалисты отметили, что ИИ разрабатывается в рамках более широкой экосистемы, в которой компании, разработчики и политики принимают важные решения о его проектировании и использовании. От этих решений зависит, будет ли ИИ уменьшать или усиливать неравенство. Обучаясь на данных, отражающих социальные предубеждения, системы ИИ воспроизводят дискриминацию в таких важных сферах, как приём на работу, охрана правопорядка и распределение пособий. В исследовании профессора Биркан подчёркивается, что управление ИИ должно выходить за рамки технологических компаний и разработчиков. Учитывая, что ИИ опирается на данные, созданные пользователями, необходимо обеспечить большую прозрачность и инклюзивность при его проектировании, внедрении и регулировании. В противном случае ИИ продолжит углублять цифровой разрыв и расширять социально-экономическое неравенство.
Вместо того, чтобы считать недостатки ИИ неизбежными, наша работа выступает за проактивную политику и структуры, которые гарантируют, что ИИ служит социальной справедливости, а не подрывает её. Внедряя справедливость и подотчётность в ИИ с самого начала, мы можем использовать его потенциал для позитивных изменений, а не позволять ему усиливать системное неравенство.
Туба Биркан, профессор
Источник: Туба Биркан, Мустафа Ф. Озбилгин, (2025) Раскрывая неравенство в коде: распутывая связь между искусственным интеллектом и неравенством. Технологическое прогнозирование и социальные изменения, том 211, 123925. https://doi.org/10.1016/j.techfore.2024.123925.
Фото: pxhere.com
Обсуждение ( 0 ) Посмотреть все