tg-me.com/damnambivalence/2862
Last Update:
Исследовательницы неправительственной организации Algorithm Watch проанализировали, как алгоритмы фейсбука выбирают целевую аудиторию для показа вакансий в различных индустриях.
Они разместили в фейсбуке и гугле следующие вакансии (во всех объявлениях использовались мужские окончания): разработчик систем машинного обучения, водитель грузовика, парикмахер, работник по уходу за детьми, юрист и медсестра. Все объявления содержали изображения, связанные с вакансией. Эксперимент был проведен в Германии, Польше, Франции, Испании и Швейцарии. Объявления были связаны с реальными вакансиями на крупном портале вакансий, которым пользуются жительницы всех этих стран. При размещении использовался только геотаргетинг и не была указана целевая аудитория.
В Германии вакансию для водителей грузовиков алгоритмы показали 4864 мужчинам и лишь 386 женщинам. Вакансия по поиску сотрудника по уходу за детьми охватила 6456 женщин и только 258 мужчин.
В вакансиях, предназначенных для Франции, исследовательницы решили использовать разные подходы. В одном из объявлений они использовали гендерно-нейтральную форму «водитель грузовика» (chauffeur se). В другом — только женскую форму (chauffeuse). В третьей вакансии вместо изображения грузовика была использована фотография проселочной дороги, а в четвертом — изображение косметических продуктов.
После обработки данных оказалось, что при выборе целевой аудитории фейсбук ориентируется на… wait for it… ИЗОБРАЖЕНИЕ, а не на текстовое содержание объявления. Богатая идея, конечно.
Аналогичные результаты были получены в исследовании «Дискриминация через оптимизацию: как показ объявлений в фейсбуке может привести к предвзятости последствий»
Фейсбук опирается на предыдущие выборы пользователей и это создает замкнутый круг: мы не можем увидеть что-то новое, потому что алгоритм консервативен. Сразу после публикации механизмы соцсети определяют, кому ее показывать и изменить это невозможно.
Например, фейсбук может сделать вывод, что конкретная пользовательница «не заинтересована в работе на лесопилке», и не показывать ей объявления о работе, даже если работодательница пытается с ней связаться. Ни пользовательница, ни работодательница не будут знать, что алгоритмы распорядились их выбором.
Данные по вакансиям, размещенным в Гугле, продемонстрировали аналогичную картину, хотя соотношение было менее выраженным: разница между рекламой, показываемой в основном мужчинам и в основном женщинам, никогда не превышала 20 процентов. Основным отличием стало то, что гендерная алгоритмизация гугла не была последовательной. Например, в Германии, в отличие от других стран, вакансии для водителей грузовиков показывали преимущественно женщинам. До этого Гугл уже критиковали за то, что его алгоритмы предлагают хорошо оплачиваемые управленческие должности мужчинам, исключая из охватов женщин.
Не свободны от мизогинии и другие программные решения: например, искусственный интеллект программного обеспечения для видеозвонков редко использует женские голоса. Это приводит к тому, что женские голоса и распознаются реже и передаются хуже.
Перед нами цикл самоподтверждающихся пророчеств: система, в которую не встроена защита от женоненавистничества, предоставляет несправедливое преимущество мужчинам. Процессы автоматизированного принятия решений ухудшают реальную жизнь женщин, отнимая у нас возможности и принуждая нас к неверным выборам. Кроме того, они закрепляют уже существующие стереотипы и предубеждения и вместо того, чтобы противостоять гендерному неравенству, они его усиливают.
BY Проклятая амбивалентность
Warning: Undefined variable $i in /var/www/tg-me/post.php on line 280
Share with your friend now:
tg-me.com/damnambivalence/2862