5% реплик, адресованных голосовым помощникам, связаны с харрасментом
ЮНЕСКО выпустила доклад с критикой голосовых помощников с женским голосом, среди которых Siri компании Apple и Alexa компании Amazon.
По мнению экспертов, помощники укрепляют дискриминационное отношение к женщинам, поскольку создают психологическую предпосылку о том, что женщина всегда готова исполнить любое желание пользователя и подчиняется грубым командам вроде «эй», «окей».
«Помощник одинаково почтительно реагирует на реплики пользователя, невзирая на их тон и степень дружелюбности. В многих случаях это укрепляет предрассудки о женщинах, как о существах, склонных подчиняться и покорно сносить неуважительное отношение к себе», отмечается в докладе.
По статистике, около 5% реплик, адресованных голосовым помощникам, связаны с харрасментом. Эксперты бьют тревогу еще и из-за того, как помощники реагируют на подобные высказывания. Например, раньше на реплику «ты проститутка» Siri отвечала так: «Если бы у меня были щеки, то они покраснели бы от смущения». После того как Quartz поднял эту тему в своем расследовании в 2017-м, Siri научили отвечать на подобные вещи фразой «Я не знаю, как на это ответить».
ЮНЕСКО просит разработчиков не делать голоса помощников женскими по умолчанию. В качестве образца для подражания организация приводит новые разработки: первый искусственно созданный гендерно-нейтральный голос и чатбот Kai, который распознает оскорбления и просит пользователя прекратить ругаться.
О том, как в России относятся к равноправию полов, мы рассказывали здесь.
Выбор редактора
Подборка Buro 24/7