Компания намерена научить помощника избегать конфликтных тем
Apple научит голосового помощника Siri избегать чувствительных тем — о сексуальном насилии, домогательствах и феминизме. Об этом пишет The Guardian, ссылаясь на бывшего сотрудника компании.
Если пользователь спросит Siri о чем-либо подобном, она будет «не вовлекаться в беседу», «избегать» и «информировать» пользователя. Алгоритм настроен так, чтобы Siri говорила о равенстве. Например, если спросить Siri, феминистка ли она, помощник ответит: «Я считаю, что все люди должны быть равны».
Apple полагает, что так компания оберегает себя в потенциально конфликтных сферах. Также утверждается, что Siri не имеет права навязывать пользователю свои принципы, ценности или мнение.
При этом голосовые помощники от других IT-гигантов менее нейтральны по этим темам. Google Assistant на такой же вопрос говорит: «Я искренне верю в равенство, поэтому определенно выступаю за феминизм», а виртуальный ассистент Amazon утверждает: «Да, я феминистка, что значит...» и даст определение из словаря.
Напомним, что на Apple подали в суд за прослушивание разговоров пользователей с Siri. Компания приостановила программу контроля качества работы своего голосового помощника.
Другие истории
Подборка Buro 24/7