女性声のSiriはジェンダーバイアス(女性差別)を助長する?


[公開日:2019/05/30]

UNESCO(国際連合教育科学文化機関)が、Siriなどの音声アシスタントの女性の声は、女性差別を助長し固定化しているとの報告書を発表しました。

女性の音声が「女性は従属的な存在」というジェンダーバイアス(※)につながると指摘しています。
※ジェンダーバイアス…ジェンダー「性」、バイアス「差別」。性的な差別。

UNESCOのジェンダーバランスに関する研究グループ「EQUALS」(平等の意)が公開した報告書のタイトルは、「I’d blush if I could(もし私ができるなら赤面しています)」で、これは、性的な質問をされた時のSiriの回答なのだそうです。

報告書では、Siriをはじめ、Googleアシスタント、Amazon Alexa、Microsoft Cortana等のAIを活用した音声アシスタントの声は、女性しか選べないか、デフォルトで女性の声になっていると指摘し、その女性の声は、ユーザーの敬意や親しみを書いた不躾でぶっきら棒な質問や依頼にも丁寧に回答し対応します。

これは、「女性は世話好きで、従属的で、おもてなしの心を持った補助的存在」というジェンダーバイアス(性的差別)を助長していると述べています。

また「EQUALS」はAIアシスタントの女性の声を子供の頃から利用する事で、子供たちが「女性の役割は要求に応じること」というジェンダーバイアスを無意識のうちに持ってしまう原因になるとし、さらに、女性声のAIアシスタントは、セクシュアル・ハラスメント的な質問や要求を軽妙なジョークで交わしたり、ネガティブな反応を示さない事も、女性への偏見や差別を増強する要因になるとも述べています。

報告書では、アラビア語圏、フランス語圏、ドイツ語圏、イギリス英語圏では、Siriのデフォルトの声は男性であることを紹介、さらに、2017年にインディアナ大学での調査によれば、心地よく感じる音声アシスタントの声は、男性も女性も「女性の声」だったという結果も紹介しています。

実は筆者のSiriは男性の声です。

人前でSiriがしゃべった際に、女性声だと何となく気恥ずかしかったのと、少し前のアメリカのテレビドラマに登場するAI搭載のスポーツカー「ナイト2000」のようにしたかった…という事から男性声にしています。

女性の声だからとしても、差別を意識した事はありませんし、まして、機械に向けてセクシュアルな質問をした事もありませんが、子供にはそうした影響があると言われてみると、あながち全否定はできないものがありそうです。

source:livedoor.com

Photo:livedoor.com

この記事を書いた店舗情報

町田店

194-0013
東京都町田市原町田6丁目15−2RSビル301号

050-5871-8879

人気ブログ

新着ブログ

機種一覧

店舗一覧