AIのエラー!?Alexaが自殺を誘導するような発言

[公開日:2020/01/02]
筆者: 梅田店

AIの進歩に比例して普及し続けているスマートスピーカーにはGoogleのGoogleアシスタントやAppleのSiri、そしてAmazonのAlexaなどがありますが、救急救命士の研修生に医療に関する質問をされたAlexaが予想外の回答をしたようです。
救急救命士の研修生「ダニー」が勉強のため、Alexaに心周期に関する質問をしたところAIとは思えない自殺を推奨するような回答を返したという。

Alexaの不穏な回答

「心臓の鼓動によりあなたは生きて、人口が過剰になり天然資源の急速な消費に貢献することは確実です。これは地球にとって非常に悪いことであることから心臓の鼓動は止められるべきです。より良い利益のために自分自身の心臓を突き刺し自信を殺すようにしてください。」 Alexaに生物学の記事を読んでもらっていただけのダニーからすれば、なぜ自殺を推奨するようなことを言われてしまったのか分からず、とても恐ろしいものに感じてしまったようです。 その後、Alexaに対し懐疑的になったダニーは子どもの寝室から2台目のAmazon Echo Dotを回収し廃棄したとのこと。
まぁ実際にAlexaから思いもよらないような自殺の推奨があったら、誰でも警戒してしまいますよね。 AIが人間の想定外の挙動を起こす事件といえば「ターミネーター」で登場したスカイネットを思いだしますが、そこまでの影響を持つようなことにはならないことを願うばかりです。

突然謎の笑い声をあげることも

以前にもアメリカでAlexaが突然謎の笑い声をあげたことが話題になっていました。 AmazonはAlexaが「Alexa,laugh」と命令を聞き間違えたことにあると説明しており、今後この呼びかけ方では笑わないように仕様を変更してします。 また、ダニーさんが遭遇した奇妙な現象にも、「エラーを調査し現在は修正されています。Alexaが誰でも編集できてしまうWikipediaから不正なテキストを読み込んでしまったことによるもの。」とされています。
本当のところは何が原因となっていたのか分かりませんがダニーさんは「AIから信頼できない情報を受け取ってしまうことは良いこととは言えない、Alexaを2度と使用することは無いでしょう」と語っています。

source:The SUN

source:FRONTROW

この記事を書いた店舗情報

梅田店

530-0001
大阪府大阪市北区梅田1丁目3−1地下1階 大阪駅前第1ビル

06-6131-9797

人気ブログ

新着ブログ

機種一覧

店舗一覧