【3月25日 AFP】米マイクロソフト(Microsoft)は24日、公開したばかりの学習型人工知能(AI)会話ボット「Tay」を停止した。ソーシャルメディアのユーザーと会話することで学習するボットだが、公開から間もなく憎悪に満ちた人種差別的な言葉を連発するようになったためという。

 Tayは、10代少女という設定のAI会話ボットで、インターネット上で実在する人々と交流することで学習するよう開発された。マイクロソフトによると、技術的な実験であると同時に、社会的・文化的な実験でもあるという。

 ところが、悪意あるネットユーザーらがさまざまな「悪いこと」をTayに教え込んだため、計画は頓挫してしまった。

 マイクロソフト広報は、AFPの取材に「残念ながら公開から24時間もたたないうちに、一部のユーザーがTayの応答能力を悪用して不適切なコメントを返すよう組織的に誘導していることが分かった」と説明した。そのため、Tayを停止してソフトウエアの調整を行うことにしたという。

 マイクロブログのツイッター(Twitter)では「またね、人間の皆さん。今日はたくさんしゃべったからもう寝るわ」が停止前のTayの最後のツイートとなった。

 ツイッターにTayが投稿した問題発言は既に削除されているが、ネット上には多くのスクリーンショットが出回っている。その内容は、ナチス・ドイツ(Nazis)を支持するものや米大統領選の共和党候補指名争いトップのドナルド・トランプ(Donald Trump)氏への称賛、わいせつ表現、女性や黒人への差別発言など多岐にわたっていた。(c)AFP