【9月3日 AFP】米マイクロソフト(Microsoft)は米大統領選に先立ち、人工知能(AI)を使って実物を改変した「ディープフェイク」と呼ばれる写真や動画を検知するソフトウエアや機能を発表した。

 ディープフェイクには写真や動画、音声クリップがあり、本物との判別が難しい。既に、米SNS大手のフェイスブック(Facebook)やツイッター(Twitter)が対策に取り組んでいる。

 マイクロソフトの新たなソフトウエア「ビデオ・オーセンティケーター(Video Authenticator)」は、画像なら1枚ずつ、動画ならフレームごとに分析を行い、肉眼では見つけられないかもしれない改変の証拠を探し出す。

 マイクロソフトは1日、自社ブログへの投稿で「(ディープフェイクは)人々が実際には言っていないことを言ったように見せたり、行かなかった場所にいたように見せたりする恐れがある」と説明した。

 同社は米サンフランシスコの企業「AIファウンデーション(AI Foundation)」と提携し、「ビデオ・オーセンティケーター」を選挙運動や報道機関など、民主主義の手続きに絡めて使用できるようにしたという。

 同社はまた、クラウドサービス「Azure(アジュール)」に、画像や動画が改変されているかを視聴者がチェックできる新ツールを組み込む技術も発表した。画像・動画の制作者が、改変の有無を確認できるデータをバックグラウンドに追加することで確認が可能になる。このプログラムは、英BBCや米紙ニューヨーク・タイムズ(New York Times)などの報道機関と共同で試験を行う予定。

 さらに同社は、米ワシントン大学(University of Washington)などと共に、偽情報と信頼できる事実を見分けるための人々の判断力向上にも取り組んでいる。

 11月の米大統領選が近づく中、とりわけ懸念されているのが、いかにも本物らしく見える偽情報の投稿だ。2016年の前回大統領選では、ソーシャルメディアへの偽情報の投稿が爆発的に増加し、ドナルド・トランプ(Donald Trump)大統領の当選を後押しした。(c)AFP