【7月9日 AFP】米フェイスブック(Facebook)傘下のインスタグラム(Instagram)は8日、ネットいじめ対策として、悪質コメントの投稿者にポップアップ警告を表示する仕組みなどを含めた新機能を発表した。

 新機能の一つは、投稿者のコメントが悪質と考えられる場合、投稿前に人工知能(AI)が警告を表示するというもの。

 インスタグラムのアダム・モッセリ(Adam Mosseri)最高経営責任者(CEO)は「こうした介入があることによって、投稿者には自分のコメントを再考したり取り消したりする機会が与えられ、他のユーザーが悪質コメントを受け取る事態を防げる」と述べた。

 モッセリ氏によると「この機能の初期試験で、再考する機会を与えられたユーザーがコメントを取り消し、悪質度の低い投稿に変更する効果が見られた」という。

 また悪質な投稿者のメッセージの表示を「制限」する機能も、現在実験中だという。

 モッセリ氏は「低年齢のユーザーからは、ブロックしたりフォローをやめたりすることや、報告をためらっているという声が上がっている。それがきっかけでいじめがエスカレートする場合が、特に現実世界で交流している相手の場合にあるからだ」と言う。

 この制限機能を使えば、ユーザーが承認しない限り、悪質な投稿者のメッセージは他のユーザーには見えない。また、いじめの対象となるユーザーがインスタグラムを利用中かどうか、またダイレクトメッセージを読んだかどうかなどが、悪質コメントの投稿者に分からない機能となっている。(c)AFP