【12月20日 AFP】米国立標準技術研究所(NIST)は19日、顔認識システムが特に非白人について、ひどく不正確な結果を出すとの研究結果を公表した。人工知能(AI)技術の導入が幅広く推進される中、新たな問題を投げ掛けることになりそうだ。

 NISTによると、顔認識アルゴリズムには、異なる2人を同一人物と認識する「フォールスポジティブ(False positive、誤検知)」と、同一人物を認識できない「フォールスネガティブ(False negative、見逃し)」の双方がみられた。

 多数のアルゴリズムで、アジア系とアフリカ系が「フォールスポジティブ」となる割合は白人の100倍超だった。

 米国で開発されたアルゴリズムでは、アジア系、アフリカ系、先住民系で正しい結果が出ない割合が高いことが分かった。中でも「フォールスポジティブ」となる割合は、先住民系で最も高かった。

 さらに、2つのアルゴリズムは、35%ほどの割合でアフリカ系の女性を男性と認識した。

 空港や国境検問、金融機関、小売業界、学校向けの認証サービスからスマートフォンのロック解除といった個人使用まで、顔認識技術が幅広く導入される中、活動家や研究者らは、エラー発生のリスクが大きすぎると警告。誤検知により無実の人間が刑務所に送られる恐れがあるほか、技術を悪用してデータベースが作られ、ハッキングや不正使用につながりかねないと指摘している。(c)AFP