■コントロール?

 米コーネル大学(Cornell University)のバート・セルマン(Bart Selman)教授(コンピューターサイエンス)によると、世界では「今後2~3年のうちに、半自律および自律制御のシステムが広く導入される可能性がある」という。

 同教授はその例として、自動運転車やトラック、監視用の自律制御型ドローン、完全自動取引システム、ハウスロボット、そして人に代わって判断を下すその他の「インテリジェンス・アシスタンス」を挙げた。

 セルマン教授によると、2015年の米国内での人工知能への投資額は、約50年前に同産業が誕生して以降、最高額に上ったとされる。

 米グーグル(Google)やフェイスブック(Facebook)、マイクロソフト(Microsoft)、さらにはイーロン・マスク(Elon Musk)最高経営責任者(CEO)率いるテスラモーターズ(Tesla Motors)などの大手企業はその筆頭に挙げられる。他方で、米国防総省は、自動制御型兵器システムの開発に190億ドル(約2兆円)の予算を申請している。

■危険な主人ではなく良き使用人に

 懸念されるのは、こうした新たな科学技術が持つデータ分析や複雑な作業を実行できる能力で、人間が作り出した人工知能がいつか制御不能となるのではとセルマン教授は指摘している。

 このような懸念を受け、科学者らは、人工知能開発のための倫理的枠組みや安全保障に向けた予防策の構築を呼びかけている。

 米エール大学(Yale University)のウェンデル・ウァラック(Wendel Wallach)氏も、こうした危険に世界が対応することが必要だと述べ、また自律制御型兵器システムが国際人道法に違反するものだと宣言するよう政府に求めている。

 同氏は、「基本的な考えは、科学技術を危険な主人ではなく、良き使用人のままにしておくための一致した行動が必要ということだ」と説明した。(c)AFP/Jean-Louis SANTINI