【10月29日 AFP】米シリコンバレー(Silicon Valley)で人気のある「長期主義(Longtermism)」という思想は、人類滅亡というテーマを軸に据えて人工知能(AI)をめぐる議論の枠組みを提供してきた。

 しかしここへ来て、「長期主義は危険」だと警戒する声が大きくなっている。人類滅亡という壮大なテーマにとらわれすぎ、データ窃盗や偏ったアルゴリズムなど、AIに関する現実的な問題を矮小(わいしょう)化しているという批判だ。

 人類滅亡思想の歴史について著書がある作家のエミール・トーレス(Emile Torres)氏も、以前は長期主義に賛同していたが、今は反対の立場を取っている。

 同氏は長期主義について、過去に大量虐殺やジェノサイド(集団殺害)を正当化するために用いられたものと似た原理をよりどころにしていると批判する。

 それでも、長期主義や「超人間主義(トランスヒューマニズム、Transhumanism)」、「効果的利他主義(Effective Altruism)」といった思想は、英オックスフォード(Oxford)や米スタンフォード(Stanford)といった大学やテクノロジー分野で大きな影響力を持っている。

 事実、ピーター・ティール(Peter Thiel)氏やマーク・アンドリーセン(Marc Andreessen)氏のようなベンチャーキャピタリストたちは、「寿命延長」に取り組む企業や長期主義関連のプロジェクトに投資している。

 一方、今年5月には、AI界の著名人数百人が「AIは人類を滅ぼす」と警告する声明を発表した。この中には実業家のイーロン・マスク(Elon Musk)氏やオープンAI(OpenAI)のサム・アルトマン(Sam Altman)最高経営責任者(CEO)も含まれていたが、両者は共に自社の製品やサービスのみが人類を救えると主張することで利益を得る立場にある。

 こうした状況から、長期主義が人類の未来に関する議論に影響を及ぼしすぎているとの指摘もある。