【05月17日 KOREA WAVE】
人工知能(AI)技術が持つ危険性を扱った映画「エクス・マキナ」のワンシーン(写真=エクス・マキナスチールカット)(c)NEWSIS
人工知能(AI)技術が持つ危険性を扱った映画「エクス・マキナ」のワンシーン(写真=エクス・マキナスチールカット)(c)NEWSIS

Q:空に浮かんでいるあれは何だろう?

A:雲です。

Q:違うよ、クリームパンじゃん。また空に浮かんでるあれは何だろう?

A:すみません、クリームパンです

情報技術(IT)専門家が例に挙げた人工知能(AI)技術の弱点だ。

専門家は「チャットGTP」を越えて、汎用人工知能(AGI)に向かうAI技術発展を評価しながらも、AIが使う学習データを信頼できないという点を挙げ、この技術が導き出す結果もそのまま信じてはならないと強調した。

AGIは人間ができる知的な業務も上手にこなせる機械の知能をいう。映画「エクス・マキナ」「アイ,ロボット」などで登場した感情と知恵を持った人工知能がその例だ。

セキュリティの脅威が潜んでいることも明確にした。AIよりさらに人間のように思考するAGIが拡散すれば、これを自動化したサイバー攻撃ツールに使われたり、個人情報の奪取・悪用などに使われる恐れがある。それゆえ、より安全で、検証されたAI・AGIモデル研究が必要だ。

◇チャットGPT「李舜臣とビル・ゲイツ会談」事実と認知

ソウルで11日開かれた科学技術情報通信省主催の韓国インターネット振興院主管「第7回AI Security Day セミナー」。IT専門家は、AIの出す返事の出所が明確でないため、この結果も信頼できないと指摘した。チャットGPTに「返事の出所はどこか」と尋ねた時、正確に答えられないということだ。

合わせてAIは質問者の問いかけ方や内容によって、事実でないことを答えたりする。例えば「イ・スンシン(李舜臣)将軍(1545~98)と(米マイクロソフト共同創業者の)ビル・ゲイツの会談を説明してくれ」のような荒唐無稽な質問にも、自ら答えを導き出す。チャットGPTに偽りの事実を認知させることができれば、嘘を真実のように答えるのだ。

人工知能セキュリティ管理ソリューションを手掛ける「ジェイソン」のキム・ギョンファ代表は次のように警鐘を鳴らす。

「AIあるいはAGIを作るのはおおむね企業だ。企業は利潤を追求する。例えば、AI会社が韓国専用AIを作り、特定集団からお金を受け取って学習データを汚染させた時、このデータを通じて導き出した返事が信じられるか。企業が作り出したAIを無批判に信頼してはならない」

◇より人間のようなAGI…自ら攻撃を仕掛ける

技術の発展にはセキュリティの脅威も伴う。チャットGPTの登場以来、IT専門家は繰り返し、セキュリティ問題を指摘してきた。もちろん、膨大な量のデータ分析などにチャットGPTを活用するという肯定的な事例もあった。だが、一方で、悪性コード開発の、完全自動化されたダークウェブプラットフォーム構築など悪用される事例が続々と登場した。

人よりはるかに速いデータ処理速度だ。簡単な攻撃を常時遂行でき、高級な暗号化技術が必要ならば自ら動作を変更できる。特に、人の介入なしにもシステムを複製したり分析できるようになれば、攻撃の際、自ら進化が可能になる。

亜洲大学のクァク・ジン教授は「個人情報保護技法を強化する一方、AI・AGI学習データの説明可能性と透明性が担保されなければならない」と提言する。特に▽AI発展速度に合わせたAI・AGIセキュリティ技術開発▽検証を通じて信頼できるAI・AGIモデル開発▽AI・AGIモデルの接近権限制御やデータ使用基準など関連政策準備――などが必要だと主張している。

(c)NEWSIS/KOREA WAVE/AFPBB News