文章生成AI「GPT-3」 驚きの高性能と懸念される道徳的判断
このニュースをシェア
【10月2日 AFP】実業家イーロン・マスク(Elon Musk)氏が共同設立した企業で開発された人工知能(AI)技術は、筋の通った記事や小説、理路整然としたコンピュータープログラムなどを生成する能力に対して称賛を受けている。しかしその一方で、人種差別や性差別といった問題にはまだ対応できていないのが現状だ。
米カリフォルニア州に拠点を置く企業「オープンAI(OpenAI)」が開発した最新のAI言語モデル「GPT-3」は、2人が交わしている会話を完結させたり、一連の質問と答えを続けたり、更には英劇作家ウィリアム・シェークスピア(William Shakespeare)のようなスタイルで書かれた詩を完成させることができる。
GPT-3は学習済みの膨大な情報に基づく反応を基礎として、人に代わり文や文字列を完成させる。
GPT-3にはまた、症状の説明から病気の名前を答えるなど、問題に対する正確な応答を見つける能力があるほか、一部の数学の問題を解いたり、複数の言語で自己表現したりすることもできる。そして、開発者らにとってできれば回避したい作業とされる、簡単なタスクのためのコンピュータープログラムも生成可能だ。
■膨大なコンテンツ
AI研究開発企業データスワティ(Dataswati)でサイエンティフィックディレクターを務めるアミネ・ベンヘニ(Amine Benhenni)氏はAFPの取材に、他のシステムと比較した場合の「大きな違い」はモデルの大きさだと語った。
GPT-3には、インターネット上の膨大なコンテンツの他、あらゆる著述作品を学習させた。
オンライン百科事典「ウィキペディア(Wikipedia)」のコンテンツ全体でも、GPT-3に学習させた全情報のわずか3%ほどにしかならないことを考えると、プロジェクトの規模がいかに巨大かが分かるだろう。
その規模の大きさにより、医学、法律、メディアなどの新しいテーマが導入される場合でも、タスクを実行させるのにGPT-3を再学習させる必要はない。
だが、大きな称賛を受けているにもかかわらず、GPT-3はアルゴリズムの言語理解力を評価する「SuperGLUE」ベンチマークのスコアでは10位にとどまっている。
それは、不条理な質問をされたGPT-3が無意味な答えを返すことを、一部のユーザーらが実証しているからだ。
一例を挙げる。開発者のケビン・ラッカー(Kevin Lacker)氏が「太陽には、いくつ目があるか」という質問をした。するとGPT-3は「太陽には目が1つある」と答えたとラッカー氏は自身のブログに記している。