AIチャットボットの「診察」、間違っているリスクも 研究
02月10日 13:06
ノートパソコン画面に表示された人工知能(AI)の文字とスマートフォン画面のChatGPTアプリのロゴ(2025年9月1日撮影)。(c) Kirill KUDRYAVTSEV/AFP
【2月10日 AFP】次に「ドクター・ChatGPT」に相談しようと思ったときは、もう一度考え直した方が良いかもしれない。
人工知能(AI)チャットボットは今や多くの医師免許試験で高得点を取れるようになっているものの、人間が従来の方法で得られる以上に良い健康アドバイスを提供できているわけではないと、9日に発表された研究が警鐘を鳴らしている。
「話題になっているとはいえ、AIが医師に取って代わる準備はできていない」と、学術誌ネイチャー・メディシンに掲載された研究の共著者、英オックスフォード大のレベッカ・ペイン氏は述べた。
ペイン氏は「大規模言語モデルに症状について尋ねることは危険になり得ることを、患者は認識する必要がある。誤った診断を下したり、緊急の助けが必要な状況を認識できなかったりする可能性がある」と指摘した。
英国主導の研究チームは、チャットボットを使って自分の健康問題を特定し、医師の診察や病院受診が必要かどうかを判断する際、人間がどの程度うまく対応できるのかを調査した。
研究チームは、英国在住の約1300人の参加者に対し、飲酒後の頭痛、新米の母親が感じる強い疲労、胆石の症状など、10通りの異なるシナリオを提示した。
参加者は無作為にOpenAIの「GPT-4o」、メタの「Llama 3」、Cohereの「Command R+」のいずれかを割り当てられた。これとは別に、インターネット検索エンジンを使用する対照群も設けられた。
AIチャットボットで自分の健康問題を正しく特定できた人は約3分の1にとどまり、適切な対応策を見極められたのも約45%にすぎなかった。これらの結果は、対照群と比べても優れているとは言えなかった。