■コミュニケーションに課題

研究者らは、こうした期待外れの結果と、AIチャットボットが医療関連の試験で極めて高得点を取ることとの間に大きな乖離(かいり)があるとし、その原因はコミュニケーションがうまくいっていないことにあると指摘した。

AIの性能評価でよく用いられる模擬患者とのやり取りとは異なり、実際の人間は関連する情報をすべてチャットボットに提供しないことが多かったという。

また、人間側がチャットボットの提示する選択肢を理解できなかったり、助言を誤解したり、あるいは単に無視したりする場合もあった。

研究者によれば、米国の成人の6人に1人は少なくとも月に1回、AIチャットボットに健康情報を尋ねており、新技術の普及とともにこの割合は増加すると見込まれている。

この研究に関与していないオランダ・マーストリヒト大の生命倫理学者デービッド・ショー氏はAFPに対し、「本研究は、チャットボットが一般市民にもたらし得る現実の医療リスクを浮き彫りにするという点で、非常に重要だ」と語った。

ショー氏は、英国の国民保健サービス(NHS)など、確かな情報源からの医療情報のみを信頼するよう助言した。(c)AFP