近年急速な発展を遂げる生成AIは、複雑な計算や文書の要約などをわずか数秒で遂行してくれます。一方で生成AIには「幻覚(ハルシネーション)」と呼ばれる、虚偽または誤解を招く情報を事実として提示してしまうという問題が存在しています。バレンシア人工知能研究所の研究チームがOpenAIのGPTシリーズや、MetaのLLaMAなどの大規模言語モデルを対象として調査を実施した結果、より高性能なモデルほど幻覚が生じていることが明らかとなりまし
gigazine.net/news/20240929-advanced-ai-wrong-answers/
“実験の結果、簡単な質問ではこれらのモデルの10%が誤った回答を提示したほか、難しい問題では40%の回答が誤りを含んでいることが明らかとなっています。”