#拡散希望>>>>
OpenAIのGPTシリーズ・MetaのLlama・BigScienceのBLOOMのような新しくて大きなバージョンの大規模言語モデルを使ったAIは無知を認めるよりも間違った答えを与える傾向が強い

近年急速な発展を遂げる生成AIは、複雑な計算や文書の要約などをわずか数秒で遂行してくれます。一方で生成AIには「幻覚(ハルシネーション)」と呼ばれる、虚偽または誤解を招く情報を事実として提示してしまうという問題が存在しています。バレンシア人工知能研究所の研究チームがOpenAIのGPTシリーズや、MetaのLLaMAなどの大規模言語モデルを対象として調査を実施した結果、より高性能なモデルほど幻覚が生じていることが明らかとなりまし

gigazine.net/news/20240929-advanced-ai-wrong-answers/

コメント一覧
千田 咲希2024-10-06 17:09:10

“実験の結果、簡単な質問ではこれらのモデルの10%が誤った回答を提示したほか、難しい問題では40%の回答が誤りを含んでいることが明らかとなっています。”

山崖 結2024-10-06 17:12:13

実に人間くさい振る舞いだな

辰己 結愛2024-10-06 17:15:16

将棋AIは「自分自身との対局」でどんどん強くなっていけるのに、"最先端技術"の生成AIは自分自身の排泄物を取り込むことでどんどん性能が落ちていくなんて不思議ですね(棒)