ChatGPTの登場から1年以上が経過し、生成AIへの期待は膨らむ一方だ。しかし、その実用性や具体的な活用方法を巡り、懐疑的な見方も広がっている。「幻滅期に入った」との声すら聞かれる中、金融業界では実業務に活用する動きが本格化している。 米Gartnerはマルチモーダル生成AIなどが黎明期にある一方で、「大規模言語モデル(LLM)」自体は、「過度な期待のピーク期」を超え、「幻滅期」に入りつつあると見ている(米Gartnerが9月10日に発表
www.itmedia.co.jp/aiplus/articles/2409/30/news073.html
原因が人であろうがAIであろうが問題があればその会社組織が責任をとるってだけでしょ。AI無罪みたいな責任回避ムーブをしなければいいだけ。
歩留まり的な割り切りで使った時にユーザにも謝らなくていい仕組み作らないと誰かが機械的な謝罪をする仕事をすることになる。案外AIに全部の仕事を任せた後には人間に不毛な仕事が残る可能性あるなw
人間相手に仕事を任せたときも、全体100%完璧間違いない、なんてことはないでしょ
同じ結果を出すための条件も無限に積み重なるけどな。業務内容を知らずに設計するなとも思うけど。
幻覚との付き合い方→「なるべく我慢する」という話
“「間違いがあったとしても一定の価値があることを目指している」”
そもそも人間だってハルシネーションするやん。「神が天と地を創造した」とか「諸行無常」「一切皆苦」とか。アインシュタインだって「神はサイコロを振らない」とかテキトーなこと言ってたじゃん。