なぜChatGPTは嘘をつくのか?OpenAIが自ら明かす「ハルシネーション」の根本原因 | XenoSpectrum
大規模言語モデル(LLM)が生成する「ハルシネーション(幻覚)」。このもっともらしい嘘は、AIの信頼性を揺るがす最も重要で根深い課題だ。今回、OpenAIは新たな研究論文を発表し、なぜこの問題が最新モデルですら根絶できないのか、その核心的な理由を自ら白日の下に晒した。結論から言えば、原因はAIの訓練方法だけで...
みんなの反応
はてなブックマークでの反応
※メールアドレスは公開されません。