なぜChatGPTは嘘をつくのか?OpenAIが自ら明かす「ハルシネーション」の根本原因 | XenoSpectrum

大規模言語モデル(LLM)が生成する「ハルシネーション(幻覚)」。このもっともらしい嘘は、AIの信頼性を揺るがす最も重要で根深い課題だ。今回、OpenAIは新たな研究論文を発表し、なぜこの問題が最新モデルですら根絶できないのか、その核心的な理由を自ら白日の下に晒した。結論から言えば、原因はAIの訓練方法だけで...

みんなの反応

はてなブックマークでの反応
※メールアドレスは公開されません。
"ねとなび"は今ネットで話題になっている最新記事と最新ニュースを全部まとめてチェックすることができるサイトです。 スマートフォンからも同じURLで閲覧できます。
人気の反応
ニュース
comments powered by Disqus