「AIが引用した参考文献」の約3分の2が存在しない文献だったり間違っていたりしたとの調査結果

現代では仕事や調べ物にAIを利用する人が増えていますが、AIは虚偽の内容を捏造(ねつぞう)したり誤情報を生成したりする幻覚(ハルシネーション)を起こすこともあります。OpenAIが開発した大規模言語モデル・GPT-4oを用いた調査では、専門的な内容を尋ねられたAIがどれほど幻覚を起こしやすいのかが明らかになりました。 ...

みんなの反応

はてなブックマークでの反応
※メールアドレスは公開されません。
"ねとなび"は今ネットで話題になっている最新記事と最新ニュースを全部まとめてチェックすることができるサイトです。 スマートフォンからも同じURLで閲覧できます。
人気の反応
ニュース
comments powered by Disqus