Q&A + RAG に特化したLLMをSFTで学習させ4bit量子化モデルを作り、GPT3.5以上の性能を7Bモデルで達成する - A Day in the Life

なお、評価に使ったコードはこちらの eval_xxx というコードである。 https://github.com/hotchpotch/youri-7b-stf-qa-context-jaqket/ Supervised Fine-tuning Trainer(SFT) を使った学習 STFは手軽な方法で指示に対して特定フォーマットの出力(Instruction Tuning)を学習させることができる方法である。学習のさせ方も...

みんなの反応

はてなブックマークでの反応
※メールアドレスは公開されません。
"ねとなび"は今ネットで話題になっている最新記事と最新ニュースを全部まとめてチェックすることができるサイトです。 スマートフォンからも同じURLで閲覧できます。
人気の反応
ニュース
comments powered by Disqus