MacでLocalでLLMを走らせるならLM Studioが楽。 - Qiita

MacでLocal LLM M3 maxが発表される一週間前にM2 maxのMacbook Proを購入したため落ち込んでいるのだが、せっかく購入したのだからということで、LLMを入れてみることにした。 とりあえず、以下の3つの選択肢を試した。 open interpreter text-generation-webui LM Studio で、結局のところ現状まともに動作してくれたの...

みんなの反応

はてなブックマークでの反応
※メールアドレスは公開されません。
"ねとなび"は今ネットで話題になっている最新記事と最新ニュースを全部まとめてチェックすることができるサイトです。 スマートフォンからも同じURLで閲覧できます。
人気の反応
ニュース
comments powered by Disqus