MacでLocalでLLMを走らせるならLM Studioが楽。 - Qiita
MacでLocal LLM M3 maxが発表される一週間前にM2 maxのMacbook Proを購入したため落ち込んでいるのだが、せっかく購入したのだからということで、LLMを入れてみることにした。 とりあえず、以下の3つの選択肢を試した。 open interpreter text-generation-webui LM Studio で、結局のところ現状まともに動作してくれたの...
みんなの反応
はてなブックマークでの反応
※メールアドレスは公開されません。