Mini PC + 外付けGPUでローカルLLM環境を作った話
2025 アドベントカレンダーの記事です! 弊社シーエー・アドバンスでは、AIの活用を徹底するように号令がかかっています。 今回は、Local LLM を自宅で動かしてみたので、それについて記事をまとめます。 自宅で、Ollama を使って、LLMを動かしたりしたいと思っている方の参考になれば幸いです。 対象読者 LLMに興味があ...
みんなの反応
はてなブックマークでの反応
※メールアドレスは公開されません。
