Xwin-LM-70B-V0.1をOpen Interpreterから使ってみる。
はじめに 前回の記事でXwin-LM-70B-V0.1とLlama-2-70Bの出力結果の比較を行いました。この記事ではOpen InterpreterのバックエンドとしてXwin-LM-70B-V0.1を使ってみます。 私のPCのスペック[1] i7 13700K 3090 24GB DDR5 128GB 準備 llama-cpp-pythonをCUDAを有効にしてインストールする。 sudo apt install -y build-e...
みんなの反応
はてなブックマークでの反応
※メールアドレスは公開されません。