Fragments of verbose memory

冗長な記憶の断片 - Web技術のメモをほぼ毎日更新(準備中)

May 3, 2024 - コメント - 日記

OpencommitでLlama3使いたい

gitのコミットログを自動で生成してくれるOpenCommit を使い始めました。非常に便利です。

OpenCommitはデフォルトで GPT-3.5 Turbo に対応しており、さらに GPT-4GPT-4 Turbo といった高性能モデルも利用可能です。 高性能でとても便利なのですが、これらのモデルはインターネットに繋ぎOpenAI社のサーバに繋ぐ必要があるため、オフライン環境、例えば飛行機内での作業ができません。

OpenCommitはOpenAIのモデルの他に、Ollama をつかってローカルマシンに建てたモデルを使うことができます。ただし、現状OpenCommitの中でMistralがハードコードされているため、別のモデルを利用することができません。

そこで、OpenCommitの設定を拡張することにしました、具体的には、 OCO_AI_PROVIDER=ollama という従来の設定を、 OCO_AI_PROVIDER=ollama/llama3:70b のようにモデルをしていできるように拡張することで、 Llama3:70b モデルを利用できるようにしました。この変更を行うことで、より強力なAIモデルをローカル環境で使用し、オフラインでも高品質なコミットログを生成することが可能になります。

この変更点に関する詳細は、GitHubのプルリクエスト #327 に記載されています。本家にマージされていないため、私のGithubリポジトリ がからインストールしたい人は以下のようにしてください。

git clone https://github.com/tumf/opencommit.git
cd opencommit
npm pack
npm i -g  opencommit-3.0.12.tgz

実際にモデルを設定するには以下のようにします。事前に、 ollama pull llama3:70b としてモデルをダウンロードしておいてください。

oco config set OCO_AI_PROVIDER=ollama/llama3:70b

Tags: git opencommit llm llama3 ai

シャミアの秘密分散を試してみる

comments powered by Disqus