この記事はAIによって翻訳されました
Ollama
Ollamaは、Llama 3.2やGemma 2などの人気AIモデルを実行できるオープンソースソフトウェアです。
これは、ONLYOFFICE Docs用のOllamaをインストールして設定するためのステップバイステップガイドです。
Ollamaの接続と設定
-
(オプション) macOSおよびLinuxでパッケージを管理するための方法としてHomebrewをインストールする場合:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" -
Ollamaをインストールするには、次のコマンドを実行します:
curl -fsSL https://ollama.com/install.sh | shHomebrewを使用する場合は、次のコマンドを実行します:
brew install ollamaインストールが完了すると、Ollamaはマシン上でモデルを提供、リスト、検査、実行するためのコマンドを提供します。
-
Ollamaを設定するには、次の手順に従います:
-
ターミナルで次のコマンドを実行してローカルAIサーバーを起動します:
export OLLAMA_ORIGINS=http://*,https://*,onlyoffice://* -
Ollamaを今すぐ起動し、ログイン時に再起動します:
brew services start ollama -
代わりにバックグラウンドサービスが不要な場合、次のコマンドを実行します:
ollama serve
-
ターミナルで次のコマンドを実行してローカルAIサーバーを起動します:
-
別のターミナルウィンドウで使用したいモデルをプルします。例えば、Llama 3.2をインストールして実行するには:
ollama run llama3.2
モデルはダウンロードされ、ローカルで開始されます。インストールされたモデルの総数に制限はありません。利用可能なモデルのリストについては、公式Ollamaドキュメントを参照してください。
インストール前に、モデル用の十分なメモリとディスクスペースがマシンにあることを確認してください。
- このガイドに従ってAIプラグインの一般設定を行います。
- プラグインがインストールされたら、AIモデルを追加します。AIタブに移動し、設定を開きます。
- ウィンドウの左下隅でAIモデルの編集を選択し、追加をクリックします。
-
表示されるウィンドウで、プロバイダーとしてOllamaを選択し、URLを
http://localhost:11434に設定します。
- ドロップダウンリストからインストールされたモデル(例:
llama3.2:latest)を選択し、確認します。 - アイコンの行で、テキスト、画像、埋め込み、音声処理、コンテンツモデレーション、リアルタイムタスク、コーディング支援、視覚分析に使用するモデルを選択します。
- OKをクリックしてウィンドウを閉じます。モデルはAIモデルリストの利用可能なモデル一覧に表示されます。
- AIに異なるタスクを割り当てます。ドロップダウンリストから、これらのタスクを実行するインストール済みのAIモデルを選択します。
- AIタブまたはテキストを選択して右クリックし、コンテキストメニューを開くことでAI機能にアクセスします。
次の項目が含まれている記事:タグ:
すべてのタグを見る