この記事はAIによって翻訳されました

Ollama

Ollamaは、Llama 3.2やGemma 2などの人気AIモデルを実行できるオープンソースソフトウェアです。

これは、ONLYOFFICE Docs用のOllamaをインストールして設定するためのステップバイステップガイドです。

Ollamaの接続と設定

  1. (オプション) macOSおよびLinuxでパッケージを管理するための方法としてHomebrewをインストールする場合:
    /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. Ollamaをインストールするには、次のコマンドを実行します:
    curl -fsSL https://ollama.com/install.sh | sh

    Homebrewを使用する場合は、次のコマンドを実行します:

    brew install ollama

    インストールが完了すると、Ollamaはマシン上でモデルを提供、リスト、検査、実行するためのコマンドを提供します。

  3. Ollamaを設定するには、次の手順に従います:
    1. ターミナルで次のコマンドを実行してローカルAIサーバーを起動します:
      export OLLAMA_ORIGINS=http://*,https://*,onlyoffice://* 
    2. Ollamaを今すぐ起動し、ログイン時に再起動します:
      brew services start ollama
    3. 代わりにバックグラウンドサービスが不要な場合、次のコマンドを実行します:
      ollama serve
  4. 別のターミナルウィンドウで使用したいモデルをプルします。例えば、Llama 3.2をインストールして実行するには:
    ollama run llama3.2
    Ollama: configuration Ollama: configuration

    モデルはダウンロードされ、ローカルで開始されます。インストールされたモデルの総数に制限はありません。利用可能なモデルのリストについては、公式Ollamaドキュメントを参照してください。

    インストール前に、モデル用の十分なメモリとディスクスペースがマシンにあることを確認してください。

  5. このガイドに従ってAIプラグインの一般設定を行います。
  6. プラグインがインストールされたら、AIモデルを追加します。AIタブに移動し、設定を開きます。
  7. ウィンドウの左下隅でAIモデルの編集を選択し、追加をクリックします。
  8. 表示されるウィンドウで、プロバイダーとしてOllamaを選択し、URLをhttp://localhost:11434に設定します。
    Ollama: configuration Ollama: configuration
  9. ドロップダウンリストからインストールされたモデル(例:llama3.2:latest)を選択し、確認します。
  10. アイコンの行で、テキスト、画像、埋め込み、音声処理、コンテンツモデレーション、リアルタイムタスク、コーディング支援、視覚分析に使用するモデルを選択します。
  11. OKをクリックしてウィンドウを閉じます。モデルはAIモデルリストの利用可能なモデル一覧に表示されます。
  12. AIに異なるタスクを割り当てます。ドロップダウンリストから、これらのタスクを実行するインストール済みのAIモデルを選択します。
  13. AIタブまたはテキストを選択して右クリックし、コンテキストメニューを開くことでAI機能にアクセスします。
次の項目が含まれている記事:タグ:
すべてのタグを見る