この記事はAIによって翻訳されました

LocalAI

LocalAIは、無料でオープンソースのOpenAI代替ソリューションです。このガイドでは、Linux上でONLYOFFICEエディターにLocalAIを接続する方法を紹介します。

Dockerを使用したインストールも可能です。詳細については、公式LocalAIガイドをご参照ください。

ステップ1:LocalAIのインストール

ハードウェア要件
  • CPU:マルチコアプロセッサ。
  • RAM:最低8 GBが必要です。16 GB以上を推奨します。
  • ストレージ:SSDストレージを推奨します。最低20 GBが必要です。
  • ネットワーク:LocalAIはインターネット接続なしで機能しますが、モデルのダウンロードや更新の適用には信頼性のある接続が推奨されます。
インストール
curl https://localai.io/install.sh | sh

ステップ2:必要なモデルのインストール

以下のコマンドを使用して必要なモデルをインストールします:

local-ai models install name_of_the_model

ここでname_of_the_modelは必要なモデルの名前です。

利用可能なモデルについては、公式LocalAIウェブサイトをご覧ください。

ステップ3:CORSフラグを使用してLocalAIを起動

このステップは、AIアシスタントをローカルだけでなくウェブでも使用するために必要です。

local-ai run --cors

または、次の行を/etc/localai.envファイルに追加することもできます:

CORSALLOWEDORIGINS = "*"

ステップ4:ONLYOFFICEでのAIプラグイン設定の構成

  1. 初期設定については、設定ガイドをご参照ください。
  2. LocalAIをONLYOFFICEエディターに接続したら、LocalAIをプロバイダー名として指定します。
  3. local-aiを起動する際にURLを変更していない場合は、URLhttp://127.0.0.1:8080を入力します。
  4. モデルはリストに自動的に読み込まれますので、このガイドのステップ2で選択したものを選びます。
  5. OKをクリックして設定を保存します。
    LocalAI: 設定 LocalAI: 設定
次の項目が含まれている記事:タグ:
すべてのタグを見る