この記事はAIによって翻訳されました

LocalAI

LocalAIは、無料のオープンソースのOpenAI代替です。このガイドでは、Linux上でLocalAIをONLYOFFICEエディターに接続する方法を示します。

Dockerを使用したインストールも可能です。詳細については、公式LocalAIガイドを参照してください。

ステップ1:LocalAIのインストール

ハードウェア要件
コンポーネント要件
CPUマルチコアプロセッサ
RAM最低8 GB; 推奨16 GB以上
ストレージ最低20 GB; SSD推奨
GPU不要; オプションでGPUアクセラレーションをサポート(NVIDIA、AMD、Intel)
ネットワーク実行には不要; モデルや更新のダウンロードには推奨
インストール
curl https://localai.io/install.sh | sh

ステップ2:必要なモデルのインストール

以下のコマンドを使用して必要なモデルをインストールします:

local-ai models install name_of_the_model

ここで name_of_the_modelは必要なモデルの名前です。

利用可能なモデルについては、公式LocalAIウェブサイトで詳細をご覧ください。

ステップ3:CORSフラグを使用してLocalAIを起動する

このステップは、AIアシスタントをローカルだけでなくウェブでも使用するために必要です。

local-ai run --cors

または、次の行を/etc/localai.envファイルに追加することもできます:

CORSALLOWEDORIGINS = "*"

ステップ4:ONLYOFFICEでのAIプラグイン設定の構成

  1. 初期設定については、設定ガイドを参照してください。
  2. LocalAIをONLYOFFICEエディターに接続したら、LocalAIをプロバイダー名として指定します。
  3. local-aiを起動する際に変更していない場合は、URL http://127.0.0.1:8080を入力します。
  4. モデルはリストに自動的にロードされますので、このガイドのステップ2で選択したものを選びます。
  5. OKをクリックして設定を保存します。
    LocalAI: 設定中 LocalAI: 設定中
次の項目が含まれている記事:タグ:
すべてのタグを見る