この記事はAIによって翻訳されました
LocalAI
LocalAIは、無料のオープンソースのOpenAI代替です。このガイドでは、Linux上でLocalAIをONLYOFFICEエディターに接続する方法を示します。
Dockerを使用したインストールも可能です。詳細については、公式LocalAIガイドを参照してください。
ステップ1:LocalAIのインストール
ハードウェア要件
| コンポーネント | 要件 |
| CPU | マルチコアプロセッサ |
| RAM | 最低8 GB; 推奨16 GB以上 |
| ストレージ | 最低20 GB; SSD推奨 |
| GPU | 不要; オプションでGPUアクセラレーションをサポート(NVIDIA、AMD、Intel) |
| ネットワーク | 実行には不要; モデルや更新のダウンロードには推奨 |
インストール
curl https://localai.io/install.sh | sh ステップ2:必要なモデルのインストール
以下のコマンドを使用して必要なモデルをインストールします:
local-ai models install name_of_the_model ここで name_of_the_modelは必要なモデルの名前です。
利用可能なモデルについては、公式LocalAIウェブサイトで詳細をご覧ください。
ステップ3:CORSフラグを使用してLocalAIを起動する
このステップは、AIアシスタントをローカルだけでなくウェブでも使用するために必要です。
local-ai run --cors または、次の行を/etc/localai.envファイルに追加することもできます:
CORSALLOWEDORIGINS = "*" 次の項目が含まれている記事:タグ:
すべてのタグを見る