Este artigo foi traduzido por IA

LocalAI

LocalAI é a alternativa gratuita e de código aberto ao OpenAI. Este guia mostra como conectar o LocalAI aos editores do ONLYOFFICE no Linux.

Observe que a instalação via Docker também é possível. Para saber mais, consulte o guia oficial do LocalAI sobre como fazer isso.

Passo 1: Instalando o LocalAI

Requisitos de hardware
ComponenteRequisito
CPUProcessador multicore
RAMMínimo de 8 GB; 16 GB ou mais recomendados
ArmazenamentoMínimo de 20 GB; SSD recomendado
GPUNão é necessário; aceleração por GPU opcional é suportada (NVIDIA, AMD, Intel)
RedeNão é necessário para execução; recomendado para download de modelos e atualizações
Instalação
curl https://localai.io/install.sh | sh

Passo 2: Instalando o modelo necessário

Use o seguinte comando para instalar o modelo necessário:

local-ai models install name_of_the_model

onde name_of_the_model é o nome do modelo que você precisa.

Saiba mais sobre os modelos disponíveis no site oficial do LocalAI.

Passo 3: Iniciando o LocalAI com a flag cors

Este passo é necessário para usar seu assistente de IA não apenas localmente, mas também na web.

local-ai run --cors

Alternativamente, você pode adicionar a seguinte linha ao arquivo /etc/localai.env:

CORSALLOWEDORIGINS = "*"

Passo 4: Configurando as configurações do plugin de IA no ONLYOFFICE

  1. Consulte nosso guia de configuração para a configuração inicial.
  2. Agora que você conectou seu LocalAI aos editores do ONLYOFFICE, especifique LocalAI como nome do provedor.
  3. Insira a URL http://127.0.0.1:8080 se você não a alterou ao iniciar o local-ai.
  4. Os modelos serão carregados automaticamente na lista – selecione aquele que você escolheu anteriormente no passo 2 deste guia.
  5. Clique em OK para salvar as configurações.
    LocalAI: configurando LocalAI: configurando
Artigo com o tag:
Veja todas as etiquetas