Questo articolo è stato tradotto dall’AI

LocalAI

LocalAI è un’alternativa open source e gratuita a OpenAI. Questa guida spiega come collegare LocalAI agli editor di ONLYOFFICE su Linux.

Nota: anche l'installazione di LocalAI tramite Docker è possibile. Per maggiori dettagli, consulta la guida ufficiale di LocalAI.

Passo 1: Installare LocalAI

Requisiti hardware
ComponenteRequisiti
CPUprocessore multicore
RAMminimo 8 GB minimo; consigliati 16 GB o più
Archiviazioneminimo 20 GB minimo; preferibilmente su SSD
GPUnon obbligatoria, ma è supportata l'accelerazione opzionale (NVIDIA, AMD, Intel)
Retenon necessaria per l'esecuzione, ma consigliata per scaricare modelli e aggiornamenti
Installazione
curl https://localai.io/install.sh | sh

Passo 2: Installare il modello necessario

Utilizza il seguente comando per installare il modello desiderato:

local-ai models install name_of_the_model

dove name_of_the_model è il nome del modello da utilizzare.

Puoi consultare l’elenco dei modelli disponibili sul sito ufficiale di LocalAI.

Passo 3: Avviare LocalAI con il flag CORS

Questo passaggio è necessario per utilizzare l'assistente IA non solo in locale, ma anche via web.

local-ai run --cors

In alternativa, puoi aggiungere questa riga al file /etc/localai.env:

CORSALLOWEDORIGINS = "*"

Passo 4: Configurare il plugin IA su ONLYOFFICE

  1. Puoi fare riferimento alla nostra guida alla configurazione per la configurazione iniziale.
  2. Dopo aver collegato LocalAI agli editor di ONLYOFFICE, imposta LocalAI come provider.
  3. Inserisci l'URL http://127.0.0.1:8080 se non lo hai modificato in fase di avvio.
  4. I modelli verranno caricati automaticamente: seleziona quello installato in precedenza, nel passo 2 di questa guida.
  5. Clicca su OK per salvare le impostazioni.
    LocalAI: configurazione LocalAI: configurazione
Voci con l'etichetta tag:
Sfoglia tutti i tag