- Home
- IA
- Installazione
- LocalAI
Questo articolo è stato tradotto dall’AI
LocalAI
LocalAI è un’alternativa open source e gratuita a OpenAI. Questa guida spiega come collegare LocalAI agli editor di ONLYOFFICE su Linux.
Nota: anche l'installazione di LocalAI tramite Docker è possibile. Per maggiori dettagli, consulta la guida ufficiale di LocalAI.
Passo 1: Installare LocalAI
Requisiti hardware
| Componente | Requisiti |
| CPU | processore multicore |
| RAM | minimo 8 GB minimo; consigliati 16 GB o più |
| Archiviazione | minimo 20 GB minimo; preferibilmente su SSD |
| GPU | non obbligatoria, ma è supportata l'accelerazione opzionale (NVIDIA, AMD, Intel) |
| Rete | non necessaria per l'esecuzione, ma consigliata per scaricare modelli e aggiornamenti |
Installazione
curl https://localai.io/install.sh | sh Passo 2: Installare il modello necessario
Utilizza il seguente comando per installare il modello desiderato:
local-ai models install name_of_the_model dove name_of_the_model è il nome del modello da utilizzare.
Puoi consultare l’elenco dei modelli disponibili sul sito ufficiale di LocalAI.
Passo 3: Avviare LocalAI con il flag CORS
Questo passaggio è necessario per utilizzare l'assistente IA non solo in locale, ma anche via web.
local-ai run --cors In alternativa, puoi aggiungere questa riga al file /etc/localai.env:
CORSALLOWEDORIGINS = "*" Passo 4: Configurare il plugin IA su ONLYOFFICE
- Puoi fare riferimento alla nostra guida alla configurazione per la configurazione iniziale.
- Dopo aver collegato LocalAI agli editor di ONLYOFFICE, imposta LocalAI come provider.
- Inserisci l'URL
http://127.0.0.1:8080se non lo hai modificato in fase di avvio. - I modelli verranno caricati automaticamente: seleziona quello installato in precedenza, nel passo 2 di questa guida.
- Clicca su OK per salvare le impostazioni.
Voci con l'etichetta tag:
Sfoglia tutti i tag