Questo articolo è stato tradotto dall’AI

Ollama

Ollama è un software open-source che consente di eseguire modelli AI popolari, ad esempio Llama 3.2 o Gemma 2.

Questa è una guida passo-passo per installare e configurare Ollama per ONLYOFFICE Docs.

Connessione e configurazione di Ollama

  1. (Opzionale) Installa Homebrew se è il tuo metodo preferito per gestire i pacchetti su macOS e Linux:
    /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. Per installare Ollama, esegui il seguente comando:
    curl -fsSL https://ollama.com/install.sh | sh

    Per Homebrew, esegui il seguente comando:

    brew install ollama

    Una volta installato, Ollama offre comandi per servire, elencare, ispezionare ed eseguire modelli sulla tua macchina.

  3. Segui questi passaggi per configurare Ollama:
    1. Avvia il server AI locale eseguendo il seguente comando nel Terminale:
      export OLLAMA_ORIGINS=http://*,https://*,onlyoffice://* 
    2. Avvia Ollama ora e riavvia all'accesso:
      brew services start ollama
    3. In alternativa, se non è richiesto un servizio in background, esegui il seguente comando:
      ollama serve
  4. Scarica il modello che desideri utilizzare in un'altra finestra del Terminale. Ad esempio, per installare ed eseguire Llama 3.2:
    ollama run llama3.2
    Ollama: configurazione Ollama: configurazione

    Il modello verrà scaricato e avviato localmente. Il numero totale di modelli installati è illimitato. Per l'elenco dei modelli disponibili, si prega di consultare la documentazione ufficiale di Ollama.

    Prima dell'installazione, assicurati che la tua macchina abbia memoria e spazio su disco sufficienti per i modelli.

  5. Segui questa guida per la configurazione generale del plugin AI.
  6. Una volta installato il plugin, aggiungi modelli AI. Vai alla scheda AI e apri Impostazioni.
  7. Seleziona Modifica modelli AI nell'angolo in basso a sinistra della finestra e fai clic su Aggiungi.
  8. Nella finestra che appare, seleziona Ollama come fornitore e imposta l'URL su http://localhost:11434.
    Ollama: configurazione Ollama: configurazione
  9. Seleziona il modello installato (ad esempio, llama3.2:latest) dal menu a tendina e conferma.
  10. Nella fila di icone, seleziona il modello utilizzato per: testo, immagini, embedding, elaborazione audio, moderazione dei contenuti, attività in tempo reale, aiuto alla codifica e analisi visiva.
  11. Fai clic su OK e chiudi la finestra. Il modello apparirà nell'elenco dei modelli disponibili nella lista dei modelli AI.
  12. Assegna diversi compiti all'AI. Dal menu a tendina, seleziona i modelli AI installati che svolgeranno questi compiti.
  13. Accedi alle funzionalità AI tramite la scheda AI o selezionando il testo e facendo clic con il tasto destro per aprire il menu contestuale.
Voci con l'etichetta tag:
Sfoglia tutti i tag