Este artículo está traducido por IA

LocalAI

LocalAI es la alternativa gratuita y de código abierto a OpenAI. Esta guía muestra cómo conectar LocalAI a los editores de ONLYOFFICE en Linux.

Tenga en cuenta que la instalación a través de Docker también es posible. Para obtener más información, consulte la guía oficial de LocalAI sobre cómo hacerlo.

Paso 1: Instalación de LocalAI

Requisitos de hardware
ComponenteRequisito
CPUProcesador multicore
RAMMínimo 8 GB; se recomiendan 16 GB o más
AlmacenamientoMínimo 20 GB; se recomienda SSD
GPUNo requerida; se admite aceleración opcional por GPU (NVIDIA, AMD, Intel)
RedNo requerida para ejecutar; recomendada para descargar modelos y actualizaciones
Instalación
curl https://localai.io/install.sh | sh

Paso 2: Instalación del modelo requerido

Utilice el siguiente comando para instalar el modelo requerido:

local-ai models install name_of_the_model

donde name_of_the_model es el nombre del modelo que necesita.

Obtenga más información sobre los modelos disponibles en el sitio web oficial de LocalAI.

Paso 3: Lanzar LocalAI con la bandera cors

Este paso es necesario para usar su asistente de IA no solo localmente, sino también en la web.

local-ai run --cors

Alternativamente, puede añadir la siguiente línea al archivo /etc/localai.env:

CORSALLOWEDORIGINS = "*"

Paso 4: Configuración de los ajustes del plugin de IA en ONLYOFFICE

  1. Consulte nuestra guía de configuración para la configuración inicial.
  2. Ahora que ha conectado su LocalAI a los editores de ONLYOFFICE, especifique LocalAI como nombre de proveedor.
  3. Ingrese la URL http://127.0.0.1:8080 si no la cambió al iniciar local-ai.
  4. Los modelos se cargarán automáticamente en la lista; seleccione el que eligió previamente en el paso 2 de esta guía.
  5. Haga clic en OK para guardar los ajustes.
    LocalAI: configuración LocalAI: configuración
Artículos con etiqueta:
Ver todas las etiquetas