- Inicio
- IA
- Instalación
- LocalAI
Este artículo está traducido por IA
LocalAI
LocalAI es la alternativa gratuita y de código abierto a OpenAI. Esta guía muestra cómo conectar LocalAI a los editores de ONLYOFFICE en Linux.
Tenga en cuenta que la instalación a través de Docker también es posible. Para obtener más información, consulte la guía oficial de LocalAI sobre cómo hacerlo.
Paso 1: Instalación de LocalAI
Requisitos de hardware
| Componente | Requisito |
| CPU | Procesador multicore |
| RAM | Mínimo 8 GB; se recomiendan 16 GB o más |
| Almacenamiento | Mínimo 20 GB; se recomienda SSD |
| GPU | No requerida; se admite aceleración opcional por GPU (NVIDIA, AMD, Intel) |
| Red | No requerida para ejecutar; recomendada para descargar modelos y actualizaciones |
Instalación
curl https://localai.io/install.sh | sh Paso 2: Instalación del modelo requerido
Utilice el siguiente comando para instalar el modelo requerido:
local-ai models install name_of_the_model donde name_of_the_model es el nombre del modelo que necesita.
Obtenga más información sobre los modelos disponibles en el sitio web oficial de LocalAI.
Paso 3: Lanzar LocalAI con la bandera cors
Este paso es necesario para usar su asistente de IA no solo localmente, sino también en la web.
local-ai run --cors Alternativamente, puede añadir la siguiente línea al archivo /etc/localai.env:
CORSALLOWEDORIGINS = "*" Paso 4: Configuración de los ajustes del plugin de IA en ONLYOFFICE
- Consulte nuestra guía de configuración para la configuración inicial.
- Ahora que ha conectado su LocalAI a los editores de ONLYOFFICE, especifique LocalAI como nombre de proveedor.
- Ingrese la URL
http://127.0.0.1:8080si no la cambió al iniciar local-ai. - Los modelos se cargarán automáticamente en la lista; seleccione el que eligió previamente en el paso 2 de esta guía.
- Haga clic en OK para guardar los ajustes.
Artículos con etiqueta:
Ver todas las etiquetas