Este artículo está traducido por IA

LM Studio

Introducción

LM Studio es un gestor local de modelos de IA que te permite ejecutar modelos de lenguaje de código abierto como Mistral, Llama y Phi directamente en tu computadora.

En lugar de usar APIs en la nube, LM Studio ejecuta modelos localmente y expone un punto de conexión API local al que otras aplicaciones pueden conectarse.

Esta configuración es útil si:

  • Necesitas control total sobre tus datos
  • Trabajas en un entorno sin conexión
  • Debes cumplir con políticas de seguridad internas
  • Quieres evitar costos de API externas

Antes de comenzar, asegúrate de que LM Studio esté instalado y en funcionamiento, y que el plugin de IA esté instalado y habilitado en ONLYOFFICE.

Requisitos del sistema

ComponenteRequisito
OSWindows (x64, ARM64), macOS (Apple Silicon), Linux (x64)
CPUSe requiere soporte para el conjunto de instrucciones AVX2 (sistemas x64)
RAM16 GB recomendados
GPU4 GB de VRAM recomendados; ejecutar solo en CPU es posible pero significativamente más lento

Configuración rápida

Paso 1. Instalar LM Studio
  1. Descarga LM Studio desde el sitio web oficial de LM Studio (disponible para Windows, macOS y Linux).
  2. Instala y lanza la aplicación.
  3. Selecciona una carpeta local donde se almacenarán los modelos de IA.

En esta etapa, LM Studio está instalado pero aún no conectado a ONLYOFFICE.

Paso 2. Habilitar y preparar el servidor API local

ONLYOFFICE requiere dos cosas de LM Studio: un modelo cargado y un servidor API en funcionamiento.

  1. Descargar un modelo
    1. Abre la sección Modelos.
    2. Elige un modelo que se adapte a tu hardware.
    3. Descarga el modelo y asegúrate de que esté completamente cargado.
  2. Iniciar el servidor API
    1. Ve a la pestaña Servidor.
    2. Cambia el estado del servidor de Detenido a Ejecutando o presiona Cmd+R en macOS.
    3. Anota la URL base, por ejemplo: http://127.0.0.1:1234.

Una vez que el modelo está descargado y el servidor está en funcionamiento, tu sistema funciona como un punto de conexión de IA privado.

Paso 3. Habilitar el plugin de IA
  1. Abre ONLYOFFICE Desktop Editors versión 9.0.4 o posterior.
  2. Ve a Extensiones → Administrador de Extensiones.
  3. Instala o actualiza el plugin de IA, luego cierra el Administrador de Extensiones.
  4. Ve a Extensiones → Extensiones en segundo plano y habilita el plugin de IA.
Paso 4. Conectar LM Studio a ONLYOFFICE
  1. Abre la pestaña de IA → Configuración → Editar modelos de IA y haz clic en el icono + para agregar un nuevo modelo.
  2. Introduce lo siguiente:
    • Nombre del modelo: LM Studio
    • URL: la URL base mostrada en la pestaña Servidor en LM Studio, por ejemplo, http://127.0.0.1:1234/v1
    Al conectarse a través de un navegador web, Habilitar CORS debe estar activado en la configuración del servidor. Sin ello, el navegador bloqueará las solicitudes a la API de LM Studio.
  3. La lista de modelos se actualiza automáticamente. Si deseas hacerlo manualmente, haz clic en Actualizar modelos.
  4. Asigna las tareas que deseas que este modelo maneje, luego guarda.

Conectando LM Studio

Si la conexión es exitosa, ONLYOFFICE redirigirá las solicitudes a tu modelo local.

Usando el asistente de IA

Atajos de teclado:

Abrir el asistente de IAWindows / Linux Ctrl+/
macOS +/
Borrar historial de conversacionesWindows / Linux Ctrl+Alt+/
macOS ++/
Cerrar el panel del agente de IATodas las plataformasEsc

Solución de problemas

Expandir todo

Colapsar todo

No se puede conectar a LM Studio

Verifica que el servidor esté en funcionamiento en la pestaña Servidor y que la URL en ONLYOFFICE coincida exactamente con lo que muestra LM Studio, incluido el número de puerto. Si la conexión sigue fallando, verifica si un firewall o aplicación antivirus está bloqueando el tráfico de localhost. Reinicia ambas aplicaciones después de realizar cualquier cambio.

Las respuestas son lentas

Las respuestas lentas son casi siempre una limitación de hardware, no un problema de configuración. Los modelos más grandes consumen más RAM y se benefician de la aceleración por GPU. Cambiar a un modelo cuantizado más pequeño y cerrar otras aplicaciones que consumen mucha memoria generalmente mejorará los tiempos de respuesta.

El panel del asistente de IA se abre pero no responde

Si el panel se abre pero no se genera ninguna respuesta, la causa más común es que no hay un modelo cargado. El servidor API puede funcionar sin un modelo, pero no puede procesar solicitudes en ese estado. Confirma que un modelo está descargado y activamente cargado en LM Studio. También asegúrate de que el modelo esté asignado a la tarea de Chat en la configuración de IA en ONLYOFFICE.

La lista de modelos no se actualiza

El servidor API debe estar en funcionamiento antes de abrir ONLYOFFICE. Si iniciaste LM Studio después de abrir el editor, reinicia ONLYOFFICE y actualiza la lista de modelos.

Artículos con etiqueta:
Ver todas las etiquetas