Este artigo foi traduzido por IA

LM Studio

Introdução

LM Studio é um gerenciador local de modelos de IA que permite executar modelos de linguagem de grande porte de código aberto, como Mistral, Llama e Phi, diretamente no seu computador.

Em vez de usar APIs na nuvem, o LM Studio executa modelos localmente e expõe um endpoint de API local ao qual outros aplicativos podem se conectar.

Esta configuração é útil se você:

  • Precisar de controle total sobre seus dados
  • Trabalhar em um ambiente offline
  • Precisar cumprir políticas internas de segurança
  • Quiser evitar custos de APIs externas

Antes de começar, certifique-se de que o LM Studio está instalado e em execução, e que o plugin de IA está instalado e habilitado no ONLYOFFICE.

Requisitos do sistema

ComponenteRequisito
SOWindows (x64, ARM64), macOS (Apple Silicon), Linux (x64)
CPUSuporte ao conjunto de instruções AVX2 necessário (sistemas x64)
RAM16 GB recomendados
GPU4 GB de VRAM recomendados; rodar apenas no CPU é possível, mas significativamente mais lento

Configuração rápida

Passo 1. Instalar o LM Studio
  1. Baixe o LM Studio do site oficial do LM Studio (disponível para Windows, macOS e Linux).
  2. Instale e inicie o aplicativo.
  3. Selecione uma pasta local onde os modelos de IA serão armazenados.

Neste estágio, o LM Studio está instalado, mas ainda não está conectado ao ONLYOFFICE.

Passo 2. Habilitar e preparar o servidor de API local

O ONLYOFFICE requer duas coisas do LM Studio: um modelo carregado e um servidor de API em execução.

  1. Baixar um modelo
    1. Abra a seção Modelos.
    2. Escolha um modelo que se adapte ao seu hardware.
    3. Baixe o modelo e certifique-se de que está totalmente carregado.
  2. Iniciar o servidor de API
    1. Vá para a aba Servidor.
    2. Altere o status do servidor de Parado para Executando ou pressione Cmd+R no macOS.
    3. Anote a URL base, por exemplo: http://127.0.0.1:1234.

Uma vez que o modelo está baixado e o servidor está em execução, seu sistema funciona como um endpoint de IA privado.

Passo 3. Habilitar o plugin de IA
  1. Abra o ONLYOFFICE Desktop Editors versão 9.0.4 ou posterior.
  2. Vá para Plugins → Gerenciador de Plugins.
  3. Instale ou atualize o plugin de IA, depois feche o Gerenciador de Plugins.
  4. Vá para Plugins → Plugins em segundo plano e habilite o plugin de IA.
Passo 4. Conectar o LM Studio ao ONLYOFFICE
  1. Abra a aba de IA → Configurações → Editar modelos de IA e clique no ícone + para adicionar um novo modelo.
  2. Insira o seguinte:
    • Nome do modelo: LM Studio
    • URL: a URL base exibida na aba Servidor no LM Studio, por exemplo, http://127.0.0.1:1234/v1
    Ao conectar via navegador, Habilitar CORS deve estar ativado nas configurações do servidor. Sem isso, o navegador bloqueará solicitações para a API do LM Studio.
  3. A lista de modelos é atualizada automaticamente. Se desejar fazê-lo manualmente, clique em Atualizar modelos.
  4. Atribua as tarefas que deseja que este modelo execute, depois salve.

Conectando o LM Studio

Se a conexão for bem-sucedida, o ONLYOFFICE direcionará solicitações para o seu modelo local.

Usando o assistente de IA

Atalhos de teclado:

Abrir o assistente de IAWindows / Linux Ctrl+/
macOS +/
Limpar histórico de conversasWindows / Linux Ctrl+Alt+/
macOS ++/
Fechar o painel do agente de IATodas as plataformasEsc

Solução de problemas

Expandir tudo

Recolher tudo

Não é possível conectar ao LM Studio

Verifique se o servidor está em execução na aba Servidor e se a URL no ONLYOFFICE corresponde exatamente ao que o LM Studio exibe, incluindo o número da porta. Se a conexão ainda falhar, verifique se um firewall ou aplicativo antivírus está bloqueando o tráfego localhost. Reinicie ambos os aplicativos após fazer quaisquer alterações.

Respostas estão lentas

Respostas lentas são quase sempre uma limitação de hardware, não um problema de configuração. Modelos maiores consomem mais RAM e se beneficiam da aceleração por GPU. Mudar para um modelo quantizado menor e fechar outros aplicativos que consomem muita memória geralmente melhora os tempos de resposta.

O painel do assistente de IA abre, mas não responde

Se o painel abrir, mas nenhuma resposta for gerada, a causa mais comum é que nenhum modelo está carregado. O servidor de API pode funcionar sem um modelo, mas não pode processar solicitações nesse estado. Confirme se um modelo está baixado e ativamente carregado no LM Studio. Também certifique-se de que o modelo está atribuído à tarefa Chat nas configurações de IA no ONLYOFFICE.

A lista de modelos não atualiza

O servidor de API deve estar em execução antes de o ONLYOFFICE ser aberto. Se você iniciou o LM Studio após abrir o editor, reinicie o ONLYOFFICE e atualize a lista de modelos.

Artigo com o tag:
Veja todas as etiquetas