Ir para o conteúdo principal

Integração Temporária de Outros Modelos de IA

Ollama

  • Descarregue e instale o ollama a partir do site oficial
  • MacOS
    • Execute OLLAMA_ORIGINS="*" ollama serve (permite acesso de origem cruzada e inicia o ollama)
  • Windows
    • No Painel de Controlo - Propriedades do Sistema - Variáveis de Ambiente - Variáveis de Ambiente do Utilizador, crie uma nova variável com o nome "OLLAMA_HOST" com o valor "0.0.0.0", e uma variável com o nome "OLLAMA_ORIGINS" com o valor "*"
  • Vá à página de definições do plugin, e selecione openAI para o serviço de tradução
  • Documentos de referência relacionados

Groq