Integração Temporária de Outros Modelos de IA
Ollama
- Descarregue e instale o ollama a partir do site oficial
- MacOS
- Execute
OLLAMA_ORIGINS="*" ollama serve
(permite acesso de origem cruzada e inicia o ollama)
- Execute
- Windows
- No Painel de Controlo - Propriedades do Sistema - Variáveis de Ambiente - Variáveis de Ambiente do Utilizador, crie uma nova variável com o nome "OLLAMA_HOST" com o valor "0.0.0.0", e uma variável com o nome "OLLAMA_ORIGINS" com o valor "*"
- Vá à página de definições do plugin, e selecione openAI para o serviço de tradução
- api_key: ollama
- Modelo personalizado: llama2, outros modelos
- URL personalizada: http://localhost:11434/v1/chat/completions
- Documentos de referência relacionados
Groq
- Vá à página de definições do plugin, e selecione openAI para o serviço de tradução
- api_key: Obtenha api_key
- Modelo personalizado: mixtral-8x7b-32768, llama2-70b-4096
- URL personalizada: https://api.groq.com/openai/v1/chat/completions
- Controlo de taxa: 20/min+25/10min
- Nota
- Recomenda-se usar apenas para funcionalidades de realce de passagem do rato e de entrada## Claude
- Implementação do Claude para ChatGPT usando Docker/Cloudflare Claude to ChatGPT
- Vá à página de definições do plugin, e selecione openAI para o serviço de tradução
- api_key: Obtenha o api_key
- Modelo personalizado: claude-instant-1, claude-2
- Endereço URL personalizado: http://localhost:8000/v1/chat/completions
- Veja Limites de Taxa para limitações de frequência
- Notas
- Esteja ciente do IP de exportação
- Recomenda-se usar apenas para funcionalidades de realce de passagem do rato e de entrada