Integración Temporal de Otros Modelos de IA
Ollama
- Descarga e instala ollama desde el sitio web oficial
- MacOS
- Ejecuta
OLLAMA_ORIGINS="*" ollama serve
(permite acceso de origen cruzado e inicia ollama)
- Ejecuta
- Windows
- En Panel de Control - Propiedades del Sistema - Variables de Entorno - Variables de Entorno de Usuario, crea una nueva variable con el nombre "OLLAMA_HOST" y el valor "0.0.0.0", y una variable con el nombre "OLLAMA_ORIGINS" y el valor "*"
- Ve a la página de configuración del complemento y selecciona openAI para el servicio de traducción
- api_key: ollama
- Modelo personalizado: llama2, otros modelos
- URL personalizada: http://localhost:11434/v1/chat/completions
- Documentos de referencia relacionados
Groq
- Ve a la página de configuración del complemento y selecciona openAI para el servicio de traducción
- api_key: Obtén api_key
- Modelo personalizado: mixtral-8x7b-32768, llama2-70b-4096
- URL personalizada: https://api.groq.com/openai/v1/chat/completions
- Control de tasa: 20/min+25/10min
- Nota
- Se recomienda usar solo para funciones de mejora de desplazamiento del ratón y entrada
Claude
- Despliegue de Claude a ChatGPT usando Docker/Cloudflare Claude to ChatGPT
- Ve a la página de configuración del complemento y selecciona openAI para el servicio de traducción
- api_key: Obtén el api_key
- Modelo personalizado: claude-instant-1, claude-2
- Dirección URL personalizada: http://localhost:8000/v1/chat/completions
- Consulta Límites de Tasa para limitaciones de frecuencia
- Notas
- Ten en cuenta la IP de exportación
- Se recomienda usar solo para funciones de mejora de desplazamiento del ratón y entrada