Integrazione Temporanea di Altri Modelli AI
Ollama
- Scarica e installa ollama dal sito ufficiale
- MacOS
- Esegui
OLLAMA_ORIGINS="*" ollama serve
(consente l'accesso cross-origin e avvia ollama)
- Esegui
- Windows
- Nel Pannello di Controllo - Proprietà del Sistema - Variabili d'Ambiente - Variabili d'Ambiente Utente, crea una nuova variabile con nome "OLLAMA_HOST" e valore "0.0.0.0", e una variabile con nome "OLLAMA_ORIGINS" e valore "*"
- Vai alla pagina delle impostazioni del plugin e seleziona openAI per il servizio di traduzione
- api_key: ollama
- Modello personalizzato: llama2, altri modelli
- URL personalizzato: http://localhost:11434/v1/chat/completions
- Documenti di riferimento correlati
Groq
- Vai alla pagina delle impostazioni del plugin e seleziona openAI per il servizio di traduzione
- api_key: Ottieni api_key
- Modello personalizzato: mixtral-8x7b-32768, llama2-70b-4096
- URL personalizzato: https://api.groq.com/openai/v1/chat/completions
- Controllo del tasso: 20/min+25/10min
- Nota
- Si raccomanda l'uso solo per le funzionalità di passaggio del mouse e miglioramento dell'input
Claude
- Distribuzione di Claude su ChatGPT utilizzando Docker/Cloudflare Claude to ChatGPT
- Vai alla pagina delle impostazioni del plugin e seleziona openAI per il servizio di traduzione
- api_key: Ottieni l'api_key
- Modello personalizzato: claude-instant-1, claude-2
- Indirizzo URL personalizzato: http://localhost:8000/v1/chat/completions
- Vedi Limiti di Frequenza per le limitazioni di frequenza
- Note
- Fai attenzione all'IP di esportazione
- Si raccomanda l'uso solo per le funzionalità di passaggio del mouse e miglioramento dell'input