Временная интеграция других моделей ИИ
Ollama
- Скачайте и установите ollama с официального сайта
- MacOS
- Запустите
OLLAMA_ORIGINS="*" ollama serve
(позволяет доступ с других источников и запускает ollama)
- Запустите
- Windows
- В Панели управления - Свойства системы - Переменные среды - Переменные среды пользователя создайте новую переменную с именем "OLLAMA_HOST" и значением "0.0.0.0", а также переменную с именем "OLLAMA_ORIGINS" и значением "*"
- Перейдите на страницу настроек плагина и выберите openAI для сервиса перевода
- api_key: ollama
- Пользовательская модель: llama2, другие модели
- Пользовательский URL: http://localhost:11434/v1/chat/completions
- Связанные справочные документы
Groq
- Перейдите на страницу настроек плагина и выберите openAI для сервиса перевода
- api_key: Получите api_key
- Пользовательская модель: mixtral-8x7b-32768, llama2-70b-4096
- Пользовательский URL: https://api.groq.com/openai/v1/chat/completions
- Контроль скорости: 20/мин+25/10мин
- Примечание
- Рекомендуется использовать только для функций наведения мыши и улучшения ввода
Claude
- Развертывание Claude в ChatGPT с использованием Docker/Cloudflare Claude to ChatGPT
- Перейдите на страницу настроек плагина и выберите openAI для сервиса перевода
- api_key: Получите api_key
- Пользовательская модель: claude-instant-1, claude-2
- Пользовательский URL: http://localhost:8000/v1/chat/completions
- См. Ограничения частоты для частотных ограничений
- Примечания
- Обратите внимание на экспорт IP
- Рекомендуется использовать только для функций наведения мыши и улучшения ввода