Description
Il s'agit d'une application de chat de style Material3 qui prend en charge les réponses de plusieurs LLM à la fois.
Plateformes prises en charge
- OpenAI GPT (GPT-4o, turbo, etc.)
- Anthropic Claude (3.5 Sonnet, 3 Opus, etc.)
- Google Gemini (1.5 Pro, Flash, etc.)
- Ollama (votre propre serveur)
Historique des discussions locales
L'historique des discussions n'est enregistré que localement. L'application envoie uniquement aux serveurs API officiels pendant la discussion. NON PARTAGÉ nulle part ailleurs.
Adresse API personnalisée et nom de modèle personnalisé pris en charge. Réglez également l'invite du système, le haut p, la température et bien plus encore !
Veuillez noter que certaines plateformes peuvent ne pas être prises en charge dans certains pays.
Quoi de neuf dans la dernière version 0.5.0
- Now supports Ollama API.
- Now GPT 3.5 Turbo is deprecated and GPT 4o mini is recommended.
- Supports custom API address, custom models
- Minor UX improvements
- Translation improvements