Beschreibung
Dies ist eine Chat-App im Material3-Stil, die Antworten von mehreren LLMs gleichzeitig unterstützt.
Unterstützte Plattformen
- OpenAI GPT (GPT-4o, Turbo usw.)
- Anthropic Claude (3.5 Sonnet, 3 Opus usw.)
- Google Gemini (1.5 Pro, Flash usw.)
- Ollama (Ihr eigener Server)
Lokaler Chatverlauf
Der Chatverlauf wird nur lokal gespeichert. Die App sendet beim Chatten nur an offizielle API-Server. Wird nirgendwo anders geteilt.
Benutzerdefinierte API-Adresse und benutzerdefinierter Modellname werden unterstützt. Passen Sie außerdem die Systemaufforderung, den Höchstwert, die Temperatur und mehr an!
Beachten Sie, dass einige Plattformen in manchen Ländern möglicherweise nicht unterstützt werden.
Was ist neu in der neuesten Version? 0.5.0
- Now supports Ollama API.
- Now GPT 3.5 Turbo is deprecated and GPT 4o mini is recommended.
- Supports custom API address, custom models
- Minor UX improvements
- Translation improvements