Skip to main content

INDIVIDUALISIERTE

KI-Sprachmodelle

für Ihr Unternehmen

Wer wir sind

Die ellamind GmbH ist spezialisiert auf die Entwicklung maßgeschneiderter, anwendungsspezifischer KI-Modelle mit der Möglichkeit einer “on-premise” Nutzung. Mit unseren Lösungen können Sie ihre privaten oder hochsensiblen Daten automatisiert verarbeiten, ohne dass diese jemals das eigene Netzwerk verlassen müssen. Darüberhinaus erlauben unsere Modelle völlige Unabhängigkeit und Datensouveränität und können für spezialisierte Anwendungen die Performance generischer KI-Modelle deutlich übertreffen.

Unser Gründerteam hat einige der fortschrittlichsten und meistgenutzten Open-Source KI-Modelle im deutschsprachigen Raum entwickelt und auch international Aufsehen erregt (u.a. durch mehrere Top-10 Platzierungen im globalen “Open LLM Leaderboard” und die erste funktionierende Mixtral-Implementation). Wir stehen für schnelle und fortschrittliche Entwicklung von “state-of-the-art” KI-Modellen und -Pipelines und werden über DiscoResearch weiterhin viele dieser Fortschritte offen teilen.

Unsere Partnerschaft mit der JAAI Group erlaubt unserem Team, auch große und anspruchsvolle Projekte zuverlässig umzusetzen.

Referenzen

LeoLM
Erstes deutsprachiges Foundation-Model mit continued Pretraining
Llama2 German, LeoLM Chat, EM German, DiscoLM German
Meist-genutzte offene KI-Sprachmodelle für den deutschspprachigen Einsatz (>100k Downloads)
DiscoLM 70b und DiscoLM 120b
Platz #6 und #3 des weltweiten OpenLLM Leaderboards
Mixtral, Mistral AI´s MoE Modell
Erstellung der ersten lauffähigen Implementation

Unser Team

Dr. Jan Philipp Harries

Co-Founder & CEO

Björn Plüster

Co-Founder & CTO

Vorteile individualisierter KI-Sprachmodelle

Datenschutz

Möglichkeit der on-premise Nutzung mit sensiblen Kundendaten oder Geschäftsgeheimnissen

Unabhängigkeit & Resilienz

Volle, provider-unabhängige Kontrolle über KI-Modelle für geschäftskritische Prozesse

Performance

Modelle können mittels “Finetuning” domänen- und firmenspezifisches Know-How nutzen und die Performance allgemeiner Modelle übertreffen.