Durch Anklicken „Alle Cookies akzeptieren“, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Seitennavigation zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Sehen Sie sich unsere an Datenschutzrichtlinie für weitere Informationen.

Fortschritt durch offene Kollaboration

Willkommen bei DiscoResearch! Gemeinsam gestalten wir die Zukunft der KI-Forschung durch offene Zusammenarbeit.Begleiten Sie uns, während wir neue Maßstäbe für Sprachmodelle setzen.

KI-Modelle

Bereits über 500.000 Downloads unserer KI-Modelle

Durch unsere Open-Source-Arbeit bei DiscoResearch tragen wir auf vielen Ebenen zur Weiterentwicklung der LLM-Entwicklung bei. Werfen Sie einen Blick auf unsere Modelle.

Llama 3 DisColm 8b v0.1 Experimentell
Llama 3 DisColm German 8b v0.1 Experimental ist eine experimentelle Llama 3-basierte Version von DisColm German. Dies ist eine experimentelle Version.
DisColm Mixtral 8x7b Alpha
Ein experimentelles 8x7b MoE-Modell, das auf Mixtral 8x7b von Mistral AI basiert. Dieses Modell basiert auf experimentellem Code, der die Modellgewichte in das Huggingface-Format umwandelt.
DisColm Deutsch 7b
DisColm German 7b ist ein auf Mistral basierendes großes Sprachmodell mit Schwerpunkt auf deutschsprachigen Anwendungen und der Nachfolger der deutschen EM-Modellfamilie.
Discolm 120b (Alpha)
DisColm 120b (Alpha) ist ein experimentelles 120b-Modell, das auf Alpindales Goliath 120b basiert, einer Zusammenführung verschiedener Llama2-70b-Modelle.
Mixtral 7b 8 Experte
Dies ist eine vorläufige HuggingFace-Implementierung des neu veröffentlichten MoE-Modells von MistraLAI. Stellen Sie sicher, dass Sie mit trust_remote_code=TRUE laden.
über uns

Wegweisende Open Source Projekte

Neue Ansätze in der LLM-Evaluierung

Als engagierte Open-Source-Forschungsgemeinschaft haben wir uns zum Ziel gesetzt, die Forschung an großen Sprachmodellen durch offene Zusammenarbeit und freien Wissensaustausch zu beschleunigen. Wir sind fest davon überzeugt, dass Transparenz und gemeinschaftliche Anstrengungen zu herausragenden Ergebnissen führen.


Barrieren überwinden: Innovation gemeinsam vorantreiben

Wir arbeiten aktiv mit anderen Forschungsgemeinschaften wie Hessian.AI, LAION, AlignmentLab AI, DFKI und anderen zusammen, um Ressourcen zu bündeln, Erkenntnisse auszutauschen und das kollektive Verständnis von LLMs zu erweitern.

Fortschritt durch offene Zusammenarbeit in der LLM KI-Forschung

Wir glauben an die Kraft eines inklusiven Umfelds und ermutigen Forscher aus verschiedenen Bereichen, Ideen auszutauschen und an gemeinsamen Projekten zu arbeiten. Durch die Förderung eines offenen Austauschs möchten wir Innovationen beschleunigen und positive Veränderungen in der KI-Community vorantreiben.

Funktionen

Warum DiscoResearch?

Expertise in Pre-Training und Fine Tuning

Wir verfügen über umfassende Expertise im kontinuierlichen Pre-Training und Fine Tuning von Sprachmodellen, wodurch wir Modelle optimal auf spezifische Aufgaben und Sprachen anpassen können.

Fokus auf nicht-englische Modelle

Einer unserer Hauptschwerpunkte liegt in der Forschung und Entwicklung von Modellen für nicht-englische Sprachen, um den Bedürfnissen vielfältiger Sprachgemeinschaften gerecht zu werden.

Fortgeschrittene Evaluierungstechniken

Durch den Einsatz neuester Methoden erhalten wir detaillierte Einblicke in die Modellleistung, was zu besser Entscheidungsfindung und kontinuierlichen Verbesserungen der KI-Systeme führt.

open-source datensätze

Wir arbeiten ständig daran, neuartige und vielfältige Open-Source-Datensätze zu entwickeln und zu veröffentlichen, die unsere Community nutzen kann, um bestehende und neue Modelle zu verbessern.

FAQS

Häufig gestellte Fragen

Hier finden Sie Antworten auf häufig gestellte Fragen zu DiscoResearch. Wenn Ihre Frage nicht beantwortet wird, kontaktieren Sie uns gerne.

Worauf liegt der Hauptfokus von DiscoResearch?

+
-

DiscoResearch ist ein Open-Source-Forschungskollektiv, das sich primär auf die Forschung und das Training von großen Sprachmodellen (LLMs) konzentriert. Unsere Schwerpunkte umfassen nicht-englische Modelle, fortschrittliche Evaluierungstechniken und Methoden des Reinforcement Learning (RL).

Was unterschiedet DiscoResearch im Bereich der LLM-Forschung?

+
-

Wir verfügen über umfassende Erfahrung im kontinuierlichen Pre-Training und Fine Tuning, insbesondere bei nicht-englischen Modellen. Unsere Modelle wurden bereits über 500.000 Mal heruntergeladen, was die Anerkennung zeigt, die wir in der Community gewonnen haben.

Wie arbeitet DiscoResearch mit anderen Forschungskollektiven zusammen?

+
-

DiscoResearch verbindet Forscher aus verschiedenen Gemeinschaften, um gemeinsame Ziele im LLM-Bereich zu verfolgen. Wir arbeiten eng mit Initiativen wie Hessian.AI, LAION, AlignmentLab AI und anderen zusammen, um unsere Expertise und Ressourcen zu teilen.

Wie können Einzelpersonen bei DiscoResearch mitwirken?

+
-

Wenn Sie Interesse an einer Zusammenarbeit mit DiscoResearch haben oder Fragen und Anregungen teilen möchten, laden wir Sie herzlich ein, unserem Discord-Server beizutreten. Egal, ob Sie ein erfahrener Forscher sind oder gerade erst beginnen – wir begrüßen jeden, der leidenschaftlich daran interessiert ist, die Grenzen von LLMs zu erweitern und Innovationen voranzutreiben.

Kontaktiere uns

Kontaktiere das DiscoResearch-Team

Senden Sie uns eine Nachricht mit Ihrer Anfrage oder treten Sie unserem Discord-Server mit über 800 Mitgliedern bei.