Open Source- und Open Weight-Sprachmodelle
zusammengestellt unter dem Gesichtspunkt ihrer Eignung für den Bau lokaler Systeme z.B. für unternehmensspezifische Anwendungen unabhängig von den Big Tech-Anbietern.
Auswahl von aktuellen Modellen aus der Open-Source / Open-Weight-Szene:
Modell / Projekt |
Größen / Varianten |
Lizenz / Offenheit |
Bemerkungen und Eignung |
GPT-OSS (OpenAI) |
20B, 120B |
Open Weight (Apache 2.0) |
OpenAI veröffentlichte mit GPT-OSS Modelle mit offenem Zugang zu Gewichten unter Apache-Lizenz. Nicht vollständig Open Source, da Trainingscode nicht mitgeliefert ist. OpenAI+3 Keywords AI +3 OpenAI |
Gemma (DeepMind / Google) |
etwa 2B, 7B, 27B (u. a.) |
Anspruch: Open Source / offene Lizenz |
Gemma wird in Quellen als „open source“ dargestellt, mit freien Lizenzen. Wikipedia |
BitNet b1.58 2B4T |
~ 2B |
Open Source / Open Weight |
Die Gewichte sind veröffentlicht, und es gibt offene Inferenz-Implementierungen für GPU/CPU. arXiv |
DBRX (Databricks / MosaicML) |
132B (MoE, mit aktivierter Expert-Auswahl) |
Databricks Open Model License |
Ist eher ein „open model“ unter proprietärer Lizenz, Gewichte sind offen verfügbar. Wikipedia |
Mistral / Mixtral etc. |
7B, 24B, Mixtral 46B etc. |
Open Weight (Apache / Research-Lizenz) |
Mistral AI veröffentlichte Modelle mit offenen Gewichten unter erlaubender Lizenz, allerdings nicht immer mit vollständigem Trainingscode. Wikipedia |
AM-Thinking-v1 |
32B |
Open (als Nachfolge / Weiterentwicklung von offenem Qwen-Basis) |
explizit auf Hugging Face mit offenem Zugang veröffentlicht . arXiv |
Apertus |
(Größen nicht alle publiziert) |
Vollständig Open Source |
Wird als ein Modell beschrieben, bei dem Code, Trainingsdaten und Pipeline offengelegt sind (also echte Transparenz). Wikipedia |
- Open-Weight-Modelle sind ausreichend, wenn man Modelle lokal einsetzen, anpassen (Feintuning) oder in eine Anwendung integrieren will, allerdings sollte man auf die Lizenzbedingungen mit etwaigen Einschränkungen bei kommerzieller Nutzung achten.
- Wenn maximale Transparenz gefordert ist (z. B. für wissenschaftliche Reproduzierbarkeit, eigene Trainings und Audits) sollte man explizit Modelle wählen, die wirklich Open Source sind, d.h. Code und Pipeline offen.
- Für größere Modelle (> 10 Mrd. Parameter) braucht man passende Hardware (GPUs, große VRAM-Kapazität etc.)
Wer keine Angst vor den Chinesen hat, kann sich auch unter den Modellen der folgenden Übersicht umsehen:
Modell / Serie |
Entwickler |
Lizenz |
Anmerkungen |
DeepSeek |
MIT |
Open Source, viele vortrainierte Modelle nur Open Weight |
671B Parameter (MoE); Stärken: Reasoning, Coding; "Think/Non-Think"-Modus |
Qwen3-Serie |
Alibaba Cloud |
Apache 2.0 |
widersprüchliche Angaben, ob Open Source oder Open Weight, viele Modellgrößen (0.5B-235B), hybrides "Thinking"-Reasoning; stark für Coding und Multimodalität |
Kimi K2 |
Moonshot AI |
Modifizierte MIT (nicht OSI-konform) |
Open Weight, 1 Billion Parameter (MoE); für "agentische" Workflows und Tool-Nutzung designed |
GLM-4.5 / GLM-4.5 Air |
Zhipu AI |
MIT |
Open Source, 355B & 106B Parameter (MoE); spezialisiert für Tool-Nutzung und Funktionsaufrufe |
Yi 1.5 |
01.AI |
Apache 2.0 |
Open Source, bilingual (EN/CN); gute Reasoning-Fähigkeiten in kompakten Größen (6B-34B Parameter) |
Baichuan 4 |
Baichuan Intelligence |
Kommerzielle Lizenz mit Einschränkungen |
Open Source, Stärken in domänenspezifischen Anwendungen (Recht, Finanzen, Medizin) |
Anmerkungen
Die Angaben in der Tabelle stammen von Internet-Seiten der chinesischen Anbieten.
- Die großen Mixture-of-Experts-Modelle (MoE) wie Kimi K2 oder DeepSeek-V3 haben sehr hohe Anforderungen an die Hardware.
- Für Kimi K2 wird beispielsweise ein Cluster mit 16 GPUs empfohlen.
- Kleinere Modelle der Yi- oder Qwen-Serie sind besser für den Einsatz auf Consumer-Hardware geeignet.
- Die meisten Modelle sind auf der Plattform Hugging Face verfügbar und können von dort heruntergeladen werden. Obwohl die meisten Lizenzen sehr freizügig sind, sollte man vor einer kommerziellen Nutzung den genauen Lizenztext des jeweiligen Modells prüfen.
- Eine Ausnahme ist Kimi K2, das eine modifizierte MIT-Lizenz verwendet, die allerdings nicht von der Open Source Initiative (OSI) anerkannt ist.
Die „Halbwertszeit“ dieser Übersicht ist hoffentlich relativ kurz, im Vertrauen darauf, dass das Angebot für eigene, vor unerwünschtem Zugriff schützbaren Systemen schnell wächst.