Open Source- und Open Weight-Sprachmodelle

zusammengestellt unter dem Gesichtspunkt ihrer Eignung für den Bau lokaler Systeme z.B. für unternehmensspezifische Anwendungen unabhängig von den Big Tech-Anbietern.

Auswahl von aktuellen Modellen aus der Open-Source / Open-Weight-Szene:

Modell / Projekt Größen / Varianten Lizenz / Offenheit Bemerkungen und Eignung
GPT-OSS (OpenAI) 20B, 120B Open Weight (Apache 2.0) OpenAI veröffentlichte mit GPT-OSS Modelle mit offenem Zugang zu Gewichten unter Apache-Lizenz. Nicht vollständig Open Source, da Trainingscode nicht mitgeliefert ist. OpenAI+3 Keywords AI +3 OpenAI
Gemma (DeepMind / Google) etwa 2B, 7B, 27B (u. a.) Anspruch: Open Source / offene Lizenz Gemma wird in Quellen als „open source“ dargestellt, mit freien Lizenzen. Wikipedia
BitNet b1.58 2B4T ~ 2B Open Source / Open Weight Die Gewichte sind veröffentlicht, und es gibt offene Inferenz-Implementierungen für GPU/CPU. arXiv
DBRX (Databricks / MosaicML) 132B (MoE, mit aktivierter Expert-Auswahl) Databricks Open Model License Ist eher ein „open model“ unter proprietärer Lizenz, Gewichte sind offen verfügbar. Wikipedia
Mistral / Mixtral etc. 7B, 24B, Mixtral 46B etc. Open Weight (Apache / Research-Lizenz) Mistral AI veröffentlichte Modelle mit offenen Gewichten unter erlaubender Lizenz, allerdings nicht immer mit vollständigem Trainingscode. Wikipedia
AM-Thinking-v1 32B Open (als Nachfolge / Weiterentwicklung von offenem Qwen-Basis) explizit auf Hugging Face mit offenem Zugang veröffentlicht . arXiv
Apertus (Größen nicht alle publiziert) Vollständig Open Source Wird als ein Modell beschrieben, bei dem Code, Trainingsdaten und Pipeline offengelegt sind (also echte Transparenz). Wikipedia
  • Open-Weight-Modelle sind ausreichend, wenn man Modelle lokal einsetzen, anpassen (Feintuning) oder in eine Anwendung integrieren will, allerdings sollte man auf die Lizenzbedingungen mit etwaigen Einschränkungen bei kommerzieller Nutzung achten.
  • Wenn maximale Transparenz gefordert ist (z. B. für wissenschaftliche Reproduzierbarkeit, eigene Trainings und Audits) sollte man explizit Modelle wählen, die wirklich Open Source sind, d.h. Code und Pipeline offen.
  • Für größere Modelle (> 10 Mrd. Parameter) braucht man passende Hardware (GPUs, große VRAM-Kapazität etc.)

Wer keine Angst vor den Chinesen hat, kann sich auch unter den Modellen der folgenden Übersicht umsehen:

Modell / Serie Entwickler Lizenz Anmerkungen
DeepSeek MIT Open Source, viele vortrainierte Modelle nur Open Weight 671B Parameter (MoE); Stärken: Reasoning, Coding; "Think/Non-Think"-Modus
Qwen3-Serie Alibaba Cloud Apache 2.0 widersprüchliche Angaben, ob Open Source oder Open Weight, viele Modellgrößen (0.5B-235B), hybrides "Thinking"-Reasoning; stark für Coding und Multimodalität
Kimi K2 Moonshot AI Modifizierte MIT (nicht OSI-konform) Open Weight, 1 Billion Parameter (MoE); für "agentische" Workflows und Tool-Nutzung designed
GLM-4.5 / GLM-4.5 Air Zhipu AI MIT Open Source, 355B & 106B Parameter (MoE); spezialisiert für Tool-Nutzung und Funktionsaufrufe
Yi 1.5 01.AI Apache 2.0 Open Source, bilingual (EN/CN); gute Reasoning-Fähigkeiten in kompakten Größen (6B-34B Parameter)
Baichuan 4 Baichuan Intelligence Kommerzielle Lizenz mit Einschränkungen Open Source, Stärken in domänenspezifischen Anwendungen (Recht, Finanzen, Medizin)

Anmerkungen

Die Angaben in der Tabelle stammen von Internet-Seiten der chinesischen Anbieten.

  • Die großen Mixture-of-Experts-Modelle (MoE) wie Kimi K2 oder DeepSeek-V3 haben sehr hohe Anforderungen an die Hardware.
  • Für Kimi K2 wird beispielsweise ein Cluster mit 16 GPUs empfohlen.
  • Kleinere Modelle der Yi- oder Qwen-Serie sind besser für den Einsatz auf Consumer-Hardware geeignet.
  • Die meisten Modelle sind auf der Plattform Hugging Face verfügbar und können von dort heruntergeladen werden. Obwohl die meisten Lizenzen sehr freizügig sind, sollte man vor einer kommerziellen Nutzung den genauen Lizenztext des jeweiligen Modells prüfen.
  • Eine Ausnahme ist Kimi K2, das eine modifizierte MIT-Lizenz verwendet, die allerdings nicht von der Open Source Initiative (OSI) anerkannt ist.

Die „Halbwertszeit“ dieser Übersicht ist hoffentlich relativ kurz, im Vertrauen darauf, dass das Angebot für eigene, vor unerwünschtem Zugriff schützbaren Systemen schnell wächst.

 

Karl Schmitz • September 2025