Kaffeeklatsch

Safe, aber nicht Open Source

März 2026 · 5 Min. Lesezeit

Dario Amodei sitzt im Pentagon, sechs Beamte vor sich, Verteidigungsminister Hegseth am Kopfende. Die Forderung: Claude für alle militärischen Zwecke freigeben. Ohne Einschränkung. Amodei schüttelt den Kopf. Zwei rote Linien: keine autonomen Waffen ohne menschliche Kontrolle, keine Massenüberwachung amerikanischer Bürger. 200 Millionen Dollar Vertrag auf dem Tisch. Freitag darauf: Blacklist. Supply Chain Risk. Trump ordnet an, alle Bundesbehörden sollen Claude abschalten. Anthropic klagt.

Eine KI-Firma, die dem Verteidigungsministerium der größten Militärmacht der Welt widerspricht. Das passiert nicht oft.

Aber die gleiche Firma hat eine Woche vorher etwas anderes gemacht. Und darüber redet kaum jemand.

Das Versprechen, das leise verschwand

Anthropic veröffentlicht in derselben Woche Version 3.0 der Responsible Scaling Policy. Die Kernänderung: Das Versprechen, das Training neuer Modelle zu pausieren, wenn die Fähigkeiten die Sicherheitsmaßnahmen übersteigen — gestrichen. Seit 2023 war das der Identitätskern der Firma. Die Sache, die Anthropic von OpenAI unterschied.

Jared Kaplan, Mitgründer und Chief Science Officer, erklärte die Logik gegenüber TIME: Wenn verantwortungsvolle Entwickler pausieren, während alle anderen weitermachen, wird die Welt nicht sicherer. Sie wird unsicherer, weil die vorsichtigen Spieler ins Hintertreffen geraten.

Das klingt plausibel. Es klingt auch nach dem exakt selben Argument, das jede Firma benutzt, die ein unbeqümes Prinzip aufgibt.

Closed Source als Sicherheitsstrategie

Anthropic hat noch nie Model Weights veröffentlicht. Kein einziges Mal. Auf der Prognoseplattform Manifold lag die Wahrscheinlichkeit, dass sich das 2026 ändert, bei drei Prozent. Dario Amodei hat erklärt, warum: Open Weights sind kein Open Source. Man kann das Modell nicht inspizieren wie Qüllcode. Man kann nur die Gewichte nehmen und Dinge damit tun — auch Dinge, die niemand kontrolliert.

Anthropics Sicherheitschef beschrieb das Szenario so: Ein Angreifer mit den Gewichten hält das gesamte neuronale Netzwerk in der Hand. Terrorgruppen. Autoritäre Staaten. Keine Rückruftaste.

Meta veröffentlicht Llama trotzdem. Mistral schickt Modellgewichte per Torrent in die Welt. DeepSeek baut Frontier-Modelle und gibt sie frei. Die Gegenposition ist klar: Sicherheit durch tausend Augen statt durch einen Gatekeeper. Was prüfbar ist, ist sicherer als das, was hinter verschlossenen Türen existiert.

Closed Source

Modellgewichte in falschen Händen sind nicht zurückrufbar. Kontrolle liegt bei einer Firma, die nachweislich bereit ist, Hunderte Millionen für eine ethische Linie zu riskieren.

Open Source

Tausend Augen finden Schwachstellen schneller als ein Team. Geschlossene Systeme erfordern Vertrauen — und Vertrauen kann über Nacht aufgelöst werden. Wie im Februar geschehen.

Der Widerspruch, der kein Zufall ist

Dieselbe Firma, die sagt, Claude sei „nicht zuverlässig genug" für autonome Waffen, hat ihr eigenes Versprechen gestrichen, das Training zu pausieren, wenn die Zuverlässigkeit nicht ausreicht. Das ist kein Skandal. Es ist auch keine Heuchelei. Es ist das, was passiert, wenn Prinzipien auf 380 Milliarden Dollar Bewertung treffen.

Anthropic hat Claude Code gebaut — das beste Coding-Tool der Branche. Der Umsatz wächst zehnmal pro Jahr. Investoren haben 30 Milliarden Dollar reingesteckt. Die Firma funktioniert. Aber „funktioniert" und „hält ihre Versprechen" sind zwei verschiedene Sätze.

Kernerkenntnis

Anthropic ist nicht böse. Anthropic ist ein Unternehmen, das Safety als Marke aufgebaut hat und jetzt lernt, dass Prinzipien unter Marktdruck nicht verschwinden — sie verbiegen sich.

Frequently Prompted

Nein. Die RSP-Änderung bedeutet nicht, dass Claude unsicherer geworden ist. Sie bedeutet, dass Anthropic sich nicht mehr dazu verpflichtet, das Training zu stoppen, falls die Sicherheitsmaßnahmen hinterherhinken. Der Unterschied: Eine Firma, die sich selbst bremsen kann, versus eine, die sich selbst bremsen muss. Kann ist schwächer als muss.

Zwei Gründe. Offiziell: Sicherheit. Modellgewichte in falschen Händen lassen sich nicht zurückrufen. Inoffiziell: Geschäftsmodell. Anthropics gesamte Einnahmeqülle — API-Zugang, Claude Pro, Enterprise-Verträge — funktioniert nur, weil das Modell nicht frei verfügbar ist. Beides ist gleichzeitig wahr.

Kommt drauf an, was du brauchst. Für produktives Arbeiten mit Code ist Claude aktuell das stärkste Tool. Für Datenschutz-kritische Anwendungen, lokale Verarbeitung oder Projekte, die nicht von einer einzelnen Firma abhängen sollen, sind Llama, Mistral oder DeepSeek ernstzunehmende Alternativen. Die beste Strategie: Verstehen, wovon du abhängst — und bewusst entscheiden, ob das okay ist.

Stand März 2026: Anthropic wurde als „Supply Chain Risk" eingestuft — ein Label, das normalerweise ausländischen Firmen vorbehalten ist. Trump hat angeordnet, dass alle Bundesbehörden Claude nicht mehr nutzen. Anthropic hat Klage eingereicht. OpenAI und xAI wurden stattdessen für klassifizierte Systeme freigegeben. Der Streit ist nicht gelöst — er ist vor Gericht.

Technisch korrekt. Bei klassischer Software bedeutet Open Source: Du siehst den Qüllcode, kannst ihn ändern, kompilieren, verstehen. Bei KI-Modellen bekommst du die Gewichte — eine riesige Matrix aus Zahlen, die kein Mensch lesen kann. Du kannst das Modell nutzen und feintunen, aber du verstehst nicht, warum es tut, was es tut. Dario Amodei hat das als zentrales Argument gegen den Begriff „Open Source" für KI-Modelle genutzt. Die Community benutzt den Begriff trotzdem — pragmatisch, nicht präzise.

Was das für dich heißt

Wenn du mit Claude arbeitest — für Vibe Coding, für Custom Skills und MCPs, für produktive Workflows — dann nutzt du ein geschlossenes System. Das ist kein Makel. Aber es ist eine Entscheidung, die du bewusst treffen solltest.

Du vertraust einer Firma, die 200 Millionen Dollar für eine ethische Linie riskiert hat. Bemerkenswert. Du vertraust gleichzeitig einer Firma, die ihre stärkste Selbstverpflichtung aufgeweicht hat. Beides ist wahr.

Nathan Lambert, KI-Forscher und einer der lautesten Stimmen in der Open-vs-Closed-Debatte, formulierte es so: In einer Welt, in der Regierungen KI-Firmen erpressen können, sind offene Modelle das stabilere Gleichgewicht. Nicht das perfekte. Das stabilere.

Anthropic würde widersprechen. Und hätte dabei nicht Unrecht.