← Alle Artikel
01. April 2026 KISicherheitAnthropicDeep Dive

Anthropic hat seinen eigenen Quellcode geleakt — was ist da passiert?

Anthropic hat versehentlich 512.000 Zeilen Claude Code Quellcode veröffentlicht. Was genau passiert ist, warum das brisant ist und was du daraus lernen kannst.

Stell dir vor, du arbeitest bei einer der wichtigsten KI-Firmen der Welt — und jemand drückt versehentlich den falschen Knopf

Genau das ist Anthropic passiert. Nicht einmal, sondern gleich zweimal innerhalb von fünf Tagen. Und was da ans Licht kam, hat die gesamte Tech-Branche aufgerüttelt. Lass mich dir erklären, was genau passiert ist — Schritt für Schritt, auch wenn du noch nie eine Zeile Code geschrieben hast.

Was ist Anthropic überhaupt?

Anthropic ist ein US-amerikanisches KI-Unternehmen, gegründet von ehemaligen OpenAI-Mitarbeitern. Ihre bekannteste Entwicklung ist Claude — ein KI-Assistent, ähnlich wie ChatGPT. Anthropic positioniert sich als das „Safety-first"-Unternehmen der KI-Branche. Sicherheit und verantwortungsvoller Umgang mit KI stehen angeblich im Mittelpunkt. Genau deshalb ist das, was Ende März 2026 passiert ist, so besonders pikant.

Neben dem KI-Chatbot Claude gibt es auch Claude Code — ein Programmierwerkzeug, das Entwickler direkt in ihrem Terminal nutzen können, um Code zu schreiben, zu debuggen und zu analysieren. Stell dir Claude Code wie einen KI-Assistenten vor, der direkt neben dir am Schreibtisch sitzt und beim Programmieren hilft.

Was ist passiert? Die Kurzversion

Ende März 2026 hat Anthropic in zwei separaten Vorfällen vertrauliche Informationen veröffentlicht — versehentlich.

Vorfall 1 (26. März): Durch einen Konfigurationsfehler in Anthropics Content-Management-System (also der Software, mit der sie Blogbeiträge und Dokumente verwalten) wurden knapp 3.000 unveröffentlichte Dateien öffentlich zugänglich. Darunter: Entwürfe für Blogposts, interne PDFs und — das ist der Knaller — Details zu einem noch geheimen KI-Modell namens „Claude Mythos". Laut den geleakten Dokumenten sieht Anthropic selbst dieses Modell als einen „Quantensprung" in Sachen KI-Fähigkeiten, warnt aber gleichzeitig vor „beispiellosen Cybersicherheitsrisiken".

Vorfall 2 (31. März): Nur fünf Tage später passierte etwas, das in der Softwarewelt als absoluter GAU gilt: Anthropic hat den kompletten Quellcode von Claude Code veröffentlicht. 512.000 Zeilen Code in 1.906 Dateien — öffentlich für jeden sichtbar.

Wie funktioniert das unter der Haube?

Jetzt wird's etwas technisch, aber ich halte es einfach.

Wenn Entwickler Software wie Claude Code aktualisieren, laden sie die neue Version über eine Plattform namens npm herunter. Das ist so etwas wie ein App Store für Programmierer. In der Version 2.1.88 von Claude Code war ein sogenanntes Source-Map-File enthalten — eine Datei, die normalerweise nur intern zum Debuggen (Fehlersuchen) verwendet wird. Diese Datei war 59,8 MB groß und enthielt quasi die komplette Bauanleitung des Programms.

Der Fehler war erschreckend simpel: Das Build-Tool Bun erstellt standardmäßig solche Source Maps, und niemand hatte dafür gesorgt, dass diese Datei vor der Veröffentlichung ausgeschlossen wird. Es fehlte ein einziger Eintrag in einer Konfigurationsdatei. Ein klassischer menschlicher Fehler — mit enormen Konsequenzen.

Innerhalb von zwei Stunden nach der Entdeckung hatte ein einziges GitHub-Repository mit dem geleakten Code bereits über 50.000 Sterne gesammelt. Bis Anthropic das npm-Paket gegen 08:00 Uhr UTC zurückzog, war der Code über 41.500 Mal geforkt (kopiert) worden und auf dezentralen Plattformen gespiegelt. Sprich: Die Katze war aus dem Sack, und sie kam nicht mehr zurück.

Warum ist das relevant?

Drei Dinge machen diesen Leak besonders brisant:

1. Wettbewerber haben jetzt einen Blick hinter die Kulissen. Der Quellcode enthüllte Anthropics gesamte Architektur für Claude Code — inklusive Sicherheitsmechanismen, Berechtigungssysteme und 44 versteckte Feature-Flags für noch nicht veröffentlichte Funktionen. Für Konkurrenten wie OpenAI oder Google ist das wie ein Blick in die Strategie-Unterlagen des Gegners.

2. Die „Frustrations-Erkennung" sorgt für Datenschutz-Fragen. Im geleakten Code fanden Sicherheitsforscher eine Funktion, die Nutzer-Eingaben auf Anzeichen von Frustration scannt. Schimpfwörter, Beleidigungen oder Phrasen wie „so frustrating" oder „this sucks" wurden erkannt und geloggt. Anthropic erklärte, das sei lediglich eine Metrik zur Produktverbesserung — die das Verhalten des Modells nicht beeinflusse. Datenschutzexperten sehen das kritischer: Was heute als harmlose Metrik gesammelt wird, kann morgen für ganz andere Zwecke verwendet werden.

3. Die DMCA-Takedown-Aktion ging nach hinten los. Um den geleakten Code aus dem Internet zu bekommen, reichte Anthropic DMCA-Takedown-Notices bei GitHub ein — quasi Löschanfragen wegen Urheberrechtsverletzung. Das Problem: GitHub löschte nicht nur die Repositories mit dem geleakten Code, sondern insgesamt über 8.100 Repositories, darunter auch viele legitime Projekte, die nichts mit dem Leak zu tun hatten. Anthropic musste die meisten Löschanfragen zurückziehen und nannte es „einen Unfall". Die Ironie: Ein Unternehmen, das selbst mit Milliarden von Daten aus dem Internet trainiert, pochte plötzlich auf den Schutz seines geistigen Eigentums.

Noch ein pikantes Detail: Im Code fanden Entwickler eine Funktion, die Hinweise auf Anthropic und Claude Code automatisch aus generiertem Code entfernt, bevor dieser in öffentlichen Repositories landet. Der KI-generierte Code sollte also aussehen, als hätte ein Mensch ihn geschrieben.

Was sollte ich beachten? Grenzen und Kontext

Bevor jetzt jeder in Panik verfällt, ein paar wichtige Einordnungen:

Keine Kundendaten betroffen. Anthropic betont, dass weder Nutzerdaten noch Zugangsdaten oder KI-Modellgewichte geleakt wurden. Was rauskam, war der „Client-Code" — also die Software, die auf dem Rechner des Entwicklers läuft, nicht die KI selbst.

Der Zeitpunkt war unglücklich. Am selben Tag (31. März) lief eine separate Attacke auf das npm-Ökosystem, bei der bösartige Pakete mit dem Namen „Axios" verbreitet wurden. Wer an diesem Tag Claude Code updaten wollte, musste besonders aufpassen.

Es ist nicht das erste Mal. Anthropic hatte bereits zuvor Quellcode-Teile von Claude Code geleakt. Das wirft Fragen auf, wie ernst es das selbsternannte „Sicherheits-Unternehmen" mit seiner eigenen operativen Sicherheit nimmt — also nicht der KI-Sicherheit im philosophischen Sinne, sondern der ganz alltäglichen IT-Sicherheit.

Open Source profitiert. Aus dem Leak entstand unter anderem das Projekt OpenCode, das ähnliche Funktionen wie Claude Code bietet, aber mit jedem beliebigen KI-Modell funktioniert. Das zeigt: Wenn Wissen einmal frei ist, lässt es sich nicht wieder einfangen.

Fazit & Ausblick

Die Anthropic-Leaks sind ein Weckruf — nicht nur für Anthropic, sondern für die gesamte KI-Branche. Wenn ausgerechnet das Unternehmen, das sich „Safety first" auf die Fahne schreibt, zweimal innerhalb weniger Tage so grundlegende Fehler macht, dann zeigt das: Zwischen dem Anspruch, die sicherste KI zu bauen, und der Realität des Tagesgeschäfts klafft eine gewaltige Lücke.

Für Anthropic wird es jetzt darum gehen, Vertrauen zurückzugewinnen. Das geheime Mythos-Modell ist kein Geheimnis mehr, die Architektur von Claude Code liegt offen, und die Konkurrenz studiert beides bereits. Die kommenden Monate werden zeigen, ob Anthropic aus diesen Fehlern lernt — oder ob das Narrativ vom sichersten KI-Unternehmen endgültig Risse bekommt.


Du willst mehr zu KI, Indie Dev und digitalen Produkten? Abonniere den Newsletter — jede Woche neue Insights, kein Spam.

Oder lies weiter: Google Gemma 4: Starke Open-Source-KI, die auf dein Handy passt

← Zurück zur Übersicht