Stell dir vor, du entwickelst das mächtigste Werkzeug der Welt — und legst es dann in den Tresor
Genau das hat Anthropic Anfang April 2026 getan. Das neue Claude-Modell „Mythos” ist fertig entwickelt, läuft in Tests, übertrifft alles, was bisher in der KI-Landschaft existiert hat — und trotzdem werden normale Nutzer es vorerst nicht anfassen können. In fast sieben Jahren moderner KI-Geschichte ist das eine echte Premiere.
Was ist Claude Mythos überhaupt?
Claude Mythos ist das aktuell leistungsstärkste Modell des US-amerikanischen KI-Unternehmens Anthropic — denselben Leuten, die Claude entwickelt haben, den KI-Assistenten, mit dem du vielleicht schon mal gesprochen hast. Mythos ist sozusagen Claudes deutlich gefährlicheres Geschwisterteil.
Dass das Modell überhaupt bekannt wurde, verdanken wir einem unfreiwilligen Moment der Transparenz: Ende März 2026 hatte Anthropic bei einem internen Vorfall versehentlich unveröffentlichte Dokumente öffentlich gemacht — darunter Informationen zu einem Modell, das intern bereits als „Quantensprung” in Sachen KI-Fähigkeiten beschrieben wurde, aber gleichzeitig mit „beispiellosen Cybersicherheitsrisiken” verknüpft war. Am 7. April 2026 bestätigte Anthropic das Modell dann offiziell — mit einer ungewöhnlichen Einschränkung: Claude Mythos Preview wird nicht allgemein freigegeben.
Wie funktioniert das unter der Haube?
Was Mythos von allen bisherigen KI-Modellen grundlegend unterscheidet, ist keine Verbesserung beim Schreiben, Übersetzen oder Zusammenfassen. Es ist etwas, das die Sicherheitswelt elektrisiert: Mythos kann eigenständig Sicherheitslücken in Computersystemen finden und ausnutzen — vollständig autonom, ohne menschliche Anleitung.
Der Fachbegriff dafür ist autonome Schwachstellenforschung. In der Praxis bedeutet das: Während interner Tests entdeckte Mythos Preview sogenannte Zero-Day-Lücken in jedem getesteten großen Betriebssystem und Webbrowser. Zero-Day heißt dabei, dass die Lücke bisher unbekannt ist — es gibt also noch kein Sicherheits-Update, keinen Patch, keinen Schutz dagegen. Mythos findet diese Lücken nicht nur, es nutzt sie auch aus. Eigenständig.
Zwei Beispiele, die für Aufsehen gesorgt haben: Das Modell fand einen 27 Jahre alten Fehler in OpenBSD — einem Betriebssystem, das gerade wegen seiner außergewöhnlichen Sicherheit bekannt ist, genutzt unter anderem von Regierungen und kritischer Infrastruktur. Dazu noch eine 16 Jahre alte Schwachstelle im H.264-Codec von FFmpeg, einer Software, die auf Millionen von Servern weltweit läuft, von Streamingdiensten bis zu Videokonferenztools.
Stell dir das so vor: Bisherige KI-Modelle sind wie sehr gut informierte Berater — sie wissen viel, können erklären und empfehlen. Mythos ist eher wie ein hochspezialisierter Hacker, der nicht nur weiß, wo die Tür sein könnte, sondern sie auch öffnet. Ohne dass du ihn darum bittest.
Auf dem unabhängigen Benchmark-Portal BenchLM, das über 100 Modelle vergleicht, belegt Mythos Preview den ersten Platz — mit 99 von 100 Punkten. In akademischen Fächern erreicht es konsistent über 93 Punkte, in jedem Bereich.
Warum hat Anthropic das Modell zurückgehalten?
Das ist die Frage, die die gesamte Branche beschäftigt. Anthropics Begründung: Die Fähigkeiten von Mythos seien so weitreichend, dass eine breite Veröffentlichung Cyberkriminellen, staatlichen Akteuren und anderen schlechten Akteuren enorme Vorteile verschaffen würde — und der Welt damit ein kaum kontrollierbarer Schaden entstehen könnte. Den Verteidigern müsse erst Zeit gegeben werden, sich auf die neue Bedrohungslage einzustellen.
Statt einer öffentlichen Veröffentlichung hat Anthropic das sogenannte Project Glasswing ins Leben gerufen — ein Konsortium aus handverlesenen Technologieunternehmen, die Zugang zum Modell erhalten. Mit dabei sind unter anderem AWS, Apple, Cisco, CrowdStrike, Google, JPMorgan Chase, die Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks. Also genau die Organisationen, die für digitale Infrastruktur und Sicherheit auf globalem Niveau verantwortlich sind.
Die Logik dahinter: Wenn solche Fähigkeiten irgendwann durch andere Wege oder eigene Modelle in die breite Öffentlichkeit geraten — und das ist nur eine Frage der Zeit — sollten zumindest die Verteidiger nicht überrascht werden. Mythos dient diesen Unternehmen gewissermaßen als Trainingspartner für das, was kommt.
Für alle anderen gibt es Claude Opus 4.7, das parallel am 16. April 2026 erschienen ist — ein leistungsstarkes Modell, das Mythos’ offensive Cybersecurity-Fähigkeiten bewusst nicht mitbringt, dafür aber für Softwareentwicklung, komplexe Analyse und alltägliche Aufgaben deutlich verbessert wurde.
Was sollte ich beachten?
Bevor Alarmstimmung aufkommt, ein paar nüchterne Einordnungen.
Die Exklusivität der Fähigkeiten ist umstritten. Anthropics Aushängeschild war, dass Mythos eigenständig einen Fehler im FreeBSD-Netzwerkdateisystem-Protokoll gefunden hatte — ein Bug, der als Paradebeispiel für autonome KI-Entdeckung gehandelt wurde. Das unabhängige Forschungsinstitut AISLE hat das daraufhin nachgestellt und acht verschiedene KI-Modelle getestet — alle acht fanden denselben Bug. Das wirft die Frage auf, wie einzigartig Mythos’ Fähigkeiten tatsächlich sind oder ob hier vor allem die Kommunikation den Effekt erzeugt.
Das Framing als „zu gefährlich” ist auch eine Markenaussage. Anthropic positioniert sich seit Jahren als das verantwortungsvolle, Safety-first-Unternehmen der KI-Branche. Ein Modell, das sie aus Sicherheitsgründen bewusst zurückhalten, passt perfekt in dieses Narrativ — und generiert dabei enormen Prestige. Das macht die Entscheidung nicht falsch. Aber unkritisch sollte man sie auch nicht lesen.
Mythos ist nicht vollständig gesperrt. Über Amazon Bedrock — Amazons Cloud-Plattform für KI-Dienste — ist Mythos Preview für Project-Glasswing-Partner verfügbar. Der Zugang ist stark eingeschränkt, aber er existiert. Was bei ausgewählten Großkonzernen läuft, findet erfahrungsgemäß früher oder später seinen Weg in andere Hände.
Und noch ein Detail am Rande: Die Entscheidung, Mythos zurückzuhalten, hat Anthropic nicht davon abgehalten, kurz darauf Opus 4.7 zu veröffentlichen und gleichzeitig Claude Design zu starten — ein neues Design-Tool, das klar auf Marktanteile zielt. Safety und Geschäftsstrategie gehen also Hand in Hand.
Fazit & Ausblick
Claude Mythos ist ein echter Wendepunkt — egal wie man zu den Sicherheitsbedenken steht. Zum ersten Mal in fast sieben Jahren moderner KI-Geschichte hat ein führendes Unternehmen aktiv entschieden, ein fertiges Modell nicht zu veröffentlichen. Das ist entweder ein mutiger Schritt hin zu verantwortungsvollem Umgang mit KI — oder sehr cleveres Branding. Vermutlich beides gleichzeitig.
Was sicher ist: KI-Modelle, die aktiv und eigenständig in Computersysteme eingreifen können, werden nicht mit Mythos enden. Andere Labore — ob in den USA, China oder anderswo — arbeiten an ähnlichen Fähigkeiten. Die Frage ist nicht ob solche Systeme irgendwann breiter verfügbar werden, sondern wann. Und ob die Verteidigung dann noch Schritt halten kann. Für Unternehmen, Behörden und alle, die digitale Infrastruktur betreiben, ist das keine hypothetische Zukunftsfrage mehr — sie läuft gerade.
Deine Gedanken dazu:
— Ist eine KI, die autonom Sicherheitslücken findet und ausnutzt, grundsätzlich problematisch — oder kommt es ausschließlich darauf an, wer sie kontrolliert?
— Vertraust du darauf, dass ein Privatunternehmen wie Anthropic glaubwürdig entscheiden kann, wer Zugang zu solchen Fähigkeiten bekommt?
— Macht es einen Unterschied, dass Mythos über Amazon Bedrock bereits für ausgewählte Unternehmen läuft — oder ist das Zurückhalten trotzdem ein sinnvoller Schritt?
— Wie unterscheidet sich Anthropics Entscheidung von der von Regierungen, die bestimmte Waffentechnologien kontrollieren — und sollte KI dieser Kategorie ähnlich reguliert werden?
— Ist „wir haben es gebaut, aber wir veröffentlichen es nicht” wirklich eine nachhaltige Sicherheitsstrategie in einer Branche, die sich monatlich neu erfindet?
Du willst mehr zu KI, Indie Dev und digitalen Produkten? Abonniere den Newsletter — jede Woche neue Insights, kein Spam.
Oder lies weiter: Anthropic hat seinen eigenen Quellcode geleakt — was ist da passiert?