← Blog / EU AI Act: Was Indie-Entwickler und Einzelunternehmer jetzt wissen müssen
17. April 2026

EU AI Act: Was Indie-Entwickler und Einzelunternehmer jetzt wissen müssen

Ab August 2026 greift der EU AI Act. Was das konkret für dich als Indie-Dev oder Einzelunternehmer bedeutet — und was du jetzt tun solltest.

Nein, du musst nicht in Panik geraten. Aber du solltest es kennen.

Der EU AI Act ist da — seit August 2024 sogar schon in Kraft. Aber 2026 ist das Jahr, in dem er für die meisten Entwickler und Unternehmen wirklich spürbar wird: Die Anforderungen für Hochrisiko-KI-Systeme greifen ab August 2026. Obendrauf hat das Europäische Parlament im März 2026 mit dem Digital Omnibus nochmals nachgebessert — neue Verbote, teilweise verschobene Fristen. Und alle reden gerade darüber: Unternehmen, Juristen, Tech-Blogs.

Was kaum jemand erklärt: Was bedeutet das eigentlich für dich, wenn du als Einzelperson eine App baust, ein KI-Tool in deinem Business nutzt, oder eine Website mit automatisierten Entscheidungen betreibst?

Die kurze Antwort: Für die meisten Indie-Devs und Einzelunternehmer ist der direkte Impact kleiner als die Schlagzeilen vermuten lassen. Aber es gibt Ausnahmen — und die solltest du kennen.

Was ist der EU AI Act überhaupt?

Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Die Grundidee: KI-Systeme werden nach ihrem Risikograd klassifiziert, und je höher das Risiko, desto strenger die Anforderungen.

Es gibt vier Kategorien:

Verbotene KI: Systeme, die in der EU schlicht illegal sind. Dazu gehören Echtzeit-Biometrie in öffentlichen Räumen (z.B. Gesichtserkennung in Bahnhöfen), Emotionserkennung am Arbeitsplatz, und Social-Credit-Systeme chinesischer Prägung. Für 99% der Entwickler irrelevant.

Hochrisiko-KI: Hier wird es ernst. Das sind Systeme in Bereichen wie Kreditscoring, medizinische Diagnostik, Recruiting-Entscheidungen, Verkehr oder kritische Infrastruktur. Wer solche Systeme baut oder betreibt, braucht Konformitätsbewertungen, Dokumentation und laufende Überwachung.

Generative KI / GPAI: Systeme wie GPT oder Claude fallen in eine eigene Kategorie. Ab einer bestimmten Rechenleistungsschwelle gelten sie als „systemisch riskant” und unterliegen zusätzlichen Transparenzpflichten. Betrifft direkt die großen Labs — OpenAI, Anthropic, Google. Nicht dich als Nutzer ihrer APIs.

Minimales Risiko: Chatbots für Kundensupport, KI-gestützte Textgenerierung, Spielempfehlungen, Spam-Filter — alles, was weder hochriskante Entscheidungen trifft noch Menschen täuscht. Hier greift der Act kaum. Und hier bewegen sich die meisten Indie-Projekte.

Was ändert sich konkret für dich?

Lass mich das an typischen Szenarien durchspielen.

Du baust eine Flutter-App mit KI-Features (wie meine App Vera): Solange die App keine hochriskanten Entscheidungen trifft — also weder Kreditwürdigkeit bewertet noch medizinische Diagnosen stellt — fällst du unter minimales Risiko. Was sich aber ändert: Transparenzpflicht. Nutzer müssen wissen, wenn sie mit einer KI interagieren. Eine kurze Hinweispflicht in der App reicht hier meist.

Du nutzt ChatGPT oder Claude API in deinem Produkt: Auch hier gilt: Es kommt auf den Anwendungsfall an. Ein KI-Textgenerator für deinen Newsletter-Workflow? Minimal riskant. Ein KI-System, das Bewerber für Jobs filtert? Hochrisiko — auch wenn du es als kleiner Anbieter betreibst.

Du automatisierst Entscheidungen mit Power Platform, n8n oder ähnlichem: Wenn diese Entscheidungen Menschen betreffen — Genehmigungen, Priorisierungen, Benachrichtigungen — schau dir genau an, ob das Ergebnis erhebliche Auswirkungen auf Personen hat. Wenn ja: Dokumentation ist Pflicht, Widerspruchsmöglichkeit auch.

Du betreibst eine Website mit KI-generierten Inhalten: Kein direktes Problem — aber wenn KI Inhalte generiert, die als „echt” wahrgenommen werden könnten (z.B. personalisierte Nachrichten im Namen einer Person), gilt Kennzeichnungspflicht.

Was sollte ich jetzt konkret tun?

Keine Panik, aber auch keine Vogel-Strauß-Haltung. Meine pragmatische Checkliste:

Erstens: Inventar machen. Schreib auf, welche KI-Systeme du nutzt oder baust, und für welchen Zweck. Nicht für die Behörde — für dich. Das gibt Klarheit.

Zweitens: Risikoklasse einschätzen. Trifft mein System automatisierte Entscheidungen, die einen Menschen in relevanter Weise betreffen? Wenn nein: entspann dich. Wenn ja: weiter zum nächsten Punkt.

Drittens: Dokumentation aufbauen. Gerade für Hochrisiko-Systeme ist das die wichtigste Anforderung. Was macht das System? Auf welchen Daten basiert es? Wie wird es überwacht? Das sind Fragen, die du ohnehin beantworten solltest — der AI Act macht es verbindlich.

Viertens: Datenschutzerklärung anpassen. KI-Verarbeitung personenbezogener Daten ist schon unter DSGVO relevant. Der AI Act ergänzt das — überprüf, ob dein Impressum und deine Datenschutzerklärung KI-Nutzung korrekt abdecken.

Fünftens: Im Zweifel fragen. Der AI Act ist neu, und die Auslegung in vielen Bereichen ist noch offen. Für konkrete rechtliche Fragen braucht es konkrete rechtliche Beratung.

Was kommt noch?

Das Verbot für die gefährlichsten KI-Anwendungen — Echtzeit-Biometrie im öffentlichen Raum, Emotionserkennung am Arbeitsplatz, Social-Credit-Systeme — gilt bereits seit Februar 2025. Ab August 2026 greifen die Anforderungen für Hochrisiko-KI-Systeme — das ist der Stichtag, der für die meisten Unternehmen und Entwickler relevant ist. Der Digital Omnibus vom März 2026 hat einige dieser Fristen nochmals verschoben: Bestimmte eingebettete Systeme in regulierten Produkten haben bis 2028 Zeit. Die EU richtet derzeit die Aufsichtsbehörden ein — in Deutschland übernimmt das BSI die Marktüberwachungsrolle.

Ähnlich wie bei der DSGVO: Anfangs viel Verunsicherung, dann pragmatische Umsetzung, dann Normalzustand. Der Unterschied: Der AI Act ist spezifischer als die DSGVO. Er definiert konkrete Kategorien, nicht nur Prinzipien. Das macht ihn für Juristen schwieriger — aber für Entwickler ehrlich gesagt handhabbarer.

Fazit & Ausblick

Der EU AI Act ist kein Grund zur Panik — aber ein guter Anlass, das eigene KI-Setup einmal kritisch zu hinterfragen. Wofür nutze ich KI in meinen Produkten? Welche Entscheidungen trifft sie? Wer ist davon betroffen? Diese Fragen solltest du nicht nur aus regulatorischen Gründen beantworten können, sondern weil gute Produkte diese Fragen sowieso beantworten.

Europa reguliert KI als erstes — mit allen Vor- und Nachteilen, die das bringt. Als jemand, der im DAX-Umfeld digitale Transformation vorantreibt und gleichzeitig eigene Apps baut, erlebe ich beide Seiten dieser Diskussion. Mein Eindruck: Der Act ist besser als sein Ruf in Tech-Kreisen. Er reguliert Risiken, nicht Technologie. Das ist ein wichtiger Unterschied.


Fragen, die mich beim Schreiben dieses Artikels beschäftigt haben:

Hast du schon gecheckt, ob eines deiner Projekte in die Hochrisiko-Kategorie fällt — oder gehst du davon aus, dass das auf dich nicht zutrifft?

Findest du EU-Regulierung von KI sinnvoll — oder bremst sie Europa im globalen Wettbewerb mit den USA und China?

Würde ein “KI-Siegel” ähnlich dem Datenschutz-Zertifikat dein Vertrauen in eine App erhöhen — oder ist das wieder nur Bürokratie?

Wie viel Transparenz willst du als Nutzer: Reicht dir ein Hinweis “KI wird genutzt”, oder willst du genau wissen, wie Entscheidungen zustande kommen?


Du willst mehr zu KI, Indie Dev und digitalen Produkten? Abonniere den Newsletter — jede Woche neue Insights, kein Spam.

Oder lies weiter: KI-Agenten: Wenn die KI aufhört zu antworten und anfängt zu handeln