KI ist im Mittelstand angekommen — die Rechtslage hinkt sichtbar hinterher

ChatGPT, Microsoft Copilot, Claude, Gemini — die großen Sprachmodelle sind in vielen kleinen und mittleren Unternehmen längst Teil des Arbeitsalltags. Mitarbeitende formulieren E-Mails vor, lassen sich Verträge zusammenfassen, generieren Marketing-Texte oder analysieren Tabellen. Die Werkzeuge funktionieren, sie sind günstig, sie sind sofort verfügbar.

Was vielen Unternehmen nicht bewusst ist: Sobald in diese Tools personenbezogene Daten eingegeben werden — und das passiert schneller, als man denkt — gelten die gleichen rechtlichen Anforderungen wie bei jeder anderen Datenverarbeitung. Mit einer Besonderheit: Die meisten dieser Modelle laufen auf Servern in den USA, betrieben von US-Unternehmen. Das macht aus einer einfachen Verarbeitung eine Datenübermittlung in ein Drittland.

Dieser Artikel ordnet die aktuelle Lage ein, beschreibt die wichtigsten Pflichten und zeigt, welche Alternativen es gibt. Er ersetzt keine Rechtsberatung — der Hinweis dazu steht am Ende.

Drei Rechtsrahmen, die parallel gelten

Wer KI-Tools im Unternehmen einsetzt, bewegt sich gleichzeitig in drei Regelwerken:

Die DSGVO ist seit Mai 2018 in Kraft und regelt jede Verarbeitung personenbezogener Daten in der EU. Sie sagt nichts speziell zu KI, aber ihre Grundprinzipien — Rechtsgrundlage, Zweckbindung, Datenminimierung, Transparenz — gelten unverändert auch dann, wenn die Daten in ein Sprachmodell wandern.

Der EU AI Act (Verordnung 2024/1689) ist seit 1. August 2024 in Kraft und wird gestaffelt anwendbar. Seit 2. Februar 2025 sind verbotene KI-Praktiken nicht mehr erlaubt. Seit 2. August 2025 gelten Transparenz- und Governance-Pflichten für Anbieter sogenannter General-Purpose-AI-Modelle (GPAI) — also für die großen Sprachmodelle selbst. Für anwendungsbezogene Hochrisiko-KI nach Anhang III des AI Act greifen die strengeren Pflichten ab August 2026.

Das EU-US Data Privacy Framework (DPF) wurde im Juli 2023 von der EU-Kommission als Angemessenheitsbeschluss verabschiedet. Es erlaubt die Datenübermittlung an US-Unternehmen, die sich unter dem Framework zertifizieren lassen — eine pragmatische Brücke zwischen DSGVO und US-Recht.

Diese drei Ebenen greifen ineinander. DSGVO regelt das Was, der AI Act regelt das Wie der KI-Nutzung, das DPF regelt das Wohin der Daten.

Wer ist zertifiziert, wer nicht

Beim DPF gibt es einen wichtigen Unterschied, der in der Praxis häufig übersehen wird:

AnbieterDPF-Zertifizierung (Stand Mai 2026)Rechtsgrundlage für Datenübermittlung
OpenAIzertifiziertEU-US Data Privacy Framework
GooglezertifiziertEU-US Data Privacy Framework
MicrosoftzertifiziertEU-US Data Privacy Framework
Anthropic (Claude)nicht zertifiziertStandardvertragsklauseln (SCC)

OpenAI, Google und Microsoft können sich bei der Datenübermittlung auf das DPF berufen. Anthropic stützt seine Datenflüsse aktuell auf Standardvertragsklauseln — ein Vertragsmechanismus, der zwar zulässig ist, aber höhere Anforderungen an die ergänzende Risikoabwägung stellt.

Wichtig: Eine DPF-Zertifizierung ist eine notwendige, aber keine hinreichende Bedingung. Sie löst nicht alle DSGVO-Pflichten — sie ist die rechtliche Grundlage für den Transfer selbst.

Das Schrems-Risiko: Was passiert, wenn das DPF fällt

Die EU und die USA haben in den letzten zehn Jahren bereits zwei Versuche unternommen, den transatlantischen Datentransfer rechtssicher zu regeln. Beide sind gescheitert:

  • Safe Harbor wurde im Oktober 2015 vom Europäischen Gerichtshof gekippt (Schrems-I-Urteil)
  • Privacy Shield wurde im Juli 2020 gekippt (Schrems-II-Urteil)

Das aktuelle DPF ist der dritte Anlauf. Max Schrems und die österreichische Bürgerrechtsorganisation NOYB haben bereits im Spätherbst 2023 angekündigt, auch gegen das DPF klagen zu wollen. Hauptkritikpunkt: Die US-Überwachungsgesetze, insbesondere FISA 702, erlauben weiterhin Massendatenabfragen, die mit EU-Grundrechten nicht vereinbar sind.

Praktische Konsequenz für Unternehmen: Das DPF kann jederzeit vom EuGH für unwirksam erklärt werden. Wer heute seine gesamte KI-Strategie ausschließlich auf das DPF stützt, läuft Gefahr, kurzfristig auf andere Rechtsgrundlagen umstellen zu müssen — oder Datenflüsse zu pausieren. Die belastbare Antwort ist eine Architektur, die diesen Wechsel verkraftet.

CLOUD Act: Der oft übersehene Faktor

Es gibt einen Aspekt, der von vielen Beratern und Anbietern bewusst klein gehalten wird, weil er die einfache Erzählung „EU-Hosting löst das Problem" stört: den US CLOUD Act von 2018.

Der CLOUD Act verpflichtet US-Unternehmen, Daten an US-Behörden herauszugeben, unabhängig davon, wo die Server physisch stehen. Das gilt auch für die EU-Tochtergesellschaften und die EU-Rechenzentren großer US-Anbieter.

Konkret bedeutet das:

  • AWS Frankfurt ist juristisch ein Tochterunternehmen von Amazon Web Services (USA)
  • Microsoft Azure Germany wird von Microsoft Corporation (USA) kontrolliert
  • Google Cloud Belgien gehört zu Google LLC (USA)

In allen drei Fällen können US-Behörden über den CLOUD Act Zugriff auf Daten verlangen — auch wenn die Server in Frankfurt, Magdeburg oder Brüssel stehen. Das EU Cloud Sovereignty Framework, das die EU-Kommission im Oktober 2025 veröffentlicht hat, hält dazu ausdrücklich fest: Bei US-kontrollierten Anbietern bleibt ein „Resttransferrisiko, das durch Vertragsklauseln allein nicht eliminiert werden kann".

Reines EU-Hosting bei US-Anbietern ist also besser als US-Hosting, aber es löst das Grundproblem nicht. Wer maximale Souveränität braucht, muss diesen Faktor in die Architekturentscheidung einbeziehen.

Was Unternehmen jetzt konkret tun müssen

Wenn Sie KI-Tools im Unternehmen einsetzen und dabei personenbezogene Daten verarbeiten, sind folgende Pflichten relevant:

Auftragsverarbeitungsvertrag (AVV) gem. Art. 28 DSGVO

Sobald personenbezogene Daten ins Modell fließen, wird der Anbieter zum Auftragsverarbeiter. Ein schriftlicher AVV ist Pflicht.

  • Free-Versionen wie ChatGPT Free oder ChatGPT Plus bieten in der Regel keinen AVV. Sie sind damit für die betriebliche Verarbeitung personenbezogener Daten nicht DSGVO-konform.
  • Business- und Enterprise-Versionen (ChatGPT Business, Microsoft Copilot in Microsoft 365 Business Premium, Claude Team, Gemini Business) bieten einen AVV und meist auch EU Data Residency.

Datenschutz-Folgenabschätzung (DSFA) gem. Art. 35 DSGVO

Mehrere deutsche Datenschutzaufsichtsbehörden haben klargestellt: Beim Einsatz generativer KI-Tools ist regelmäßig zu prüfen, ob eine DSFA erforderlich ist. Bei flächendeckendem Unternehmenseinsatz lautet die Antwort in den meisten Fällen Ja. Wer diese Prüfung unterlässt, riskiert Nachfragen der Aufsichtsbehörde.

Schriftliche Nutzungsrichtlinie und Schulung

Die beste Lizenz nützt wenig, wenn Mitarbeitende vertrauliche Daten in die falsche Oberfläche eingeben. Eine knappe schriftliche Richtlinie sollte regeln:

  • Welche KI-Tools überhaupt genutzt werden dürfen
  • Welche Datenarten ins Tool eingegeben werden dürfen — und welche nicht (typische Tabus: Kundennamen, Krankheitsdaten, Mitarbeitergespräche, Finanzdaten Dritter)
  • Wie Ergebnisse zu kennzeichnen sind, die mit KI erzeugt wurden

Transparenz nach EU AI Act

Wenn Sie KI-gestützte Chatbots oder ähnliche Systeme im Kundenkontakt einsetzen, müssen Nutzer erkennen können, dass sie mit einer KI interagieren. Diese Transparenzpflicht greift seit August 2025.

Bußgeldrisiko

Die Zahlen, an denen sich die Größenordnung ablesen lässt:

  • DSGVO-Verstöße: bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes (je nachdem, was höher ist)
  • EU AI Act, verbotene Praktiken: bis zu 35 Millionen Euro oder 7 Prozent
  • EU AI Act, Hochrisiko-Verstöße: bis zu 15 Millionen Euro oder 3 Prozent

Für KMU werden diese Zahlen in der Realität niedriger ausfallen — die Aufsichtsbehörden orientieren sich am Verhältnismäßigkeitsprinzip. Aber: Schon fünfstellige Bußgelder können einen kleineren Betrieb spürbar belasten.

Welche Alternativen es gibt

Es gibt vier praktikable Wege, KI im Unternehmen DSGVO-konformer zu nutzen — keiner davon ist perfekt, jeder hat einen Trade-off zwischen Komfort und Souveränität.

1. US-Modelle mit EU-Hosting im Business-Tarif

Die einfachste Lösung für die meisten KMU: bestehende US-Tools im richtigen Tarif einsetzen.

  • Microsoft Copilot in Microsoft 365 Business Premium — Verarbeitung innerhalb der EU Data Boundary
  • Azure OpenAI Service in einer EU-Region — getrennt vom öffentlichen ChatGPT
  • Anthropic Claude via AWS Bedrock in der Frankfurt-Region
  • Google Gemini via Vertex AI in der Belgien-Region

Bei allen Optionen gilt: Voraussetzung sind Business- oder Enterprise-Tarife mit AVV. Das CLOUD-Act-Risiko bleibt formal bestehen, ist aber durch die organisatorische Trennung und EU-Datenverarbeitung praktisch reduziert.

2. EU-native Anbieter

Wer das Resttransferrisiko vermeiden möchte, kann auf europäische Anbieter ausweichen:

  • Mistral AI (Frankreich) — eigene Modelle, EU-Hosting, EU-Gesellschaft, kein US-Mutterkonzern
  • Aleph Alpha (Heidelberg) — deutsches Unternehmen mit Fokus auf Unternehmens-KI
  • Spezialisierte deutsche Anbieter wie DeutschlandGPT und Branchenlösungen

Die Modelle sind in der Spitze nicht immer auf dem Niveau der US-Marktführer, für viele KMU-Anwendungsfälle aber vollkommen ausreichend.

3. Open-Source-Modelle on-premise

Llama, Mistral-Modelle in der Open-Source-Variante und Qwen lassen sich auf eigener Hardware oder in einer eigenen Cloud-Instanz betreiben. Vorteil: Die Daten verlassen das Unternehmen nicht. Nachteil: Sie übernehmen Hardware, Betrieb, Wartung und Sicherheit selbst.

Für Unternehmen mit hohem Datenschutzbedarf — Steuerkanzleien, Arztpraxen, Anwaltskanzleien — wird dieser Weg zunehmend attraktiv.

4. Hybrid-Ansatz

In der Praxis funktioniert oft eine Kombination:

  • Sensible Daten (Kunden, Personal, Gesundheit, Finanzen) werden on-premise oder bei einem EU-Anbieter verarbeitet
  • Unkritische Aufgaben (Übersetzungen, allgemeine Recherche, Marketing-Texte ohne Personenbezug) dürfen bei US-Modellen mit EU-Hosting bearbeitet werden
  • Die Entscheidung, was wohin gehört, ergibt sich aus einer klar dokumentierten Datenklassifizierung

Die 5-Punkte-Checkliste

Wenn Sie heute beginnen möchten, sind das die fünf konkreten Schritte:

#SchrittAufwand
1Bestandsaufnahme: Welche KI-Tools werden im Unternehmen tatsächlich genutzt — auch inoffiziell auf Privatgeräten?1–2 Tage
2AVV-Status klären: Liegt für jedes eingesetzte Tool ein gültiger Auftragsverarbeitungsvertrag vor?0,5 Tage
3DSFA-Prüfung: Ist eine Datenschutz-Folgenabschätzung erforderlich? Falls ja, durchführen oder beauftragen.1–3 Tage
4Schriftliche Nutzungsrichtlinie erstellen und kommunizieren — was darf rein, was nicht.0,5 Tage
5Plan B definieren: Welche Alternative ist einsatzbereit, falls das DPF fällt oder ein Anbieter ausfällt?1 Tag

Insgesamt etwa eine Arbeitswoche eines Verantwortlichen — verteilt über vier bis sechs Wochen sehr gut machbar. Wer diese Hausaufgaben gemacht hat, hat eine belastbare Grundlage.

Worauf es ankommt

Die rechtliche Lage zur KI-Nutzung ist in Bewegung. Das DPF kann fallen, der AI Act wird stufenweise schärfer, neue Aufsichtsentscheidungen kommen. Wer darauf reagiert, indem er gar keine KI einsetzt, verliert Produktivität und Wettbewerbsfähigkeit. Wer sich nicht damit beschäftigt, riskiert Bußgelder und Reputationsschäden.

Der pragmatische Weg liegt dazwischen: KI gezielt und bewusst einsetzen, die Pflichten kennen, eine Architektur wählen, die Wechsel zulässt. Das ist keine Raketenwissenschaft, aber es erfordert eine Entscheidung. Diese Entscheidung sollte heute getroffen werden, nicht erst nach dem nächsten EuGH-Urteil.

---

Hinweis zu diesem Artikel: Toptronix IT Solutions ist ein IT-Dienstleister, keine Rechtsanwaltskanzlei. Dieser Beitrag fasst die aktuelle Lage zusammen und ersetzt keine individuelle Rechtsberatung. Für konkrete Fragen zur DSGVO-Konformität, AVV-Gestaltung oder DSFA-Durchführung wenden Sie sich bitte an Ihren Datenschutzbeauftragten oder einen Fachanwalt für IT-Recht.