KI datenschutzkonform einsetzen: 7 Best Practices für KMU
-und-datenschutz.avif)
- KI und Datenschutz hängen eng miteinander zusammen.
- Da LLMs sich ständig weiterentwickeln und große Datenmengen verarbeiten, bleibt der Datenschutz eine Herausforderung für Unternehmen, die KI nutzen.
- DSGVO und AI Act regeln den Umgang mit personenbezogenen Daten und KI.
- Wichtige Best Practices sind Privacy by Default, Privacy by Design und regelmäßige Audits.
- Richtig eingesetzt kann KI Datenschutzverletzungen erkennen und DSGVO-Compliance unterstützen.
- Item A
- Item B
- Item C
Warum spielt Datenschutz beim Thema Künstliche Intelligenz eine so wichtige Rolle?
Der Einsatz von KI beschleunigt Routineaufgaben und bietet Unterstützung bei der Analyse großer Datenmengen oder beim kreativen Blackout. Allerdings birgt die Technologie auch erhebliche Risiken, insbesondere wenn personenbezogener Daten verarbeitet werden.
Der Grund: KI-Tools, die nach dem Prinzip des Machine Learnings funktionieren, entwickeln sich kontinuierlich und selbstständig weiter, müssen dafür allerdings große Mengen an Daten analysieren.
Datenschutzrechtliche Anforderungen an Künstliche Intelligenz
Der Einsatz von KI-Systemen birgt verschiedene Datenschutzrisiken, wie:
- Datenmissbrauch: KI-Systeme können große Mengen personenbezogener Daten analysieren und das Risiko von Datenmissbrauch erhöhen.
- Mangelnde Transparenz: Die Funktionsweise von KI-Algorithmen ist oft schwer nachzuvollziehen, was zu einem Mangel an Transparenz führt.
- Algorithmische Voreingenommenheit: Wenn KI-Systeme mit voreingenommenen Daten trainiert werden, können sie diskriminierende Entscheidungen treffen.
Best Practices für KI-Datenschutz: Wie erfüllen Unternehmen ihre Datenschutzpflichten?
Für Unternehmen, die von den Vorteilen Künstlicher Intelligenz profitieren wollen und die Wert auf Compliance legen, schaffen die Datenschutzgrundverordnung (DSGVO) und die KI-Verordnung (AI Act) einen klaren Rechtsrahmen für den datenschutzkonformen KI-Einsatz.
Doch die praktische Umsetzung wirft viele Fragen auf: Welche Daten dürfen verarbeitet werden? Wie bleiben automatisierte Entscheidungen nachvollziehbar? Und welche Maßnahmen schützen vor Haftungsrisiken? Die folgenden Best Practices helfen Ihnen dabei, KI-Systeme rechtskonform zu implementieren.
Best Practice 1: Privacy by Default – Datenschutzfreundliche Voreinstellungen
Beim Einsatz von KI-Systemen müssen KMU stets die datensparsamste und datenschutzfreundlichste Einstellung als Standard wählen. Privacy by Default ist keine freiwillige Maßnahme, sondern eine rechtliche Verpflichtung nach Art. 25 Abs. 2 DSGVO.
Was bedeutet das in der Praxis?
🤔 Situation: Ein mittelständisches E-Commerce-Unternehmen implementiert im Kundenservice einen KI-Chatbot, der standardmäßig alle Chatverläufe speichert. Darin sind Daten wie E-Mail-Adressen und die Kaufhistorie gespeichert, die für die Beantwortung der Anfrage nicht notwendig sind.
⚠️ Risiko:
Die Gefahr besteht darin, dass datenschutzunfreundliche Standardeinstellungen automatisch zu umfangreicher Datenerhebung führen, ohne dass Nutzer eingreifen können. Dieser Widerspruch zu, Grundsatz von „Privacy by Default“ ist bußgeldbewehrt, auch wenn keine Zwecküberschreitung oder Weiterverarbeitung erfolgt.
💡 Mögliche Lösungen:
- Datensparsamkeit als Standard: Der Chatbot speichert nur anonymisierte Anfragen. Personenbezogene Daten werden nur erfasst, wenn der Kunde dies aktiv bestätigt.
- Automatische Löschung: Chatverläufe werden nach 30 Tagen automatisch gelöscht, wenn keine Rechtsgrundlage für längere Speicherung besteht.
- Pseudonymisierung: Für Analysen werden Kundendaten pseudonymisiert, sodass keine Rückschlüsse auf Einzelpersonen möglich sind.
Best Practice 2: Privacy by Design – Datenschutz von Anfang an
Datenschutz muss bereits in der Konzeptions- und Entwicklungsphase von KI-Systemen berücksichtigt werden. Das Prinzip Privacy by Design nach Art. 25 Abs. 1 DSGVO verlangt, dass datenschutzrechtliche Anforderungen von Beginn an in die System-Architektur einfließen.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Logistikunternehmen entwickelt ein KI-System zur Routenoptimierung. Erst nach der Implementierung stellt sich heraus, dass GPS-Daten von Fahrern permanent gespeichert werden – auch außerhalb der Arbeitszeit.
⚠️ Risiko: Die Überwachung von Mitarbeitenden erfolgt ohne Rechtsgrundlage und verstößt gegen Art. 88 DSGVO i.V.m. §26 BDSG. Die Folge können Vertrauensverlust bei der Belegschaft und kostspielige Systemanpassungen im Nachhinein sein.
💡 Mögliche Lösungen:
- Datenschutz von Anfang an durch Einbeziehen eines Datenschutzbeauftragten in die Planungsphase
- Technische Schutzmaßnahmen wie automatische Anonymisierung der Standortdaten nach Abschluss der Route
Praxis-Tipp: Nutzen Sie die Orientierungshilfe der Datenschutzkonferenz (DSK) zu KI-Systemen, die konkrete Anforderungen enthält und Hilfestellungen bietet.
Best Practice 3: Risikobasierter Ansatz & Datenschutz-Folgenabschätzung
Nicht jedes KI-System birgt die gleichen Risiken. Die DSGVO verlangt einen risikobasierten Ansatz: Je höher das Risiko für die Rechte und Freiheiten betroffener Personen, desto umfassender müssen die Schutzmaßnahmen sein.
Was bedeutet das in der Praxis?
🤔 Situation: Eine Bank führt ein KI-System zur automatisierten Kreditwürdigkeitsprüfung ein – ohne vorherige Datenschutz-Folgenabschätzung (DSFA). Nach einigen Monaten häufen sich Beschwerden: Bestimmte Bevölkerungsgruppen werden systematisch benachteiligt.
⚠️ Risiko: Verstoß gegen Art. 35 DSGVO, der eine DSFA bei hohem Risiko für personenbezogene Daten verlangt, und Art. 22 DSGVO, der automatisierte Einzelentscheidung verbietet. Die Folge können Bußgelder, Reputationsschäden und Diskriminierungsklagen sein.
💡 Mögliche Lösungen:
- DSFA vor Inbetriebnahme des Systems durchführen
- KI-Modell wird auf diskriminierende Muster testen
- Bei negativen Kreditentscheidungen muss immer ein Mitarbeiter die Entscheidung überprüfen können
Best Practice 4: Regelmäßige Audits und kontinuierliches Monitoring
Da sich KI-Systeme ständig weiterentwickeln, reicht es nicht, sie einmalig zu prüfen. Unternehmen müssen nach Art. 32 DSGVO regelmäßige Audits durchführen und ein kontinuierliches Monitoring etablieren.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Online-Versandhändler nutzt KI für personalisierte Produktempfehlung. Nach einem Jahr fällt auf, dass das System weiblichen Nutzerinnen systematisch günstigere Produkte vorschlägt als männlichen Nutzern – ein klassischer Fall von Gender-Bias.
⚠️ Risiko: Diskriminierung nach AGG, Verstoß gegen die Gleichbehandlungsgrundsätze, Reputationsschaden und Umsatzverluste durch verzerrte Empfehlungen
💡 Mögliche Lösungen:
- Quartalsweise Audits zur regelmäßigen Überprüfung der KI-Ergebnisse auf Benachteiligung bestimmter Nutzergruppen
- Automatisiertes Monitoring, das bei auffälligen Mustern Alarm schlägt
- Bias-Korrektur, um das KI-Modell neu zu trainieren und auf Gleichbehandlung zu optimieren
Best Practice 5: Transparenz und Erklärbarkeit
KI-Systeme, deren Entscheidungswege nicht nachvollziehbar sind (Blackbox-KI) stellen ein massives Datenschutzproblem dar. Die DSGVO und die KI-Verordnung verlangen Transparenz und Erklärbarkeit.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Bewerber wird von einem KI-gestützten Recruiting-System abgelehnt. Auf Nachfrage kann das Unternehmen die KI-Entscheidung nicht erklären.
⚠️ Risiko: Verstoß gegen das Auskunftsrecht (Art. 15 DSGVO) und die Pflicht zur Offenlegung der Verarbeitungslogik (Art. 13 Abs. 2 lit. f DSGVO). Bußgeldrisiko und mögliche Diskriminierungsklage
💡 Mögliche Lösungen:
- Explainable AI (XAI) einsetzen, also Systeme, die nachvollziehbare Entscheidungskriterien liefern (z. B. „Bewertung basiert auf relevanter Berufserfahrung, fachlichen Qualifikationen und kulturellem Fit“)
- Transparente Kommunikation über den Einsatz von KI im Auswahlprozesse
- Menschliche Überprüfung jeder negativen Entscheidung
Best Practice 6: Datenminimierung und Zweckbindung
Zwei zentrale Grundsätze der DSGVO lauten: Datenminimierung und Zweckbindung (Art. 5 Abs. 1 lit. b und c DSGVO). Es dürfen nur die Daten verarbeitet werden, die für den konkreten Zweck tatsächlich erforderlich sind und dürfen nur für den Zweck verwendet werden, für den sie erhoben wurden.
Beim Einsatz von KI-Systemen, die große Datenmengen benötigen, sind diese Prinzipien besonders wichtig.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Fitness-Studio setzt KI zur Trainingsoptimierung ein und sammelt umfangreiche Gesundheitsdaten der Mitglieder wie Herzfrequenz und Körperfettanteil. Später möchte das Studio diese Daten auch nutzen, um personalisierte Nahrungsergänzungsmittel zu verkaufen.
⚠️ Risiko: Verstoß gegen die Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO). Die Daten wurden für Trainingszwecke erhoben, nicht für Verkaufszwecke. Ohne neue Einwilligung ist die Weiterverarbeitung unzulässig.
💡 Mögliche Lösungen:
- Klare Zweckdefinition: Bei der Erhebung wird genau festgelegt, dass die Daten ausschließlich zur Trainingsoptimierung genutzt werden.
- Neue Einwilligung: Für die Nutzung zu Marketingzwecken holt das Studio eine separate, informierte Einwilligung der Mitglieder ein.
- Datenminimierung: Es werden nur die Gesundheitsdaten erfasst, die für die Trainingsplanung tatsächlich erforderlich sind.
- Regelmäßige Löschung: Nicht mehr aktuelle Trainingsdaten werden nach 12 Monaten gelöscht.
Achtung: Bei der Verarbeitung besonderer Kategorien personenbezogener Daten wie Gesundheitsdaten oder biometrischen Daten gelten nach Art. 9 DSGVO zusätzliche Anforderungen. Prüfen Sie, ob eine ausdrückliche Einwilligung oder eine spezielle Rechtsgrundlage erforderlich ist.
Best Practice 7: Schulung und Sensibilisierung der Mitarbeitenden
Das beste KI-System nützt wenig, wenn die Mitarbeiter nicht wissen, wie sie damit datenschutzkonform umgehen. Regelmäßige Schulungen und Sensibilisierungen sind daher unverzichtbar (Art. 32 DSGVO).
Was bedeutet das in der Praxis?
🤔 Situation: Ein Vertriebsmitarbeiter nutzt ChatGPT, um Kundenmails zu beantworten, und kopiert dabei vertrauliche Kundendaten (Namen, Umsätze, Vertragsdetails) in den Chat. Diese Daten landen auf externen Servern – ohne dass eine Auftragsverarbeitungsvereinbarung besteht.
⚠️ Risiko: Unzulässige Datenweitergabe an Drittland (Verstoß gegen Art. 44 ff. DSGVO). Datenschutzverletzung nach Art. 33 DSGVO meldepflichtig. Bußgeldrisiko und Reputationsschaden.
💡 Mögliche Lösungen:
- Verpflichtende Schulung aller Angestellten zum datenschutzkonformen Umgang mit KI-Tools durch.
- Klare KI-Richtlinien, welche KI-Tools genutzt werden und welche Daten NICHT eingegeben werden dürfen
- Prozess für Ad-hoc-Schulungen bei Implementierung neuer KI-Tools oder rechtlichen Änderungen Die Rolle des Datenschutzbeauftragten bei KI-Projekten
Welche Rolle spielt ein Datenschutzbeauftragter bei der DSGVO-konformen Nutzung von KI?
Damit Datenschutz und KI in Ihrem Unternehmen Hand in Hand gehen, empfiehlt sich die Zusammenarbeit mit einem externen Datenschutzbeauftragten. Sie können auch bei der Entwicklung und Implementierung von KI-Systemen beratend tätig werden und die größten Risiken von Anfang an ausschließen.
Gerade bei komplexen KI-Projekten empfiehlt sich die enge Zusammenarbeit mit einem erfahrenen DSB, der die größten Risiken von Anfang an erkennt und ausschließt.
Chancen von Künstlicher Intelligenz für den Datenschutz
Künstliche Intelligenz ist für den Datenschutz nicht nur eine Herausforderung. Sie kann auch dabei helfen, Daten von Verbrauchern zu schützen.
Anwendungsfall 1: Compliance-Automatisierung
Speziell auf den Datenschutz ausgerichteten KI-Tools können Compliance-Prozesse automatisieren und die Einhaltung der DSGVO überwachen. Sie unterstützen Unternehmen dabei, ihre Datenflüsse besser zu analysieren und sicherzustellen, dass personenbezogene Daten nur für die vorgesehenen Zwecke genutzt werden.
Anwendungsfall 2: Datenschutzverstöße aufdecken
Viele Unternehmen sind nicht wie von der DSGVO vorgesehen in der Lage, einen Datenschutzverstoß innerhalb von 72 Stunden zu erkennen und zu melden. KI-Systeme könnten mithelfen, Datenschutzverletzungen frühzeitig zu erkennen und sie möglicherweise sogar zu verhindern. Hier könnte ein KI-Bot hilfreiche Unterstützung leisten.
Fazit: Datenschutz bei KI von Anfang an mitdenken
Der Einsatz von KI-Systemen erfordert eine sorgfältige Abwägung der Risiken und die Umsetzung umfassender datenschutzrechtlicher Maßnahmen. Unternehmen, die sich dieser Verantwortung frühzeitig stellen, können nicht nur rechtliche Risiken minimieren, sondern auch das Vertrauen ihrer Kunden und Geschäftspartner stärken.
Sie haben noch Fragen zum Thema? Lassen Sie sich jetzt kostenlos von unseren Expertinnen und Experten beraten.





Zu unseren mehr als 2.500 Kunden zählen Start-ups, mittlere Unternehmen und Unternehmensgruppen aus nahezu allen Branchen.









