KI datenschutzkonform einsetzen: 7 Best Practices für KMU
-und-datenschutz.avif)
- Da LLMs sich ständig weiterentwickeln und große Datenmengen verarbeiten, bleibt der Datenschutz eine Herausforderung bei der KI-Nutzung.
- Datenschutzkonforme KI-Nutzung als Erfolgsfaktor: Eine gut geplante, DSGVO-konforme KI-Strategie stärkt das Vertrauen von Kunden und Partnern und ermöglicht Innovationen.
- DSGVO und AI Act regeln den Umgang mit personenbezogenen Daten und KI.
- Schlüsselmaßnahmen für Unternehmen: Datenschutz-Folgenabschätzungen, Privacy by Design, Datenanonymisierung und Schulungen sorgen für rechtliche Sicherheit und minimieren Risiken.
- Richtig eingesetzt kann KI Datenschutzverletzungen erkennen und DSGVO-Compliance unterstützen.
- Item A
- Item B
- Item C
Warum spielt KI-Datenschutz eine so wichtige Rolle?
KI beschleunigt Routineaufgaben und bietet Unterstützung bei der Analyse großer Datenmengen oder beim kreativen Blackout. Allerdings birgt die Technologie auch erhebliche Risiken, insbesondere wenn personenbezogener Daten verarbeitet werden.
Der Grund: KI-Tools, die nach dem Prinzip des Machine Learnings funktionieren, entwickeln sich kontinuierlich und selbstständig weiter, müssen dafür allerdings große Mengen an Daten analysieren.
Datenschutzrechtliche Herausforderungen beim KI-Einsatz
- Datenmissbrauch: KI-Systeme können große Mengen personenbezogener Daten analysieren und das Risiko von Datenmissbrauch erhöhen.
- Mangelnde Transparenz: Die Funktionsweise von KI-Algorithmen ist oft schwer nachzuvollziehen, was zu einem Mangel an Transparenz führt.
- Algorithmische Voreingenommenheit: Wenn KI-Systeme mit voreingenommenen Daten trainiert werden, können sie diskriminierende Entscheidungen treffen.
- Datenschutzverletzungen: Fehlerhafte Konfigurationen oder unsachgemäße Datenverarbeitungen können zu Verstößen gegen die DSGVO mit KI führen.
- Vertrauensverlust: Datenschutzverletzungen ziehen oft nicht nur rechtliche Konsequenzen nach sich, sondern schädigen auch das Vertrauen in Ihr Unternehmen.
Um diese Risiken zu minimieren, ist eine möglichst datenschutzkonforme Nutzung von KI unabdingbar.
Best Practices für AI-Datenschutz: Wie erfüllen Unternehmen ihre Datenschutzpflichten?
Die DSGVO bildet die Basis für den datenschutzkonformen KI-Einsatz in Europa. Folgende Grundsätze sind besonders relevant:
- Rechtmäßigkeit, Verarbeitung nach Treu und Glauben und Transparenz: KI-Systeme dürfen Daten nur auf einer rechtlichen Grundlage verarbeiten, etwa mit Zustimmung der Betroffenen oder auf Basis eines berechtigten Interesses. Transparenz ist hier essenziell. Betroffene müssen verstehen können, wie ihre Daten verwendet werden.
- Datenminimierung: Es dürfen nur wirklich notwendige Daten verarbeitet werden.
- Zweckbindung: Daten dürfen nur für den spezifischen, klar definierten Zweck verwendet werden, für den sie erhoben wurden.
- Integrität und Vertraulichkeit: Daten müssen durch technische und organisatorische Maßnahmen (TOM) geschützt werden.
Darüber hinaus legt Art. 22 DSGVO besondere Anforderungen an automatisierte Entscheidungen fest, etwa bei der Kreditwürdigkeitsprüfung. Betroffene haben das Recht, nicht ausschließlich auf Basis automatisierter Verarbeitung einer Entscheidung unterworfen zu werden.
Beim KI-Einsatz müssen Unternehmen parallel die KI-Verordnung (AI Act) berücksichtigen. Beide Regelwerke verfolgen ein gemeinsames Ziel: den Schutz der Rechte von EU-Bürgern.
Wichtige Überschneidungen:
Die folgenden Best Practices helfen Ihnen dabei, KI-Systeme rechtskonform zu implementieren.
Best Practice 1: Privacy by Default – Datenschutzfreundliche Voreinstellungen
KMU müssen stets die datensparsamste und datenschutzfreundlichste KI-Einstellung als Standard wählen: Privacy by Default ist eine rechtliche Verpflichtung nach Art. 25 Abs. 2 DSGVO.
Was bedeutet das in der Praxis?
🤔 Situation: Ein mittelständisches E-Commerce-Unternehmen implementiert im Kundenservice einen KI-Chatbot, der standardmäßig alle Chatverläufe speichert. Darin sind Daten wie E-Mail-Adressen und die Kaufhistorie gespeichert, die für die Beantwortung der Anfrage nicht notwendig sind.
⚠️ Risiko:
Datenschutzunfreundliche Standardeinstellungen können automatisch zu umfangreicher Datenerhebung führen, ohne dass Nutzer eingreifen können. Dieser Widerspruch zum Grundsatz von „Privacy by Default“ ist bußgeldbewehrt, auch wenn keine Zwecküberschreitung oder Weiterverarbeitung erfolgt.
💡 Mögliche Lösungen:
- Datensparsamkeit als Standard: Der Chatbot speichert nur anonymisierte Anfragen. Personenbezogene Daten werden nur erfasst, wenn der Kunde dies aktiv bestätigt.
- Automatische Löschung: Chatverläufe werden nach 30 Tagen automatisch gelöscht, wenn keine Rechtsgrundlage für längere Speicherung besteht.
- Pseudonymisierung: Für Analysen werden Kundendaten pseudonymisiert, sodass keine Rückschlüsse auf Einzelpersonen möglich sind.
Best Practice 2: Privacy by Design – Datenschutz von Anfang an
Datenschutz muss bereits in der Konzeptions- und Entwicklungsphase von KI-Systemen berücksichtigt werden. Das Prinzip Privacy by Design nach Art. 25 Abs. 1 DSGVO verlangt, dass datenschutzrechtliche Anforderungen von Beginn an in die System-Architektur einfließen.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Logistikunternehmen entwickelt ein KI-System zur Routenoptimierung. Erst nach der Implementierung stellt sich heraus, dass GPS-Daten von Fahrern permanent gespeichert werden – auch außerhalb der Arbeitszeit.
⚠️ Risiko: Die Überwachung von Mitarbeitenden erfolgt ohne Rechtsgrundlage und verstößt gegen Art. 88 DSGVO i.V.m. §26 BDSG. Die Folge können Vertrauensverlust bei der Belegschaft und kostspielige Systemanpassungen im Nachhinein sein.
💡 Mögliche Lösungen:
- Datenschutz von Anfang an durch Einbeziehen eines Datenschutzbeauftragten in die Planungsphase
- Technische Schutzmaßnahmen wie automatische Anonymisierung der Standortdaten nach Abschluss der Route
Praxis-Tipp: Nutzen Sie die Orientierungshilfe der Datenschutzkonferenz (DSK) zu KI-Systemen, die konkrete Anforderungen enthält und Hilfestellungen bietet.
Best Practice 3: Risikobasierter Ansatz & Datenschutz-Folgenabschätzung
Nicht jedes KI-System birgt die gleichen Risiken. Die DSGVO verlangt einen risikobasierten Ansatz: Je höher das Risiko für die Rechte und Freiheiten betroffener Personen, desto umfassender müssen die Schutzmaßnahmen sein.
Was bedeutet das in der Praxis?
🤔 Situation: Eine Bank führt ein KI-System zur automatisierten Kreditwürdigkeitsprüfung ein – ohne vorherige Datenschutz-Folgenabschätzung (DSFA). Nach einigen Monaten häufen sich Beschwerden: Bestimmte Bevölkerungsgruppen werden systematisch benachteiligt.
⚠️ Risiko: Verstoß gegen Art. 35 DSGVO, der eine DSFA bei hohem Risiko für personenbezogene Daten verlangt, und Art. 22 DSGVO, der automatisierte Einzelentscheidung verbietet. Die Folge können Bußgelder, Reputationsschäden und Diskriminierungsklagen sein.
💡 Mögliche Lösungen:
- DSFA vor Inbetriebnahme des Systems durchführen
- KI-Modell wird auf diskriminierende Muster testen
- Bei negativen Kreditentscheidungen muss immer ein Mitarbeiter die Entscheidung überprüfen können
Best Practice 4: Regelmäßige Audits und kontinuierliches Monitoring
Da sich KI-Systeme ständig weiterentwickeln, reicht es nicht, sie einmalig zu prüfen. Unternehmen müssen nach Art. 32 DSGVO regelmäßige Audits durchführen und ein kontinuierliches Monitoring etablieren.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Online-Versandhändler nutzt KI für personalisierte Produktempfehlung. Nach einem Jahr fällt auf, dass das System weiblichen Nutzerinnen systematisch günstigere Produkte vorschlägt als männlichen Nutzern – ein klassischer Fall von Gender-Bias.
⚠️ Risiko: Diskriminierung nach AGG, Verstoß gegen die Gleichbehandlungsgrundsätze, Reputationsschaden und Umsatzverluste durch verzerrte Empfehlungen
💡 Mögliche Lösungen:
- Quartalsweise Audits zur regelmäßigen Überprüfung der KI-Ergebnisse auf Benachteiligung bestimmter Nutzergruppen
- Automatisiertes Monitoring, das bei auffälligen Mustern Alarm schlägt
- Bias-Korrektur, um das KI-Modell neu zu trainieren und auf Gleichbehandlung zu optimieren
Best Practice 5: Transparenz und Erklärbarkeit
KI-Systeme, deren Entscheidungswege nicht nachvollziehbar sind (Blackbox-KI) stellen ein massives Datenschutzproblem dar. Die DSGVO und die KI-Verordnung verlangen Transparenz und Erklärbarkeit.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Bewerber wird von einem KI-gestützten Recruiting-System abgelehnt. Auf Nachfrage kann das Unternehmen die KI-Entscheidung nicht erklären.
⚠️ Risiko: Verstoß gegen das Auskunftsrecht (Art. 15 DSGVO) und die Pflicht zur Offenlegung der Verarbeitungslogik (Art. 13 Abs. 2 lit. f DSGVO). Bußgeldrisiko und mögliche Diskriminierungsklage
💡 Mögliche Lösungen:
- Explainable AI (XAI) einsetzen, also Systeme, die nachvollziehbare Entscheidungskriterien liefern (z. B. „Bewertung basiert auf relevanter Berufserfahrung, fachlichen Qualifikationen und kulturellem Fit“)
- Transparente Kommunikation über den Einsatz von KI im Auswahlprozesse
- Menschliche Überprüfung jeder negativen Entscheidung
Tipp: Wenn Sie auf externe KI-Lösungen zurückgreifen, prüfen Sie deren Datenschutzstandards sorgfältig. Achten Sie darauf, dass der Anbieter DSGVO-konforme Verträge anbietet, etwa Auftragsverarbeitungsverträge (AVV).
Best Practice 6: Datenminimierung und Zweckbindung
Zwei zentrale Grundsätze der DSGVO lauten: Datenminimierung und Zweckbindung (Art. 5 Abs. 1 lit. b und c DSGVO). Es dürfen nur die Daten verarbeitet werden, die für den konkreten Zweck tatsächlich erforderlich sind und dürfen nur für den Zweck verwendet werden, für den sie erhoben wurden.
Beim Einsatz von KI-Systemen, die große Datenmengen benötigen, sind diese Prinzipien besonders wichtig.
Was bedeutet das in der Praxis?
🤔 Situation: Ein Fitness-Studio setzt KI zur Trainingsoptimierung ein und sammelt umfangreiche Gesundheitsdaten der Mitglieder wie Herzfrequenz und Körperfettanteil. Später möchte das Studio diese Daten auch nutzen, um personalisierte Nahrungsergänzungsmittel zu verkaufen.
⚠️ Risiko: Verstoß gegen die Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO). Die Daten wurden für Trainingszwecke erhoben, nicht für Verkaufszwecke. Ohne neue Einwilligung ist die Weiterverarbeitung unzulässig.
💡 Mögliche Lösungen:
- Klare Zweckdefinition: Bei der Erhebung wird genau festgelegt, dass die Daten ausschließlich zur Trainingsoptimierung genutzt werden.
- Neue Einwilligung: Für die Nutzung zu Marketingzwecken holt das Studio eine separate, informierte Einwilligung der Mitglieder ein.
- Datenminimierung: Es werden nur die Gesundheitsdaten erfasst, die für die Trainingsplanung tatsächlich erforderlich sind.
- Regelmäßige Löschung: Nicht mehr aktuelle Trainingsdaten werden nach 12 Monaten gelöscht.
Achtung: Bei der Verarbeitung besonderer Kategorien personenbezogener Daten wie Gesundheitsdaten oder biometrischen Daten gelten nach Art. 9 DSGVO zusätzliche Anforderungen. Prüfen Sie, ob eine ausdrückliche Einwilligung oder eine spezielle Rechtsgrundlage erforderlich ist.
Best Practice 7: Schulung und Sensibilisierung der Mitarbeitenden
Das beste KI-System nützt wenig, wenn die Mitarbeiter nicht wissen, wie sie damit datenschutzkonform umgehen. Regelmäßige Schulungen und Sensibilisierungen zu KI sind daher unverzichtbar (Art. 32 DSGVO).
Was bedeutet das in der Praxis?
🤔 Situation: Ein Vertriebsmitarbeiter nutzt ChatGPT, um Kundenmails zu beantworten, und kopiert dabei vertrauliche Kundendaten (Namen, Umsätze, Vertragsdetails) in den Chat. Diese Daten landen auf externen Servern – ohne dass eine Auftragsverarbeitungsvereinbarung besteht.
⚠️ Risiko: Unzulässige Datenweitergabe an Drittland (Verstoß gegen Art. 44 ff. DSGVO). Datenschutzverletzung nach Art. 33 DSGVO meldepflichtig. Bußgeldrisiko und Reputationsschaden.
💡 Mögliche Lösungen:
- Verpflichtende Schulung aller Angestellten zum datenschutzkonformen Umgang mit KI-Tools durch.
- Klare KI-Richtlinien, welche KI-Tools genutzt werden und welche Daten NICHT eingegeben werden dürfen
- Prozess für Ad-hoc-Schulungen bei Implementierung neuer KI-Tools oder rechtlichen Änderungen
Welche Rolle spielt ein Datenschutzbeauftragter bei der DSGVO-konformen Nutzung von KI?
Gerade bei komplexen Projekten kann ein externen Datenschutzbeauftragte Ihr Unternehmen dabei unterstützen, KI möglichst datenschutzkonform zu nutzen. Dieser kann auch bei der Entwicklung und Implementierung von KI-Systemen beratend tätig werden und die größten Risiken von Anfang an ausschließen.
- Compliance automatisieren: Speziell auf den Datenschutz ausgerichteten KI-Tools können Compliance-Prozesse automatisieren und die Einhaltung der DSGVO überwachen. Sie unterstützen Unternehmen dabei, ihre Datenflüsse besser zu analysieren und sicherzustellen, dass personenbezogene Daten nur für die vorgesehenen Zwecke genutzt werden.
- Datenschutzverstöße aufdecken: Viele Unternehmen sind nicht wie von der DSGVO vorgesehen in der Lage, einen Datenschutzverstoß innerhalb von 72 Stunden zu erkennen und zu melden. KI-Systeme könnten mithelfen, Datenschutzverletzungen frühzeitig zu erkennen und sie möglicherweise sogar zu verhindern. Hier könnte ein KI-Bot hilfreiche Unterstützung leisten.
Fazit: Datenschutz bei KI von Anfang an mitdenken
Der Einsatz von KI-Systemen erfordert eine sorgfältige Abwägung der Risiken und die Umsetzung umfassender datenschutzrechtlicher Maßnahmen. Unternehmen, die sich dieser Verantwortung frühzeitig stellen, können nicht nur rechtliche Risiken minimieren, sondern auch das Vertrauen ihrer Kunden und Geschäftspartner stärken.
Sie haben noch Fragen? Wir haben die Antworten
Nein, eine Datenschutz-Folgenabschätzung ist nur bei KI-Systemen mit hohem Risiko erforderlich – etwa bei automatisierten Entscheidungen mit Rechtswirkung oder Verarbeitung sensibler Daten. Proliance unterstützt Sie mit professioneller Risikobewertung, DSFA-Durchführung und KI-Beratung sowie Mitarbeiterschulungen für rechtssicheren KI-Einsatz.
Die Geschäftsführung bzw. der Vorstand trägt die Verantwortung bei Datenschutzverstößen durch KI-Systeme. Ein externer Datenschutzbeauftragter minimiert Haftungsrisiken erheblich. Proliance bietet externe DSB-Dienstleistungen, KI-Compliance-Beratung und Mitarbeiterschulungen, um Ihr persönliches Haftungsrisiko zu reduzieren.
Die Kosten variieren je nach KI-System und Komplexität. Entscheidend: Privacy by Design von Anfang an ist deutlich günstiger als nachträgliche Anpassungen. Proliance berät Sie zur kosteneffizienten Integration von Datenschutz in KI-Projekte und bietet KI-Schulungen für Ihr Team.
Unternehmen müssen beim Einsatz von KI insbesondere die Vorgaben der DSGVO beachten. Dazu zählen die Durchführung einer Datenschutz-Folgenabschätzung, die Sicherstellung von Transparenz und Nachvollziehbarkeit der KI-Systeme, die Wahrung der Betroffenenrechte sowie die Implementierung technischer und organisatorischer Maßnahmen zum Schutz personenbezogener Daten.
Die datenschutzkonforme Einführung von KI-Systemen gelingt durch eine sorgfältige Planung: Dazu gehören die Auswahl DSGVO-konformer Anbieter, die Erstellung eines Verzeichnisses der Verarbeitungstätigkeiten, die Schulung der Mitarbeitenden und die regelmäßige Überprüfung der eingesetzten KI-Anwendungen auf Datenschutzkonformität.
Sie haben noch Fragen zum Thema? Lassen Sie sich jetzt kostenlos von unseren Expertinnen und Experten beraten.





Zu unseren mehr als 2.500 Kunden zählen Start-ups, mittlere Unternehmen und Unternehmensgruppen aus nahezu allen Branchen.










