OpenClaw im Unternehmen: Möglichkeiten und Grenzen des KI-Agenten

- Als KI-Agent hat OpenClaw Fähigkeiten, die über das Erstellen von Text oder Code hinausgehen.
- Das Open-Source-Tool aus Österreich führt Aufgaben selbstständig aus und greift dafür auf Unternehmenstools zu.
- Je selbstständiger der Agent handeln darf und je tiefer er integriert ist, desto größer sind die Risiken für die Cybersecurity in Unternehmen.
- Empfehlung: Aktuell ist OpenClaw nur bedingt für den produktiven Einsatz in Unternehmen geeignet.
- Wer den Einsatz von KI-Agenten oder -Browsern plant, sollte KI-Experten zu Rate ziehen und sich mit KI-Governance, begrenzten Rechten und belastbaren Sicherheits- und Datenschutzkontrollen so gut wie möglich absichern.
- Item A
- Item B
- Item C
Was ist OpenClaw?
OpenClaw ist Künstliche Intelligenz made in Österreich: Dort hat der Programmierer Peter Steinberger einen KI-Baukasten entwickelt, der seit Ende 2025 als Open-Source-Software verfügbar ist. Der KI-Workflow von OpenClaw basiert auf KI-Modellen von Anbietern wie OpenAI oder Google und übernimmt nach der Einrichtung selbstständig E-Mails versenden, Programme schreiben oder Dateien organisieren.
Mit OpenClaw betritt die nächste Generation von KI-Systemen den Markt: Sogenannte KI-Agenten, die unter anderem in KI-Browsern wie Perplexity stecken und über klassische KI-Anwendungen hinausgehen. Neben Analysen oder dem Erstellen von Texten führen sie komplexe Aufgaben eigenständig aus.
Warum wird OpenClaw kritisch diskutiert?
Theoretisch verspricht die neue KI-Generation große Effizienzgewinne. Praktisch braucht OpenClaw dafür jedoch Zugriff auf externe Anwendungen wie E-Mail-Programme, lokale Dateispeicher, APIs oder Passwortmanager. Um in diesen Umgebungen arbeiten zu können, sind sogenannte Skills erforderlich: Diese Erweiterungen des KI-Agenten stellen zusätzliche Funktionen bereit, bergen allerdings für Unternehmen zahlreiche Sicherheitsrisiken.
Wie gefährdet OpenClaw die Informationssicherheit von Unternehmen?
Die Risiken von OpenClaw ergeben sich aus dem Zusammenspiel mehrerer Faktoren. Der Agent greift tief in Systeme ein, arbeitet mit sensiblen Zugangsdaten und lässt sich oft ohne klassische Sicherheitsgrenzen flexibel erweitern.
Dadurch entstehen zahlreiche Risiken für die Informationssicherheit innerhalb von Unternehmen.
Folgende 5 Gefahren sollten Sie kennen, um abwägen zu können, ob die Risiken es wert sind, KI-Workflows mit OpenClaw einzuführen:
1. Überprivilegierung: Wenn der Agent zu viel darf
Kritisch wird OpenClaw dort, wo der Agent weitreichende Rechte bis hin zu Administratorrechten erhält. Verschaffen Angreifer sich Zugriff auf den Agenten, würden sie von genau diesen Rechten profitieren: Statt sich mühsam durch verschiedene Schutzmechanismen arbeiten zu müssen, nutzen sie den Agenten als Abkürzung.
2. Angriffsfläche: Wenn Geräte zu Einfallstoren werden
Da OpenClaw sich auf verschiedenen Endgeräten nutzen lässt, hängt die Sicherheit stärker vom jeweiligen Laptop oder PC als vom Netzwerk ab. Jedes Gerät, auf dem der Agent aktiv ist, wird damit zu einem zusätzlichen Einstiegspunkt in Unternehmensdaten und -systeme, die Angreifern bequem als Türen zu verbundenen Tools nutzen könnten.
3. Skills: Wenn Fähigkeiten zum ansteckenden Risiko werden
Die Skills, mit denen sich die Funktionswelt von OpenClaw erweitern lässt, erhöhen die Einsatzmöglichkeiten des Agenten. Aus Security-Sicht sind sie jedoch kritisch. Denn technisch handelt es sich schlicht um ausführbaren Code.
Das Problem: Installiert ein Nutzer unwissentlich einen manipulierten Skill, kann dieser sich im schlimmsten Fall wie Schadsoftware verhalten und Zugriff auf Daten, Systeme und weitere Funktionen erlangen. Besonders kritisch wird es, wenn der Agent selbstständig auf externe Quellen zugreifen, Software nachladen oder Abhängigkeiten installieren kann. Dadurch können manipulierte Erweiterungen Schadcode einschleusen, der gleichzeitig viele einzelne Geräte im Unternehmen betrifft.
4. Datenabfluss: Wenn Zugangsdaten unbemerkt mitgespeichert werden
Damit OpenClaw Aufgaben ausführen kann, arbeitet der Agent mit Zugangsdaten wie API-Tokens, Cloud-Schlüsseln oder Integrationsdaten. Solche Zugangsdaten können im Laufe der Nutzung unbeabsichtigt gespeichert oder weitergegeben werden – etwa in Logs, Konfigurationsdateien oder gemeinsam genutzten Arbeitsumgebungen. Gelangen sie nach außen, haben Angreifer leichtes Spiel und direkten Zugriff auf Systeme von Unternehmen.
5. Governance: Wenn Manipulation und „Shadow AI“ Unternehmen bedrohen
KI-Agenten sind anfällig für Manipulation. Bestes Beispiel sind Prompt Injections: Dabei betten Angreifer versteckte Anweisungen in Webseiten oder Dokumenten ein, die der Agent als legitime Aufgabe interpretiert. Das kann OpenClaw dazu bringen, Daten an Unbefugte weiterzugeben oder unerwünschte Aktionen auszuführen.
Verstärkt wird dieses Risiko durch Eigenschaften wie den persistenten Kontext, also das „Gedächtnis“ des Agenten. Angreifer können gespeicherte Informationen manipulieren oder langfristig ausnutzen, was ihre Angriffe schwerer erkennbar und nachvollziehbar macht.
Hinzu kommt ein praktisches Problem in Unternehmen: Werden Tools wie OpenClaw ohne klare Regeln und Kontrolle eingesetzt, entsteht schnell Schatten-KI.
Was bedeutet OpenClaw für den Datenschutz in Unternehmen?
Da OpenClaw in der Lage ist, Daten eigenständig zu durchsuchen und Systeme zu bedienen, ergeben sich daraus mehrere Risiken für die DSGVO-Konformität für Unternehmen.
- Datenminimierung und Zweckbindung: Zu den Grundsätzen der DSGVO gehört unter anderem, dass personenbezogene Daten auf das notwendige Maß beschränkt verarbeitet werden. Autonome Agenten sind jedoch darauf ausgelegt, umfangreiche Datenmengen zu durchsuchen. Ist der Datenzugriff für OpenClaw nicht klar geregelt, „sieht“ der Agent möglicherweise Daten, die für seine Aufgabe unerheblich sind.
- Drittlandtransfer: In vielen Setups ist OpenClaw die ausführende Schicht, während die Datenverarbeitung bei externen Anbietern stattfindet. Sobald personenbezogene Daten an Dienstleister übermittelt werden, sind gegebenenfalls Standardvertragsklauseln und Auftragsverarbeitungsverträge notwendig.
- Datenschutz-Folgenabschätzung: Der Einsatz von OpenClaw stellt potenziell ein erhöhtes Risiko für die Rechte und Freiheiten betroffener Personen dar. Das gilt vor allem, wenn der KI-Agent Kunden- oder Beschäftigtendaten verarbeiten soll. In diesem Fall verlangt die DSGVO eine Datenschutz-Folgenabschätzung, die Risiken analysiert und Maßnahmen zur Risikoeindämmung dokumentiert.
Ein zentrales Problem bei KI-Anwendungen ist die Kontrolle. Unternehmen bleiben rechtlich verantwortlich für die Datenverarbeitung, auch wenn ein Agent eigenständig handelt. Allerdings erschweren dynamische Datenflüsse in KI-Agenten die Transparenz über die Einhaltung der DSGVO. Darüber hinaus besteht bei manipulierten KI-Agenten die Gefahr von Datenschutzvorfällen, die Bußgelder nach sich ziehen können.
Wie beurteilen Aufsichtsbehörden OpenClaw?
Die beschriebenen IT- und Datenschutzrisiken bestätigen inzwischen auch Aufsichtsbehörden. D e niederländische Datenschutzbehörde Autoriteit Persoonsgegevens warnt ausdrücklich vor dem Einsatz von OpenClaw und ähnlichen KI-Agenten, da diese häufig grundlegende Sicherheitsanforderungen nicht erfüllen und ein hohes Risiko für Datenlecks und Account-Übernahmen darstellen.
Besonders kritisch sehen die Experten, dass Nutzer dem System weitreichenden Zugriff auf Geräte, Daten und Konten gewähren. Aus Sicht der Behörde kann OpenClaw dadurch wie ein „Trojanisches Pferd“ wirken. Zudem verweisen Sicherheitsanalysen auf konkrete Risiken wie manipulierte Plug-ins, versteckte Befehle und kritische Schwachstellen, die bis zur vollständigen Systemübernahme führen können.
Unsere Einschätzung zu OpenClaw: Abwarten und auf Alternativen setzen
OpenClaw zeigt eindrucksvoll, welches Potenzial in KI-Agenten steckt. Gleichzeitig wird deutlich, dass diese Technologie derzeit noch nicht ausreichend abgesichert ist, um sie bedenkenlos im Unternehmenskontext einzusetzen.
Aus unserer Sicht ist das Risiko aktuell zu hoch, insbesondere vor dem Hintergrund, dass Unternehmen durch Verordnungen wie die NIS2-Richtlinie oder den AI Act ohnehin vor großen Cybersecurity-Herausforderungen stehen und auf funktionierende Schutzmaßnahmen angewiesen sind. Die Kombination aus weitreichenden Rechten, neuen Angriffsflächen, real existierenden Schwachstellen und fehlender Reife in der praktischen Umsetzung schafft eine Sicherheitslage, die schwer beherrschbar ist. Zudem ist OpenClaw nach dem AI Act je nach Anwendungsfall als Hochrisiko-KI einzustufen, was die regulatorischen Anforderungen an den Einsatz des Agenten verschärfen würde.
Besonders kritisch ist der unbedarfte Umgang mit OpenClaw: Wenn IT-Teams beginnen, KI-Agenten ohne klare Governance zu testen oder gar in produktiven Systemen einzusetzen, entstehen schnell reale Risiken.
Unternehmen, die sich dennoch mit den Potenzialen von KI-Agenten wie OpenClaw auseinandersetzen wollen, sollten Experten einbeziehen und sich bewusst fragen, ob der jeweilige Anwendungsfall nicht auch mit kontrollierteren und etablierten Technologien umgesetzt werden kann. In vielen Fällen ist das derzeit die sinnvollere Option.
Sie haben noch Fragen? Wir haben die Antworten
Sie haben noch Fragen zum Thema? Lassen Sie sich jetzt kostenlos von unseren Expertinnen und Experten beraten.





Zu unseren mehr als 2.500 Kunden zählen Start-ups, mittlere Unternehmen und Unternehmensgruppen aus nahezu allen Branchen.










