Liebe Community,
da ihr Claude Code und Cowork bereits aktiv in eure Workflows integriert habt, wisst ihr, dass diese Tools weit über einfaches Chatten hinausgehen und als autonome Agenten tiefgreifenden Zugriff auf Datei- und Ordnerebenen haben. Doch genau diese enorme Leistungsfähigkeit, mit der repetitive menschliche Aufgaben ersetzt werden können, birgt spezifische rechtliche und technische Fallstricke, die über den herkömmlichen KI-Einsatz hinausgehen.
Hier sind die entscheidenden Punkte, um eure produktive Nutzung von Claude-Agenten rechtssicher und professionell zu gestalten:
1. Die juristische Dokumentationspflicht
Der Einsatz dieser Agenten ist kein „Plug-and-Play“-Szenario im rechtfreien Raum. Ihr seid gesetzlich verpflichtet, folgende Maßnahmen umzusetzen:
- VVT (Verzeichnis von Verarbeitungstätigkeiten): Jeder Prozess, bei dem Claude Zugriff auf personenbezogene Daten erhält, muss detailliert dokumentiert werden, einschließlich Rechtsgrundlage und Löschfristen.
- DSFA (Datenschutzfolgenabschätzung): Da Claude Code/Cowork tief in lokale Systeme eingreift, ist oft eine objektive Risikoabwägung (DSFA) zwingend erforderlich, um den Einsatz überhaupt zu legitimieren.
- AV-Vertrag: Ein Vertrag zur Auftragsverarbeitung mit Anthropic ist rechtlich bindend und muss auf euer spezifisches Geschäftsmodell zugeschnitten sein.
2. Informationspflichten nach Art. 13 DSGVO
Es reicht nicht aus, nur eine allgemeine Datenschutzerklärung auf der Website zu haben. Da ihr Daten von Kunden, Mitarbeitern oder Projektpartnern verarbeitet, müsst ihr diese spezifisch darüber informieren, dass eine KI für diese Zwecke eingesetzt wird. Dies ist besonders relevant, wenn die KI Aufgaben übernimmt, die bisher von Menschen ausgeführt wurden.
3. Das technische Risiko: Prompt Injection
Ein spezifisches Risiko bei der Nutzung von Claude-Agenten auf Dateiebene ist die sogenannte Prompt Injection. Dabei können präparierte Dokumente in eurem Dateibestand Anweisungen enthalten, die den ursprünglichen Prompt der KI überschreiben.
- Der Super-GAU: Ein Dokument könnte den Befehl enthalten, alle nachfolgenden Anweisungen zu ignorieren und sensible Firmendaten oder Kundeninformationen an Dritte oder Konkurrenten zu senden.
- Dies ist kein theoretisches Risiko, sondern bereits unmittelbar nach Veröffentlichung dieser Funktionen praktisch aufgetreten.
4. Shadow AI und interne Richtlinien
Oft nutzen Mitarbeiter Claude Code/Cowork privat für berufliche Aufgaben, ohne dass eine juristische Vorgabe seitens des Arbeitgebers existiert. Als Unternehmen bleibt ihr jedoch voll verantwortlich. Ihr benötigt klare Richtlinien, die festlegen:
- Welche Daten in die KI eingespeist werden dürfen.
- Zu welchen Zwecken die Agenten autonom agieren dürfen.
- Dass die Trainingsfunktion in den Einstellungen deaktiviert ist, da das Anlernen der KI meist nicht mit dem ursprünglichen Zweck der Datenerhebung vereinbar ist.
5. Blick auf den EU AI Act
Bereits ab August 2026 kommen durch das EU-KI-Gesetz weitere Dokumentations-, Transparenz- und Schulungspflichten auf euch zu. Wer die oben genannten Punkte heute schon umsetzt, hat bereits einen Großteil der zukünftigen Anforderungen erfüllt und minimiert das Risiko für Bußgelder oder Schadensersatzforderungen in fünf- bis sechsstelliger Höhe.
Wie sieht eure Sicherheitsstrategie aus? Habt ihr bereits spezifische Sicherheitsvorkehrungen gegen Prompt Injection getroffen oder nutzt ihr Claude-Agenten in einer isolierten Umgebung? Lasst uns in den Kommentaren über eure Best Practices diskutieren! 👇