Datenschutz bei KI im Unternehmen: ChatGPT & Claude sicher nutzen

TL;DR — Kurzantwort

Welche Daten darf ich mit KI-Tools teilen? Wie schütze ich sensible Unternehmensdaten bei ChatGPT, Claude und Co.? Wir erklären die wichtigsten Datenschutzregeln und geben konkrete Empfehlungen für den sicheren Einsatz im Unternehmen.

06. März 20266 Min. LesezeitDie AInauten

Wenn du etwas in ChatGPT oder Claude eintippst, geht diese Information an die Server von OpenAI bzw. Anthropic — beides US-amerikanische Unternehmen. Das bedeutet:

  • Daten verlassen den EU-Rechtsraum (relevant für die DSGVO)
  • Anbieter können Daten je nach Einstellungen für Modell-Training nutzen
  • Dritte haben technischen Zugriff auf deine Eingaben

Für privaten Gebrauch ist das meistens kein Problem. Für sensible Geschäftsdaten, Kundendaten oder personenbezogene Informationen musst du genauer hinschauen.

Grundsätzlich unbedenklich

  • Allgemeine Recherche, Texte verfassen, Ideen entwickeln
  • Anonymisierte oder fiktive Beispieldaten
  • Interne Informationen ohne Personenbezug (z. B. Produktbeschreibungen, Prozessdokumentation)
  • Öffentlich zugängliche Informationen

Mit Vorsicht verwenden

  • Namen, E-Mail-Adressen oder andere personenbezogene Daten (DSGVO beachten)
  • Interne Dokumente mit vertraulichem Geschäftsinhalt
  • Daten, die unter NDA oder vertraglichen Schweigepflichten stehen

Ohne Corporate-Lizenz vermeiden

  • Kundendaten, Patientendaten, Schülerdaten
  • Finanzinformationen und Vertragsdetails mit externen Partnern
  • Personaldaten, Krankmeldungen, Lohnabrechnungen

Bevor du KI-Tools im Unternehmen einsetzt, passe die Einstellungen an:

ChatGPT (OpenAI)

Geh zu Einstellungen → Datenschutz und deaktiviere "Deine Inhalte zur Modellverbesserung nutzen". Damit werden deine Eingaben nicht für das Training neuer Modelle verwendet.

Claude (Anthropic)

Auch bei Claude kannst du unter den Privacy Settings das Modell-Training mit deinen Daten deaktivieren. Für Business-Accounts ist diese Option standardmäßig deaktiviert.

Wichtig: Diese Einstellungen verhindern nur das Training — die Daten liegen weiterhin auf US-Servern und unterliegen US-Recht.

Stufe 1: Consumer-Apps mit richtigen Einstellungen

Für den Großteil der Unternehmensnutzung reichen die richtigen Einstellungen und klare interne Regeln:

  • Keine Kundendaten eingeben
  • Keine personenbezogenen Daten ohne Anonymisierung
  • Klare Mitarbeiterrichtlinie, was erlaubt ist und was nicht

Das setzt voraus, dass deine internen Prozesse klar definiert sind und alle Mitarbeitenden wissen, was erlaubt ist.

Stufe 2: Business- und Enterprise-Lizenzen

Mit Business- oder Enterprise-Plänen bei OpenAI (ChatGPT Team/Enterprise) oder Anthropic (Claude for Work/Enterprise) bekommst du:

  • Vertragliche Zusicherungen zum Datenschutz (DPA = Data Processing Agreement)
  • Keine Nutzung deiner Daten für Modell-Training (vertraglich garantiert)
  • Oft EU-Datenzentren oder spezifische Datenhaltungsvereinbarungen
  • Admin-Konsolen für zentrale Verwaltung und Monitoring

Empfehlung: Ab ca. 10 Mitarbeitenden oder bei regelmäßiger Verarbeitung sensibler Daten lohnt sich ein Business-Plan.

Stufe 3: Microsoft Azure und europäische Alternativen

Für stark regulierte Branchen wie Healthcare, Recht, Finanzdienstleistungen oder Behörden:

Microsoft Azure OpenAI Service — Die ChatGPT-Modelle laufen auf europäischen Microsoft-Servern innerhalb deiner Azure-Umgebung. Daten verlassen nicht deine Azure-Infrastruktur, kein Modell-Training mit deinen Daten. Ideal, wenn ihr bereits Microsoft 365 und Azure nutzt. Azure OpenAI ist DSGVO-konform und erfüllt ISO 27001.

Mistral AI (europäisch) — Für sensible Daten, die DSGVO-konform auf europäischen Servern verarbeitet werden sollen. Besonders geeignet für OCR-Prozesse und Dokumentenverarbeitung. Mistral ist ein französisches Unternehmen mit Servern in der EU.

Lokale Modelle (On-Premise) — Maximale Kontrolle, aber auch der größte Setup-Aufwand. Modelle wie Llama oder Mistral können auf eigenen Servern betrieben werden, ohne Datentransfer nach außen.

Besondere Vorsicht ist geboten, wenn KI nicht direkt genutzt, sondern in bestehende Systeme integriert wird.

Beispiel Langdock + Microsoft 365: Das Tool benötigt umfangreiche M365-Berechtigungen, u. a. Vollzugriff auf alle Dateien. Unsere Empfehlung: Richte einen separaten M365-Dienst-Account ein, der nur Zugriff auf die für KI freigegebenen Ordner hat. So verhindert du, dass die Integration theoretisch auf alle Unternehmensdaten zugreifen kann.

Für n8n-Automationen: Verarbeite personenbezogene Daten möglichst pseudonymisiert. Nutze n8n Self-Hosted für mehr Kontrolle über die Datenhaltung — dann bleiben alle Daten auf deinem eigenen Server.

Für API-Aufrufe: Wenn du direkt die OpenAI- oder Anthropic-API nutzt (z. B. über n8n), gelten dieselben Regeln wie bei der direkten Nutzung. API-Nutzung wird standardmäßig nicht für Training genutzt — aber prüfe die aktuellen Nutzungsbedingungen.

Erstellt intern eine einfache Regel, die alle verstehen:

Grün — Frei verwendbar: Allgemeine Texte, anonymisierte Beispiele, Brainstorming, öffentliche Informationen

Gelb — Mit Vorsicht: Interne Dokumente ohne Personenbezug, nur mit angepassten Datenschutz-Einstellungen und nach Prüfung

Rot — Nicht ohne Enterprise-Lizenz: Kundendaten, Personaldaten, Vertragsinformationen, Patientendaten

Eine einfache Checkliste, die alle verstehen, ist wertvoller als ein 20-seitiges Policy-Dokument, das niemand liest.

Freelancer und Solopreneure: Datenschutz-Einstellungen aktivieren, keine Kundendaten eingeben, fertig.

Kleine Unternehmen (2–15 Mitarbeitende): ChatGPT Team oder Claude for Work (ca. 20–30 EUR pro Nutzer/Monat), interne KI-Richtlinie (1 Seite reicht), Mitarbeiter kurz einweisen.

Mittlere Unternehmen (15–100 Mitarbeitende): Enterprise-Pläne mit DPA prüfen, Admin-Konsolen einrichten, Abteilungsleiter als KI-Verantwortliche benennen.

Große Unternehmen und regulierte Branchen: Microsoft Azure OpenAI Service evaluieren, Datenschutzbeauftragten einbinden, ggf. On-Premise-Lösung prüfen.

Datenschutz und KI-Nutzung schließen sich nicht aus — man muss nur wissen, welche Stufe für welchen Use Case passt. Die gute Nachricht: Mit den richtigen Einstellungen und klaren internen Regeln kannst du ChatGPT und Claude im Unternehmen heute schon sicher nutzen. Für sensiblere Anforderungen gibt es skalierbare Lösungen — von Business-Lizenzen bis zu europäischen Alternativen wie Mistral oder Microsoft Azure.

Der wichtigste erste Schritt: Definiere klare Regeln in deinem Unternehmen, bevor jemand versehentlich Kundendaten in ChatGPT tippt.

Ähnliche Artikel

Hinterlasse einen Kommentar