Datenschutz bei KI-Tools: Was KMU 2026 beachten müssen
revDSG, EU AI Act und die tägliche Praxis mit ChatGPT, Claude & Copilot. Konkrete Checkliste für Datenschutz bei KI-Tools im Schweizer KMU.
Ein Mitarbeiter kopiert den Entwurf eines Kundenvertrags in ChatGPT und bittet um eine Überarbeitung. Eine Sachbearbeiterin lässt Copilot eine Offerte formulieren – samt Firmennamen, Projektbudget und Kontaktdaten des Auftraggebers. Im Marketing wird eine Liste mit Kundenadressen in ein KI-Tool gezogen, um personalisierte Texte zu generieren.
Datenschutz bei KI-Tools ist dabei selten Thema. In jedem dieser Fälle werden Personendaten oder Geschäftsgeheimnisse an ein externes System übermittelt. Meist auf Server in den USA. Oft ohne Wissen der Geschäftsleitung. Praktisch nie mit einer rechtlichen Grundlage.
Solche Situationen gehören 2026 zum Alltag vieler Schweizer KMU – und sind juristisch betrachtet heikel.
Warum das Thema jetzt akut wird
Zwei Jahre nach dem produktiven Einzug generativer KI in den Arbeitsalltag holt die Regulierung auf:
Das revidierte Schweizer Datenschutzgesetz (revDSG) ist seit dem 1. September 2023 in Kraft. Es bringt deutlich höhere Anforderungen an Dokumentation, Transparenz und Auslandsübermittlungen – und persönliche Bussen von bis zu CHF 250'000 für verantwortliche Personen bei vorsätzlichen Verstössen.
Der EU AI Act ist seit August 2024 in Kraft und entfaltet ab August 2026 seine volle Wirkung. Schweizer KMU sind betroffen, sobald sie KI-Systeme in der EU anbieten, einsetzen oder deren Output in der EU nutzen – was auf viele grenznahe Ostschweizer Unternehmen zutrifft.
Die Schweiz selbst hat im März 2025 das KI-Übereinkommen des Europarats unterzeichnet. Das Parlament berät bis Ende 2026 über eigene KI-spezifische Anpassungen im Schweizer Recht.
Das Bundesamt für Statistik berichtet, dass inzwischen rund zwei Drittel der Schweizer KMU KI-Tools produktiv einsetzen. Gleichzeitig haben laut einer aktuellen Branchenerhebung nur rund ein Drittel klare interne Regeln dafür. Diese Lücke ist das eigentliche Risiko – nicht die Technologie selbst.
Datenschutz bei KI-Tools: Die 5 häufigsten Fehler
Fehler 1: Free-Versionen für Geschäftsdaten verwenden
Die kostenlosen Varianten von ChatGPT, Gemini oder Claude haben eines gemeinsam: Eingaben werden standardmässig zur Weiterentwicklung der Modelle verwendet. Was Sie eintippen, kann Teil zukünftiger Trainingsdaten werden – und in abgewandelter Form in Antworten an andere Nutzer auftauchen.
Für private Experimente ist das harmlos. Für einen Mitarbeitenden, der ein Kundenprotokoll zusammenfassen lässt, ist es ein Datenschutzverstoss.
Fehler 2: Serverstandort ignorieren
Nach Artikel 16 revDSG dürfen Personendaten nur in Länder mit angemessenem Datenschutzniveau übermittelt werden. Die USA stehen auf der Länderliste des EDÖB nicht als "angemessen". Ohne zusätzliche Schutzmassnahmen (z.B. Standardvertragsklauseln, Data Privacy Framework-Zertifizierung) ist die Übermittlung rechtlich heikel.
Die meisten KI-Tools – auch die kostenpflichtigen – verarbeiten Daten in US-Rechenzentren. Das heisst nicht automatisch, dass sie nicht einsetzbar sind. Aber es heisst: Die Übermittlung muss dokumentiert und rechtlich abgesichert sein.
Fehler 3: Kein Auftragsverarbeitungsvertrag (AVV)
Sobald ein externes Tool Personendaten im Auftrag Ihres Unternehmens bearbeitet – und das tut jede KI-Anwendung, der Sie Kundendaten eingeben – braucht es einen Auftragsverarbeitungsvertrag (nach revDSG: "Bearbeitung durch Dritte").
Die kostenlosen Varianten bieten keinen. Die Business-Versionen hingegen stellen standardmässig einen Data Processing Addendum (DPA) bereit – oft per einfachem Klick in den Einstellungen aktivierbar, von vielen Unternehmen aber übersehen.
Fehler 4: Automatisierte Einzelentscheidungen ohne Kontrolle
Nach revDSG haben betroffene Personen das Recht, nicht einer ausschliesslich automatisierten Entscheidung unterworfen zu werden, die rechtliche Wirkungen entfaltet oder sie erheblich beeinträchtigt. Das betrifft zum Beispiel:
- KI-gestützte Vorauswahl von Bewerbungen
- Automatisierte Kreditwürdigkeitsprüfungen
- KI-gestützte Versicherungsentscheide
Ohne dokumentierten menschlichen Entscheid und klare Informationspflicht ist das nicht zulässig – unabhängig davon, wie gut die KI arbeitet.
Fehler 5: Schatten-KI nicht dokumentiert
Das revDSG verlangt ein Bearbeitungsverzeichnis: eine Auflistung aller Verfahren, in denen Personendaten bearbeitet werden, inklusive Zweck, Datenkategorien und beteiligter Dritter. Für Unternehmen mit weniger als 250 Mitarbeitenden gibt es Ausnahmen – aber nur, wenn kein hohes Risiko besteht.
KI-Tools zählen praktisch immer als "beteiligte Dritte". Wenn niemand weiss, welche Tools Ihre Mitarbeitenden nutzen, können Sie das Verzeichnis nicht führen. Und ohne Verzeichnis lässt sich im Ernstfall nicht belegen, dass Sie Ihrer Dokumentationspflicht nachgekommen sind.
Business-Version vs. Gratis-Zugang: Der kleine aber feine Unterschied
Die gute Nachricht: Die meisten Datenschutzrisiken lösen sich mit dem Wechsel auf die geschäftliche Version des jeweiligen Tools. Die Mehrkosten liegen bei CHF 25–60 pro Nutzer und Monat – ein überschaubarer Betrag im Vergleich zum Risiko.
| Merkmal | Gratis-Version | Business-Version |
|---|---|---|
| Training auf Eingaben | Standardmässig ja | Standardmässig nein |
| Auftragsverarbeitungsvertrag | Nein | Ja (oft per Klick) |
| Datenresidenz wählbar | Nein | Oft EU oder Schweiz |
| Administrative Kontrolle | Keine | Zentrale Verwaltung |
| Audit-Logs | Keine | Verfügbar |
| Single Sign-On (SSO) | Nein | Ja |
Die Entscheidung ist nicht, ob sich Business-Versionen rechtfertigen lassen. Die Entscheidung ist, ob Sie sich den rechtlichen und reputationellen Schaden leisten können, wenn ein Mitarbeiter mit der Gratis-Version einen Fehler macht.
Datenschutz bei KI-Tools: 10-Punkte-Checkliste für KMU
Eine pragmatische Checkliste, mit der ein KMU in rund einem halben Tag die Grundlagen abdecken kann:
1. Bestandsaufnahme machen Welche KI-Tools werden heute im Unternehmen genutzt? Eine anonyme Umfrage unter Mitarbeitenden fördert oft erstaunliche Ergebnisse zutage.
2. Auf Business-Versionen umstellen Alle Tools, die für Geschäftsdaten genutzt werden, auf kostenpflichtige Varianten mit AVV umstellen. Private Nutzung trennen.
3. Auftragsverarbeitungsverträge abschliessen Bei jedem Anbieter prüfen, ob ein DPA verfügbar ist – und ihn aktivieren. Die Dokumente ablegen.
4. Datenresidenz prüfen Wo werden Daten verarbeitet? Falls möglich, EU- oder Schweiz-Residenz wählen. Bei US-Verarbeitung zusätzliche Schutzmassnahmen dokumentieren.
5. KI-Nutzungsrichtlinie erstellen Zwei Seiten reichen: Was darf hinein, was nicht? Welche Tools sind freigegeben? Wer darf automatisierte Entscheidungen treffen?
6. Mitarbeitende schulen Eine 60-Minuten-Schulung mit konkreten Beispielen bringt mehr als ein 50-seitiges Handbuch, das niemand liest.
7. Bearbeitungsverzeichnis ergänzen Jedes eingesetzte KI-Tool mit Zweck, Datenkategorien, Speicherort und Rechtsgrundlage dokumentieren.
8. Information der Betroffenen Datenschutzerklärung auf der Website aktualisieren: Welche KI-Tools werden zur Bearbeitung welcher Daten eingesetzt?
9. Automatisierte Entscheidungen identifizieren Überall dort, wo KI rechtliche oder erhebliche Wirkung hat, menschliche Kontrolle und Widerspruchsmöglichkeit dokumentieren.
10. Regelmässig prüfen Der KI-Markt verändert sich monatlich. Ein jährlicher Review der eingesetzten Tools und der Nutzungsrichtlinie sollte im Kalender stehen.
Was in eine KI-Nutzungsrichtlinie gehört
Eine gute Richtlinie ist kurz, verständlich und praktikabel. Ein Entwurfsraster:
Freigegebene Tools Konkrete Liste mit Tool-Name, Version (Business/Enterprise), Einsatzzweck. Alles, was nicht auf der Liste steht, braucht vorgängige Freigabe.
Was darf rein Öffentlich verfügbare Informationen, anonymisierte Daten, eigene Kreativarbeit. Klare Beispiele geben.
Was darf nicht rein Personendaten von Kunden, Mitarbeitenden, Lieferanten. Geschäftsgeheimnisse, Preise, Verträge, Strategiedokumente. Besonders schützenswerte Daten (Gesundheit, Religion, politische Ansichten). Auch hier: Beispiele konkreter als abstrakte Regeln.
Output-Verantwortung KI-Ausgaben sind Entwürfe, keine Endprodukte. Inhalte vor Weiterverwendung prüfen, Quellen verifizieren, Urheberrechte beachten.
Kennzeichnungspflicht Wann muss KI-Nutzung gegenüber Kunden oder Geschäftspartnern kenntlich gemacht werden? Pragmatischer Richtwert: immer dort, wo es um rechtlich verbindliche Inhalte geht (Angebote, Verträge, Beratungsempfehlungen).
Vorfall-Meldung Wenn ein Mitarbeitender versehentlich Personendaten in ein ungeeignetes Tool eingegeben hat: Wer wird wie schnell informiert? Klare Prozesse senken die Hemmschwelle, Vorfälle zu melden.
Eine solche Richtlinie ist in wenigen Stunden erstellt und bringt mehr Sicherheit als jede technische Massnahme.
Was bei EU-Geschäft zusätzlich gilt
Wer Kunden oder Geschäftspartner in der EU hat, sollte den EU AI Act nicht ignorieren – auch wenn sich die Schweiz noch in der Regulierungsfindung befindet:
- Risikoklassifizierung: Jedes eingesetzte KI-System in eine der vier Kategorien einstufen (unzulässig / hochrisiko / begrenztes Risiko / minimales Risiko). Die meisten KMU-Anwendungen fallen in die beiden unteren Kategorien.
- Transparenzpflichten: Bei KI-generierten Inhalten, Chatbots, Deepfakes und biometrischen Systemen besteht Kennzeichnungspflicht.
- KI-Kompetenz (AI Literacy): Seit Februar 2025 gilt in der EU die Pflicht, dass Mitarbeitende, die KI einsetzen, über ausreichende Kompetenz verfügen. Dokumentierte Schulungen sind der einfachste Nachweis.
Für viele Schweizer KMU ist der EU AI Act weniger eine direkte Pflicht als ein Qualitätsmassstab, an dem sich deutsche, österreichische oder französische Geschäftspartner orientieren. Wer heute die Grundlagen dokumentiert, ist morgen nicht im Nachteil.
Fazit: Datenschutz bei KI-Tools ist kein Grund, auf KI zu verzichten
Die häufigste Reaktion von KMU-Geschäftsleitungen auf Datenschutz bei KI-Tools ist einer von zwei Extremen: entweder komplettes KI-Verbot oder komplette Ignoranz. Beides ist falsch.
Richtig ist der pragmatische Mittelweg: Business-Versionen einsetzen, klare Regeln schaffen, Mitarbeitende schulen, dokumentieren. Der Aufwand ist überschaubar – typischerweise ein bis zwei Arbeitstage pro Jahr für ein KMU mit 20 Mitarbeitenden. Der Nutzen ist doppelt: rechtliche Sicherheit und klarere interne Abläufe.
Die Alternative – warten, bis ein konkreter Vorfall oder eine Kontrolle kommt – ist teurer. Nicht nur in CHF, sondern auch in Vertrauen.
Unsicher, ob Ihre aktuelle KI-Nutzung DSG-konform ist – oder brauchen Sie Unterstützung beim Aufbau einer Nutzungsrichtlinie? Jetzt unverbindlich anfragen – mit einer ehrlichen Einschätzung, wo Sie stehen und was die nächsten sinnvollen Schritte sind.
Weiterführend: KI-Integration für KMU: Wo anfangen? – Einstiegspunkte für das erste KI-Projekt, Die besten KI-Tools für KMU 2025 – Konkrete Tool-Empfehlungen mit Einsatzszenarien, und KI-Assistent im Büroalltag – Praxisnaher Leitfaden für die tägliche Anwendung.


