Schatten-KI: Das unterschätzte Risiko im Schweizer KMU
Was ist Schatten-KI?
Schatten-KI bezeichnet den Einsatz von KI-Tools durch Mitarbeitende, der ausserhalb der Kontrolle und Kenntnis der IT-Abteilung, des Managements oder des Verwaltungsrats stattfindet. Der Begriff ist analog zu «Shadow IT» — also dem inoffiziellen Einsatz von Software — aber mit einer neuen Dimension: KI-Modelle verarbeiten Eingaben und lernen dabei (oder geben Daten an Dritte weiter), auf eine Art, die bei klassischer Software nicht möglich war.
Das Problem ist grösser als die meisten Verwaltungsräte ahnen. 37 Prozent der Schweizer KMU erproben bereits KI-Anwendungen — laut eigenen Angaben. Die tatsächliche Verbreitung dürfte höher liegen, weil «Erproben» oft informell beginnt: Ein Mitarbeitender in der Buchhaltung nutzt ChatGPT für Textformulierungen. Die Marketingabteilung verwendet Copilot für Präsentationen. Der Aussendienst fragt KI nach Gesprächsstrategien — und fügt dabei Kundendaten als Kontext ein.
Warum das ein Verwaltungsrats-Problem ist
Es wäre verlockend, Schatten-KI als operatives IT-Problem abzutun. Das ist ein Fehler.
Wenn ein Mitarbeitender Kundendaten, Finanzprojektionen oder M&A-relevante Informationen in ein öffentliches KI-Modell eingibt, entstehen drei Risikoebenen, die alle auf Stufe VR relevant sind:
Datenschutz-Compliance (nDSG): Seit dem 1. September 2023 gilt das revidierte Schweizer Datenschutzgesetz. Die Eingabe von Personendaten in externe KI-Systeme, ohne entsprechende Datenverarbeitungsverträge und -dokumentation, kann als Datenschutzverletzung qualifiziert werden. Bussgelder bis CHF 250'000 sind möglich.
Vertragliche Risiken: Viele Kundenverträge und NDAs enthalten Klauseln zur Vertraulichkeit, die den Export von Informationen an Dritte untersagen. Ein öffentliches KI-Modell ist ein Dritter im Sinne dieser Verträge. Der Nachweis, dass keine Informationen «nach aussen geflossen» sind, ist im Nachhinein kaum zu führen.
Reputationsschäden: KI-Modelle können Eingaben aus Trainingsläufen in anderen Kontexten reproduzieren. Was heute als Eingabe gilt, kann morgen als Output erscheinen — bei einem anderen Nutzer, in einem anderen Kontext. Das Risiko ist gering, aber nicht null. Und bei sensiblen Geschäftsinformationen reicht ein einziger Vorfall.
Die Realität in Schweizer KMU
Gespräche mit VR-Mitgliedern zeigen ein konsistentes Bild: Die meisten Gremien kennen die offiziell eingesetzten digitalen Tools ihrer Unternehmen. Wenige kennen die informell verwendeten.
Das liegt nicht an schlechtem Willen. Es liegt daran, dass KI-Tools niederschwellig zugänglich sind, keine IT-Infrastruktur benötigen und individuell als produktivitätssteigernd erlebt werden. Für einen Mitarbeitenden ist ChatGPT ein Hilfsmittel wie ein Taschenrechner — keine gefährliche Software.
Genau hier liegt die Governance-Lücke: Die Wahrnehmung auf Mitarbeitendenebene («nützliches Tool») unterscheidet sich fundamental von der Risikobetrachtung auf VR-Ebene («unkontrollierter Datenfluss»).
Was ein Verwaltungsrat konkret fordern sollte
Der Verwaltungsrat hat keine operative Verantwortung für den Tages-IT-Betrieb. Er hat aber die Aufsichtspflicht, sicherzustellen, dass das Unternehmen mit angemessenen Kontrollen ausgestattet ist.
Forderung 1: KI-Inventar und Richtlinie
Die Geschäftsleitung sollte dem VR jährlich ein aktualisiertes Inventar der eingesetzten KI-Tools vorlegen — sowohl offizieller als auch inoffiziell bekannter Systeme. Eine KI-Nutzungsrichtlinie sollte klar regeln, welche Daten welchen Tools zugänglich gemacht werden dürfen.
Forderung 2: Datenklassifikation
Nicht alle Daten sind gleich sensibel. Eine Klassifikation — öffentliche Informationen, interne Informationen, vertrauliche Informationen — ermöglicht differenzierte Nutzungsregeln, ohne den produktiven Einsatz von KI zu unterbinden.
Forderung 3: Mitarbeitende schulen, nicht nur einschränken
Verbote allein schaffen Schatten. Sinnvoller ist ein Schulungsprogramm, das Mitarbeitenden erklärt, warum Datensorgfalt beim KI-Einsatz wichtig ist — und welche Tools erlaubt sind.
Das Fazit
Schatten-KI ist kein technisches Problem. Es ist ein Governance-Problem. Und Governance-Probleme gehören auf die Agenda des Verwaltungsrats.
Die Frage, die sich VR-Mitglieder stellen sollten, ist nicht «Haben unsere Mitarbeitenden KI-Tools?». Fast sicher haben sie welche. Die richtige Frage ist: «Haben wir als Gremium die Rahmenbedingungen geschaffen, unter denen dieser Einsatz kontrolliert und rechtskonform stattfindet?»
Diese Antwort kann nur der Verwaltungsrat geben.
Marco Quinter berät Schweizer Verwaltungsräte bei der Implementierung von KI-Governance-Frameworks. Dieser Artikel basiert auf Gesprächen mit VR-Mitgliedern und Geschäftsleitungen von Schweizer KMU.