Agentic AI im Verwaltungsrat: Wer haftet, wenn der Algorithmus entscheidet?
Das Ende des Copiloten
Aktuell haben weniger als 5 Prozent der Unternehmensanwendungen einen KI-Agenten. Bis Ende 2026 werden es laut Gartner 40 Prozent sein. Das ist kein gradueller Fortschritt. Das ist ein struktureller Bruch.
Der Unterschied zwischen einem Copiloten und einem Agenten ist fundamental. Ein Copilot macht Vorschläge. Ein Mensch entscheidet. Ein Agent handelt autonom. Er orchestriert Prozesse, schliesst Transaktionen ab, kommuniziert mit Kunden und Lieferanten, ohne dass ein Mensch jeden Schritt freigibt.
In einem Unternehmen, das KI-Agenten einsetzt, treffen Algorithmen täglich hunderte Entscheide. Mit echten Konsequenzen. Wer haftet für diese Entscheide? Der Algorithmus nicht. Die Frage landet beim Verwaltungsrat.
Autonomie und Haftung
Art. 716a OR verankert die unübertragbare Oberaufsichtspflicht des Verwaltungsrats. Diese Pflicht gilt unabhängig davon, ob ein Mensch oder ein Algorithmus die operative Entscheidung trifft. Wer als Verwaltungsrat KI-Agenten im Unternehmen einsetzen lässt, ohne einen Governance-Rahmen zu definieren, verletzt diese Oberaufsichtspflicht.
Die Begründung ist juristisch klar. Die Business Judgement Rule schützt vor Haftung, wenn Entscheide auf vernünftiger Informationsbasis getroffen wurden. Bei einem KI-Agenten heisst das: Das Gremium muss verstehen, welche Entscheide der Agent autonom trifft, welche Daten er dabei nutzt, und wo die Grenzen seiner Autonomie liegen. Fehlt dieses Verständnis, ist das Schutzschild der Business Judgement Rule nicht anwendbar.
Der EU AI Act Art. 9 verschärft diesen Rahmen für Hochrisiko-KI-Systeme. Er verlangt technische Robustheit, Aufsichtsmechanismen und die Fähigkeit zur sofortigen Abschaltung. Auch wenn die Schweiz kein EU-Mitglied ist: Unternehmen, die im EU-Markt tätig sind oder EU-Kundendaten verarbeiten, fallen direkt unter diesen Rahmen.
Outcome-basierte Modelle
Der wirtschaftliche Anreiz für Agentic AI ist erheblich. Gartner schätzt, dass bis 2035 30 Prozent des Umsatzes im Unternehmensanwendungsmarkt auf agentenbasierte KI entfallen werden. Der Markt wird auf über 450 Milliarden Dollar geschätzt.
Für Schweizer KMU bedeutet das eine neue Logik. KI-Agenten sind keine IT-Investition mehr. Sie sind Umsatzträger. Ein Agent, der Leads qualifiziert, Angebote erstellt und Follow-ups terminiert, liefert einen messbaren Beitrag an den EBITDA. Die VR-Frage lautet nicht mehr: "Was kostet uns KI?" Sie lautet: "Welchen Ertrag liefern unsere KI-Agenten, und welches Risiko gehen wir dabei ein?"
Diese Verschiebung von Kostenbetrachtung zu Ertragsperspektive verändert die Governance-Anforderungen. Wer KI als Ertragstreiber steuert, braucht andere Kontrollmechanismen als wer KI als Effizienz-Tool einsetzt.
Die Kontroll-Architektur
Gartner warnt ausdrücklich: 40 Prozent der Agentic-AI-Projekte werden bis 2027 abgebrochen. Hauptursache ist nicht fehlende Technologie. Hauptursache sind unklarer Geschäftswert und unzureichende Kontrollmechanismen. Governance-Versagen, nicht Technik-Versagen.
Für den Verwaltungsrat folgen daraus drei nicht verhandelbare Anforderungen:
1. Wesentlichkeitsschwelle definieren
Welche Entscheide darf ein KI-Agent autonom treffen? Und ab welcher Tragweite braucht es zwingend menschliche Freigabe? Diese Grenze muss das Gremium formell beschliessen. Nicht die IT. Nicht die GL.
2. Abschalt-Protokoll verankern
Jeder KI-Agent braucht einen definierten Kill-Switch. Wer hat die Kompetenz, einen Agenten sofort zu stoppen? Unter welchen Bedingungen wird gestoppt? Das ist kein technisches Detail. Das ist eine Governance-Entscheidung.
3. Audit-Trail-Pflicht einführen
Welche Entscheide hat der Agent getroffen? Wann? Mit welchen Daten? Wer hat die Entscheide retrospektiv geprüft? Ohne diesen Audit-Trail ist die Oberaufsichtspflicht nach Art. 716a OR strukturell nicht erfüllbar. Mit Haftungskonsequenzen nach Art. 754 OR.
Das 40-Prozent-Scheitern von Gartner ist keine abstrakte Statistik. Es ist eine Warnung, die direkt auf Schweizer Verwaltungsräte zielt. Die Projekte, die scheitern, scheitern nicht an der KI. Sie scheitern an unzureichender Governance. Genau das ist die unübertragbare Aufgabe des Verwaltungsrats.
Quellen:
- Gartner: «Gartner Predicts 40% of Enterprise Apps Will Feature Task-Specific AI Agents by 2026» (August 2025). Pressemitteilung.
- EU AI Act Art. 9: Risikomanagementsystem für Hochrisiko-KI-Systeme (Verordnung (EU) 2024/1689).
- Schweizer Obligationenrecht Art. 716a (Unübertragbare und unentziehbare Aufgaben des Verwaltungsrats) und Art. 754 (Verantwortlichkeit).
Marco Quinter ist Verwaltungsrat, ehemaliger CBO (CHF 100 Mio. EBITDA) und CIO. Er verankert KI-Strategie und Governance im Schweizer VR-Gremium.