Agentic AI im Verwaltungsrat: Wer haftet, wenn der Algorithmus entscheidet?
Das Ende des Copiloten
Ein autonomes System hat heute Morgen einen bindenden Vertrag unterzeichnet. Kein Mensch hat den Vorgang geprüft. Das ist kein Einzelfall. Es ist der aktuelle Stand in Unternehmen ohne Vorgaben auf VR-Ebene.
Aktuell haben weniger als 5 Prozent der Unternehmensanwendungen einen KI-Agenten. Bis Ende 2026 werden es laut Gartner 40 Prozent sein. Das ist kein gradueller Fortschritt. Das ist ein struktureller Bruch.
Der Unterschied zwischen einem Copiloten und einem Agenten ist fundamental. Ein Copilot macht Vorschläge. Ein Mensch entscheidet. Ein Agent handelt autonom. Er orchestriert Prozesse, schliesst Transaktionen ab, kommuniziert mit Kunden und Lieferanten, ohne dass ein Mensch jeden Schritt freigibt.
In einem Unternehmen, das KI-Agenten einsetzt, treffen Algorithmen täglich hunderte Entscheide. Mit echten Konsequenzen. Wer haftet für diese Entscheide? Der Algorithmus nicht. Die Frage landet beim Verwaltungsrat.
Autonomie und Haftung
Art. 716a OR verankert die unübertragbare Oberaufsichtspflicht des Verwaltungsrats. Diese Pflicht gilt unabhängig davon, ob ein Mensch oder ein Algorithmus die operative Entscheidung trifft. Wer als Verwaltungsrat KI-Agenten im Unternehmen einsetzen lässt, ohne einen Governance-Rahmen zu definieren, verletzt diese Oberaufsichtspflicht.
Die Begründung ist juristisch klar. Die Business Judgement Rule schützt vor Haftung, wenn Entscheide auf vernünftiger Informationsbasis getroffen wurden. Bei einem KI-Agenten heisst das: Das Gremium muss verstehen, welche Entscheide der Agent autonom trifft, welche Daten er dabei nutzt, und wo die Grenzen seiner Autonomie liegen. Fehlt dieses Verständnis, ist das Schutzschild der Business Judgement Rule nicht anwendbar.
Der EU AI Act Art. 9 verschärft diesen Rahmen für Hochrisiko-KI-Systeme. Er verlangt technische Robustheit, Aufsichtsmechanismen und die Fähigkeit zur sofortigen Abschaltung. Auch wenn die Schweiz kein EU-Mitglied ist: Unternehmen, die im EU-Markt tätig sind oder EU-Kundendaten verarbeiten, fallen direkt unter diesen Rahmen.
Outcome-basierte Modelle
Für Schweizer KMU bedeutet Agentic AI eine neue Logik. KI-Agenten sind keine IT-Investition mehr. Sie sind Umsatzträger. Ein Agent, der Leads qualifiziert, Angebote erstellt und Follow-ups terminiert, liefert einen messbaren Beitrag an den EBITDA. Die VR-Frage lautet nicht mehr: "Was kostet uns KI?" Sie lautet: "Welchen Ertrag liefern unsere KI-Agenten, und welches Risiko gehen wir dabei ein?"
Diese Verschiebung von Kostenbetrachtung zu Ertragsperspektive verändert die Governance-Anforderungen. Wer KI als Ertragstreiber steuert, braucht andere Kontrollmechanismen als wer KI als Effizienz-Tool einsetzt.
Die Kontroll-Architektur
Die Mehrzahl der Agentic-AI-Projekte scheitert nicht an der Technologie. Sie scheitert an unklarem Geschäftswert und unzureichenden Kontrollmechanismen. Das ist Governance-Versagen, nicht Technik-Versagen.
Für den Verwaltungsrat folgen daraus drei nicht verhandelbare Anforderungen:
1. Wesentlichkeitsschwelle definieren
Welche Entscheide darf ein KI-Agent autonom treffen? Und ab welcher Tragweite braucht es zwingend menschliche Freigabe? Diese Grenze muss das Gremium formell beschliessen. Nicht die IT. Nicht die GL.
2. Abschalt-Protokoll verankern
Jeder KI-Agent braucht einen definierten Kill-Switch. Wer hat die Kompetenz, einen Agenten sofort zu stoppen? Unter welchen Bedingungen wird gestoppt? Das ist kein technisches Detail. Das ist eine Governance-Entscheidung.
3. Audit-Trail-Pflicht einführen
Welche Entscheide hat der Agent getroffen? Wann? Mit welchen Daten? Wer hat die Entscheide retrospektiv geprüft? Ohne diesen Audit-Trail ist die Oberaufsichtspflicht nach Art. 716a OR strukturell nicht erfüllbar. Mit Haftungskonsequenzen nach Art. 754 OR.
Das ist keine abstrakte Warnung. Es trifft direkt auf Schweizer Verwaltungsräte zu. Die Projekte, die scheitern, scheitern nicht an der KI. Sie scheitern an unzureichender Governance. Genau das ist die unübertragbare Aufgabe des Verwaltungsrats.
Quellen:
- Gartner: «Gartner Predicts 40% of Enterprise Apps Will Feature Task-Specific AI Agents by 2026» (August 2025). Pressemitteilung.
- EU AI Act Art. 9: Risikomanagementsystem für Hochrisiko-KI-Systeme (Verordnung (EU) 2024/1689).
- Schweizer Obligationenrecht Art. 716a (Unübertragbare und unentziehbare Aufgaben des Verwaltungsrats) und Art. 754 (Verantwortlichkeit).
Marco Quinter begleitet Schweizer Verwaltungsräte bei der Governance autonomer KI-Systeme. Verwaltungsrat, ehemaliger CBO und CIO.