Die Debatte um die Aktivierung von Microsoft Copilot im Schweizer Parlament macht deutlich, wie schnell technische Innovationen politische Institutionen vor Fragen zu Governance, Verantwortung und digitaler Souveränität stellen — und wie sehr der Erfolg solcher Projekte von klarer Führung, kompetentem Rollout und transparenter Kommunikation abhängt. swissAI begrüßt grundsätzlich den Einsatz generativer KI als Effizienztreiber, kritisiert aber die Art der Einführung und fordert politische Klärung, systematischen Kompetenzaufbau und unabhängige Prüfmechanismen.
Seit 2024/2025 haben Microsofts Copilot-Funktionalitäten schrittweise Einzug in Microsoft 365-Umgebungen gehalten; einige Funktionen werden über Microsoft-eigene Rollout-Mechanismen ausgerollt, andere erfordern spezifische Lizenzen und administrative Konfigurationen. Administratoren können Copilot-Szenarien zentral steuern, Einstellungen für Datenzugriff und Nutzungsrechte vornehmen und bestimmte Features deaktivieren. Gleichzeitig dokumentieren Microsoft-Publikationen, dass es verschiedene Ebenen von Copilot-Diensten und Steuerungstools im Microsoft 365 Admin Center gibt. Diese technische Steuerbarkeit bildet die Grundlage für die zentrale Frage: Wer entscheidet über die Einführung — und wie wird Verantwortung wahrgenommen? Die Diskussion in der Schweiz wurde durch Recherchen und öffentliche Statements angeheizt: Recherchen von Reto Vogt für die «NZZ am Sonntag» zeigen, dass die Aktivierung von Copilot im Parlamentskontext in einer Form erfolgte, die swissAI und andere Beobachter als unzureichend gesteuert und ungenügend transparent bezeichnen. swissAI hat dies in einer Mitteilung kommentiert und konkretes Handeln gefordert.
Empfohlene Sofortmaßnahmen in einem Satz: Transparenzbericht veröffentlichen, Admin-Policies prüfen und anpassen, Pflichtschulungen einführen, externe Audits beauftragen — und die parlamentarische Debatte über digitale Souveränität und rechtliche Rahmenbedingungen ernsthaft führen.
Source: markt-kom.com SwissAI fordert mehr Klarheit und Kompetenz im Umgang mit KI - m&k
Hintergrund / Überblick
Seit 2024/2025 haben Microsofts Copilot-Funktionalitäten schrittweise Einzug in Microsoft 365-Umgebungen gehalten; einige Funktionen werden über Microsoft-eigene Rollout-Mechanismen ausgerollt, andere erfordern spezifische Lizenzen und administrative Konfigurationen. Administratoren können Copilot-Szenarien zentral steuern, Einstellungen für Datenzugriff und Nutzungsrechte vornehmen und bestimmte Features deaktivieren. Gleichzeitig dokumentieren Microsoft-Publikationen, dass es verschiedene Ebenen von Copilot-Diensten und Steuerungstools im Microsoft 365 Admin Center gibt. Diese technische Steuerbarkeit bildet die Grundlage für die zentrale Frage: Wer entscheidet über die Einführung — und wie wird Verantwortung wahrgenommen? Die Diskussion in der Schweiz wurde durch Recherchen und öffentliche Statements angeheizt: Recherchen von Reto Vogt für die «NZZ am Sonntag» zeigen, dass die Aktivierung von Copilot im Parlamentskontext in einer Form erfolgte, die swissAI und andere Beobachter als unzureichend gesteuert und ungenügend transparent bezeichnen. swissAI hat dies in einer Mitteilung kommentiert und konkretes Handeln gefordert. Was genau berichtet wurde: Die Kernvorwürfe
- Einführung ohne offiziellen politischen Entscheid: swissAI und investigative Recherchen berichten, dass Microsofts Copilot-Funktionen im Parlamentsumfeld aktiviert wurden, ohne dass ein klarer, öffentlicher Beschluss des Bundes oder definierte Governance-Mechanismen vorlagen. Diese Aktivierung sei faktisch „durch die Hintertür“ erfolgt.
- Fehlender Kompetenzaufbau: Es gab nach Berichten keine flächendeckenden Schulungen oder verbindlichen Leitlinien für Parlamentsmitglieder und Verwaltungsangestellte, obwohl beide mit sensiblen Informationen arbeiten. swissAI bezeichnet das als verpasste Chance für eine verantwortungsvolle Einführung.
- Unklare Verantwortlichkeiten und Transparenzprobleme: Weder klare Zuständigkeiten noch transparente Kommunikationsprozesse seien ausreichend etabliert worden. Das erzeugt eine rechtliche und sicherheitspolitische Grauzone, so die Kritik.
Warum swissAI alarmiert ist: Governance, Souveränität und Vertrauen
swissAI formuliert drei zentrale Anforderungen: politische Klärung, gezielter Kompetenzaufbau und Einbindung unabhängiger Expertise. Der Verband betont, dass die direkte Demokratie der Schweiz auf Vertrauen in staatliche Institutionen baut; eine unkoordinierte KI-Einführung gefährde dieses Vertrauen. Zentrale Fragen, die swissAI nennt und die politisch beantwortet werden müssen:- Welche KI-Anwendungen sind im parlamentarischen Umfeld zulässig?
- Welche Daten dürfen KI-Systeme verarbeiten?
- Welches Verständnis von digitaler Souveränität gilt für den Bund?
- Wer trägt rechtlich und organisatorisch die Verantwortung bei Vorfällen?
Die technische Realität: Können Anbieter Funktionen „einfach aktivieren“?
Die Antwort lautet: Es kommt darauf an. Microsofts Dokumentation stellt klar, dass Copilot-Szenarien in vielen Fällen administrative Steuerung und Lizenzzuweisung benötigen, und dass das Microsoft 365 Admin Center über ein Copilot Control System verfügt, mit dem Tenant-Administratoren Zugriff, Datenzugriffspolitiken und Copilot-Aktionen konfigurieren können. Gleichzeitig zeigen Microsoft-Roadmap-Einträge und Message-Center-Meldungen, dass bestimmte Funktionen schrittweise und teils automatisch an Nutzerrollen oder Tenant-Eigenschaften ausgerollt werden können — insbesondere dann, wenn ein Tenant bestimmte Voraussetzungen erfüllt oder wenn Microsoft globale Produktverbesserungen verteilt. Das heißt praktisch:- Administratoren können Copilot-Lizenzen zuweisen, Features einschränken und Datenschutz-Settings setzen.
- Manche Nutzererlebnisse (z. B. Copilot-Integrationen in Windows/Edge oder Bing) können globaler verfügbar werden und verlangen zusätzliche administrative Schritte, wenn sie restriktiv gehandhabt werden sollen.
Rechtliche und sicherheitspolitische Risiken — was steht auf dem Spiel?
- Datenklassifizierung und Geheimschutz: Parlamentarische Vorgänge betreffen oft vertrauliche oder sicherheitsrelevante Daten. Ungeprüfte Verarbeitung in externen KI-Schichten kann zu Risiken in Datenschutz und Geheimhaltung führen, wenn nicht klar geregelt ist, welche Daten Eingang finden dürfen. swissAI hebt das hervor; die Bundeskanzlei fordert ebenfalls Vorgaben zu transparentem Einsatz von KI.
- Exterritoriale Gesetzeswirkungen (z. B. CLOUD Act): Praktische Bedenken hinsichtlich Zugriffsmöglichkeiten durch ausländische Behörden (etwa über US-Rechtsrahmen) sind in der Schweiz nicht neu — bereits konkrete Entscheidungen (z. B. Beschränkungen oder Vorgaben in Armee- und Behördenkontexten) zeigen die Sensibilität des Themas. Dies ist ein politisches Risiko für digitale Souveränität und ein Argument für strenge vertragliche und technische Schutzmaßnahmen.
- Fehlende Audits und Nachvollziehbarkeit: Bei KI-Systemen sind Erklärbarkeit und Reproduzierbarkeit oft limitiert. Wird Copilot in Entscheidungsprozesse eingebunden ohne Protokollierung, Auditoren oder unabhängige Prüfmechanismen, steigt das Governance-Risiko erheblich. swissAI fordert deshalb die Einbindung externer Fachstellen für technische und ethische Bewertungen.
- Haftungsfragen: Wer haftet, wenn ein KI-System falsche Informationen generiert und daraus parlamentarische Fehlentscheidungen folgen? Solche Fragen sind in der Praxis komplex und erfordern klare Verantwortungszuweisungen in Reglementen und Verträgen. Diese Punkte sind rechtlich oft kompliziert und sollten vor Einführung geregelt werden.
swissAI’s Empfehlungen — die vorgeschlagene Drei-Stufen-Strategie
swissAI empfiehlt ein strukturiertes Vorgehen mit drei klaren Schritten:- Politische Grundsatzklärung
- Breiter Dialog im Parlament darüber, welche KI-Anwendungen zulässig sind und wie digitale Souveränität langfristig sichergestellt wird.
- Systematischer Kompetenzaufbau
- Evaluation des Schulungsbedarfs; maßgeschneiderte Weiterbildung für Parlamentarier und Verwaltungspersonal, um Risiken und Chancen zu verstehen.
- Einbindung unabhängiger Expertise
- Externe Fachstellen sollen technische, rechtliche und ethische Bewertungen liefern; nur so ist ein datenschutzkonformer Rollout möglich.
Konkreter Handlungsplan für Parlament und Bundesverwaltung (operabel)
- Sofortmaßnahme: Transparenz schaffen
- Veröffentlichung eines klaren Statusberichts über den aktuellen Stand der Copilot-Aktivierungen, betroffene Benutzergruppen und Datenklassen.
- Einrichtung eines zentralen Ansprechpartners für KI im Parlamentsdienst mit Berichterstattungspflicht.
- Mittelfristig: Governance-Regelwerk
- Formale Policy für Einsatz, Datenklassifizierung, Logging und Notfallabschaltung.
- Einbindung juristischer Prüfung (inkl. Cloud- und Geheimschutzfragen) in Beschaffungsverfahren.
- Schulung & Kulturwandel
- Pflicht-Workshops für Mitarbeitende und Informationssessions für Ratsmitglieder.
- Standardisierte Benutzerleitfäden und „Do’s & Don’ts“ für Prompts und Dateninputs.
- Technische Kontrolle
- Nutzung der vorhandenen Admin-Kontrollen (Copilot Control System): granulare Rollout-Policies, Opt-in/Opt-out-Mechanismen, Audit-Logs aktivieren.
- Externe Validierung
- Unabhängige Audits (Sicherheit, Datenschutz, Ethik) vor dem produktiven Einsatz.
- Regelmäßige Review-Mechanismen und Berichtspflicht an parlamentarische Ausschüsse.
Was Unternehmen und IT-Verantwortliche lernen sollten
- Proaktive Governance zahlt sich aus: Organisationen sollten bei SaaS- und KI-Produkten nicht warten, bis Funktionen automatisch verfügbar werden. Eine proaktive Rollout-Strategie verhindert Überraschungen und schützt sensible Daten.
- Technologie ist steuerbar — trotzdem fehlt oft der Prozess: Microsoft liefert Admin-Tools und Richtlinien; die Verantwortung liegt allerdings beim Tenant-Admin, Policies zu definieren und Schulungen durchzuführen. Das ist in vielen Organisationen die Schwachstelle, nicht die Technologie selbst.
- Souveränität braucht klare Vertrags- und technische Maßnahmen: Für Staaten und Behörden gilt: Vertragsklauseln, technische Isolationsmaßnahmen und gegebenenfalls lokale oder souveräne Cloudlösungen sind erforderlich, um extraterritoriale Rechtsrisiken zu adressieren. Praktische Fälle (z. B. Kommunikationsvorgaben der Armee) haben diese Bedenken untermauert.
Kritische Bewertung: Stärken der Argumente — und offene Fragen
Stärken:- swissAI bringt ein konstruktives, praxisorientiertes Forderungspaket ein, das Governance, Kompetenz und unabhängige Prüfung kombiniert — das sind genau die Hebel, die verwaltungsnahe KI-Projekte brauchen.
- Microsofts Dokumentation zeigt, dass technische Kontrollmechanismen existieren; die Diskussion dreht sich somit um verantwortliches Management und nicht um eine angebliche Unvermeidbarkeit von Risiken.
- Verifizierbarkeit interner Abläufe: Viele Berichte basieren auf internen Aussagen und investigativen Recherchen; vollständige Einsicht in Admin-Logs, Vertragsdetails oder interne Risikobewertungen liegt öffentlich nicht vor. Daher bleiben einige Sachverhalte faktisch teilweise unbestätigt. Diese Unschärfe muss durch transparente Offenlegung reduziert werden.
- Grenzen technischer Steuerbarkeit: Obwohl Admin-Tools existieren, können Roadmap-Änderungen, globale Feature-Rollouts oder unbeabsichtigte Interaktionen (z. B. mit Edge/Windows-Integrationen) zu Lücken führen, wenn Governance-Prozesse nicht Schritt halten.
- Politische Dimension der Souveränität: Rechtliche Rahmenbedingungen wie der US CLOUD Act bleiben ein geopolitisches Risiko, das technische Absicherungen allein nicht vollständig eliminieren können. Hier sind politische und vertragliche Lösungen erforderlich.
Fazit: Verantwortung statt Zufall — wie die Schweiz ihren Vorteil nutzt
Die Kontroverse um Copilot im Parlament ist weniger ein Technologie-Streit als ein Governance-Problem. Die technischen Werkzeuge für administrativen Schutz und Steuerung sind vorhanden; die Herausforderung liegt in politischer Führung, klaren Prozessen und dem Aufbau von Kompetenzen. swissAI bringt mit seiner Dreistufen-Strategie eine pragmatische Roadmap ein, die mit bestehenden Bundesvorgaben zur KI-Nutzung kompatibel ist. Wenn die Schweiz ihre vorhandene KI-Expertise nutzen will, dann geht das nur mit Souveränität, Transparenz und professionellem Management — nicht durch das blinde Vertrauen auf Lizenzmechanismen oder automatische Rollouts. Politische Verantwortung, technische Kontrolle und unabhängige Prüfung müssen Hand in Hand gehen, damit KI nicht nur Prozesse erleichtert, sondern auch das öffentliche Vertrauen stärkt.Empfohlene Sofortmaßnahmen in einem Satz: Transparenzbericht veröffentlichen, Admin-Policies prüfen und anpassen, Pflichtschulungen einführen, externe Audits beauftragen — und die parlamentarische Debatte über digitale Souveränität und rechtliche Rahmenbedingungen ernsthaft führen.
Source: markt-kom.com SwissAI fordert mehr Klarheit und Kompetenz im Umgang mit KI - m&k