8 KI bei Investor Relations - Regulatorischer Überblick

Jonas Tresch, Associate, Kellerhals Carrard
Dr. Rehana Harasgama, Partnerin, Kellerhals Carrard
Luca Bianchi, Partner, Kellerhals Carrard

21.04.2026

I. Einleitung

Der Einsatz künstlicher Intelligenz (KI) im Bereich Investor Relations (IR) birgt enorme Chancen zur Effizienzsteigerung und zur Gewinnung tieferer Marktkenntnisse. Damit diese Potenziale wertstiftend genutzt werden können, muss der Einsatz von KI regulatorisch korrekt aufgesetzt werden. Dabei stehen insbesondere KI-spezifische Regulierungen, immaterialgüter- und finanzmarktrechtliche Aspekte sowie Datenschutz und Cybersecurity im Vordergrund. Der vorliegende Artikel fokussiert sich dabei ausschliesslich auf anwendbare KI-Regulierungen und die finanzmarktrechtlichen Anforderungen beim Einsatz von KI in IR mit einem Blick auf neuere Entwicklungen.

II. Status Quo und Chancen

Als digitaler Co-Pilot wird KI schon heute in vielen Unternehmen eingesetzt. Dabei kann KI durch die Übernahme von repetitiven Aufgaben mit verhältnismässig wenig (finanziellem) Aufwand zuvor gebundene Ressourcen verfügbar machen und sonst nur schwer oder nicht erreichbare Effizienzgewinne generieren. Konkret versprechen KI-Tools erhebliche Zeitersparnisse, indem sie Entwürfe für Texterstellung und -bearbeitung (bspw. Pressemitteilungen, Werbetexte sowie Q&A-Entwürfe), administrative Aufgaben wie Echtzeittranskriptionen oder das Erstellen von Investorprofilen für Meetings aus (unstrukturierten) Daten wie E-Mails oder Calls übernehmen und allgemein Berechnungen und Texte auf inhaltliche Fehler und Inkonsistenzen prüfen. Darüber hinaus ermöglicht der Einsatz von KI neue, wertvolle Erkenntnisse durch Predictive Analytics, Sentiment- und Relationship-Mining, Echtzeitpersonalisierungen (z.B. im Bereich Outreach) oder Dienstleistungen wie 24/7-Chatbots oder Roboadvisors.[1] Im Markt positionieren sich zudem Anbieter mit KI-Lösungen speziell für den Bereich Investor Relations.

III. Regulatorische Entwicklungen in der Schweiz

Auf regulatorischer Seite sind beim Einsatz von KI-basierten Tools unterschiedliche Ansätze zu berücksichtigen. In der Schweiz wird bisher bewusst auf eine umfassende, horizontale Regulierung zugunsten von gezielten, sektorspezifischen Gesetzesanpassungen verzichtet.[2] Dies entspricht dem generellen Ansatz der Schweiz, Regulierung technologieneutral zu gestalten, damit sie zukunftsbeständiger sein kann. Auch wenn die Ratifizierung der KI-Konvention des Europarats in erster Linie staatliche Akteure betrifft, ist davon auszugehen, dass der Gesetzgeber punktuell auch Querschnittsmaterien in grundrechtsrelevanten Bereichen (inkl. Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht) adressieren wird.[3] Bis Ende 2026 wird der Vernehmlassungsentwurf erwartet, welche die sektorspezifischen Gesetzesanpassungen zum Inhalt haben soll. Dieser könnte bereits erste konkrete Transparenz- und Antidiskriminierungspflichten – auch für private Akteure – festlegen. Für den Finanzsektor hat die FINMA bereits 2024 erste Anforderungen an den Einsatz von KI dargelegt. Es ist damit zu rechnen, dass hier weitere Konkretisierungen vorgenommen und Anforderungen ergänzt werden.[4] Zusätzlich zur staatlichen Normierung dürfte der Finanzsektor zunehmend eine (Selbst-)Regulierung durch Best Practices erfahren.[5] Auch der Bund setzt neben den erwarteten Gesetzesänderungen auch auf nicht-gesetzgeberische Massnahmen (wie Best Practices). Der Vorschlag für diese Massnahmen wird auch Ende 2026 erwartet.

IV. Relevanz der KI-Verordnung der EU für Schweizer IR-Officer

Unabhängig von der Schweizer Rechtslage entfaltet die europäische KI-Verordnung (EU AI Act) eine extraterritoriale Wirkung und muss deshalb miteingezogen werden, wenn KI durch IR-Officer eingesetzt werden soll. Schweizer Unternehmen können als Anbieter (Provider) oder – was in der Praxis weitaus häufiger der Fall sein dürfte – als Betreiber (Deployer) eines KI-Systems der KI-Verordnung unterstehen. Ein KI-System liegt vor, wenn ein maschinengestütztes System mit einem gewissen Grad an Autonomie aus den erhaltenen Eingaben ableitet, wie es Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generiert, die physische oder virtuelle Umgebungen beeinflussen können. Eine Unterstellung von Schweizer Unternehmen erfolgt insbesondere dann, wenn der vom KI-System erzeugte Output, also die vom System erzeugten Resultate, in der EU verwendet wird.[6] In IR dürfte das regelmässig der Fall sein, da börsenkotierte Unternehmen oft Investoren im EU-Raum haben, denen KI-generierte Analysen, Berichte oder Chatbot-Interaktionen zugestellt bzw. verfügbar gemacht werden.

Die Einstufung als Betreiber führt wiederum zu spezifischen Pflichten. Dazu gehören beim Einsatz ausserhalb des Hochrisikobereichs der KI-Verordnung insbesondere Transparenzpflichten. Hier steht die Information des Adressaten von KI-generierten Inhalten im Mittelpunkt.[7] Bei Hochrisiko-Systemen (wie z.B. KI-Systeme, die bei Kreditwürdigkeitsprüfungen oder im Bewerbungsprozess eingesetzt werden) greifen zudem weitreichende Dokumentations- und Überwachungspflichten. IR-Officer sollten dabei beachten, dass die Einstufung personalisierter Empfehlungen und Investoren-Profilings als Nicht-Hochrisiko-Anwendungen unter dem aktuellen Wortlaut der KI-Verordnung steht – eine künftige Verschärfung durch Rechtsprechung oder Gesetzgebung ist aber nicht auszuschliessen.

V. Ausgewählte finanzmarktrechtliche Aspekte

In der schweizerischen Finanzmarktregulierung wird in aller Regel eine technologieneutrale und prinzipienbasierte Betrachtungsweise angewendet und auf den Grundsatz "same business, same risks, same rules" abgestellt.[8] Dies gilt auch für neue Technologien wie KI.[9] Demnach ist beim geplanten Einsatz von KI für Investor Relations die Einhaltung der finanzmarktrechtlichen Rahmenbedingungen sicherzustellen. Aus Sicht des FIDLEG stellt sich insbesondere die Frage, ob eine Finanzdienstleistung nach Art. 3 lit. c FIDLEG, eine Prospektpflicht nach Art. 35 Abs. 1 FIDLEG oder Werbung für Finanzinstrumente gemäss Art. 68 FIDLEG vorliegt. Auch die Regularien der Börsen (insb. Ad hoc-Publizität) müssen eingehalten werden.

Der Einsatz von KI im Bereich IR berührt mehrere finanzmarktrechtliche Anforderungen. Hinsichtlich Governance, Risikomanagement und Outsourcing hat die FINMA bereits 2024 konkrete Erwartungen formuliert, die insbesondere für beaufsichtigte Banken nach BankG, Versicherer nach VAG sowie Wertpapierhäuser, Fondsleitungen und Verwalter von Kollektivvermögen nach FINIG gelten. Davon unabhängig verbleibt die Verantwortung für Richtigkeit und Vollständigkeit offengelegter Informationen stets beim Unternehmen: Eine KI-gestützte Ad-hoc-Mitteilung entbindet nicht von den entsprechenden Pflichten[10], und das Gleichbehandlungsgebot gegenüber Marktteilnehmern gilt uneingeschränkt.[11] Auch bei nichtregulierten Unternehmen ist die Einhaltung adäquater Standards für Governance, Risikomanagement und Outsourcing empfehlenswert.

Besondere Sorgfalt ist zudem geboten, wenn KI-Systeme Zugang zu nicht-öffentlichen Informationen erhalten, da dies insiderrechtliche Fragen aufwerfen kann. Soweit KI-Tools Inhalte generieren, die als Anlageempfehlungen im Sinne von Art. 3 lit. c Ziff. 4 FIDLEG qualifizieren, können überdies die Anforderungen des FIDLEG und insbesondere die Verhaltensregeln nach Art. 7 ff. FIDLEG zur Anwendung kommen.

Zusammengefasst gilt: Bei den vielfältigen Einsatzmöglichkeiten der KI im Bereich Investor Relations muss mithin die Einhaltung des Finanzmarktrechts sichergestellt werden. Die Verantwortung für die Einhaltung des Finanzmarktrechts ist nicht an KI delegierbar. Das Unternehmen bleibt grundsätzlich für die Compliance verantwortlich. Nach heutigem Stand der Dinge bleibt ein «Human-in-the-Loop» bei der Überprüfung KI-generierter Outputs regulatorisch und haftungsrechtlich in aller Regel empfehlenswert.[12]

VI. Erste Schritte für den Einsatz von KI im Bereich Investor Relations

Um die beschriebenen Chancen und Risiken von KI im Bereich IR regulatorisch einwandfrei zu adressieren, empfiehlt sich ein strukturiertes Vorgehen. Die regulatorischen Rahmenbedingungen müssen vom Unternehmen eingehalten werden. Verstösse gegen Regulierungen können regulatorische, strafrechtliche oder haftungsrechtliche Konsequenzen haben.

Als ersten Schritt sollten Schweizer Unternehmen eine entsprechend KI-Governance in ihre Governance-Struktur einbetten und ein KI-Inventar erstellen, das sämtliche eingesetzten Tools erfasst, deren Risikoklassen bewertet und den extraterritorialen Anwendungsbereich der EU-KI-Verordnung – insbesondere mit Blick auf EU-Investoren als Adressaten von KI-generierten Outputs – klärt. Für Anwendungen ausserhalb des Hochrisikobereichs sind sodann Transparenzpflichten umzusetzen, wonach KI-generierte Inhalte als solche zu kennzeichnen sind. Bei Hochrisiko-Systemen sind darüber hinaus umfassende Dokumentations-, Überwachungs- und Governance-Massnahmen erforderlich. Der geplante Einsatz von KI sollte zudem vorab aus regulatorischer Sicht geprüft werden (First Step Analysis). Je nach Einsatz von KI können zusätzliche Abklärungen und Massnahmen angezeigt sein.

Ergänzend dazu bilden klare interne Richtlinien, regelmässige Audits sowie die kontinuierliche Schulung der verantwortlichen Mitarbeitenden die Grundlage für einen rechtssicheren KI-Einsatz. Angesichts der dynamischen regulatorischen Entwicklungen – sowohl auf Schweizer Ebene als auch durch die extraterritoriale Wirkung der EU-KI-Verordnung – ist eine laufende Überprüfung und Anpassung des eigenen KI-Einsatzes unabdingbar. IR-Officer, die diesen Rahmen frühzeitig etablieren, schaffen nicht nur Rechtssicherheit, sondern positionieren sich zugleich als vertrauenswürdige und zukunftsfähige Gesprächspartner im Kapitalmarkt.

Erst wenn diese ersten Schritte umgesetzt sind, können IR-Officer KI rechtssicher in ihrem Alltag einsetzen und die notwendigen Massnahmen zur Einhaltung der regulatorischen Vorgaben umsetzen. So müssen gegebenenfalls Verträge oder allgemeine Geschäftsbedingungen ergänzt werden, bestimmte Informationen Investoren zur Verfügung (oder beispielsweise mit Blick auf Insider-Tatbestände eben gerade nicht zur Verfügung) gestellt werden und die notwendigen Safeguards zum Schutz des eigenen Unternehmens gemeinsam mit den internen Verantwortlichen und der Compliance identifiziert und implementiert werden. 

Unter dem Strich sollten sich IR-Officer der regulatorischen Vorgaben bewusst sein und wissen, was die internen Richtlinien bzgl. Einsatz von KI in IR sind. Da die regulatorischen Vorgaben derzeit im Wandel sind, müssen die festgelegte KI-Governance, Risikoklassifizierung im KI-Inventar sowie die internen Richtlinien im Rahmen der internen Prozesse einer Organisation regelmässig geprüft und gegebenenfalls angepasst werden.

[1] Auch die Erstellung von Textentwürfen für das Reporting und die Personalisierung von Informationen für unterschiedliche Anlegergruppen gehören bereits zur Praxis; vgl. dazu Isy Isaac Sakkal, Réglementation de l’intelligence artificielle dans le secteur financier, GesKR 2025, 227 ff., 230.

[2] Bundesrat, KI-Regulierung: Bundesrat will Konvention des Europarats ratifizieren, 12. Februar 2025.

[3] SIX, Policy Paper: AI Regulation in Switzerland, September 2025.

[4] FINMA, Aufsichtsmitteilung 08/2024, Governance und Risikomanagement beim Einsatz von künstlicher Intelligenz, 18. Dezember 2024.

[5] Mehr dazu unter SIX, Policy Paper: AI Regulation in Switzerland, September 2025.

[6] Art. 2 Abs. 1 Bst. c KI-VO.

[7] Vgl. dazu Art. 50 KI-VO.

[8] Sebastian Hepp/Fernando Tafur, Finanzmarktrechtliche Einordnung von blockchain-basierten AI-Agents, GesKR 2026, 38 ff., 42.

[9] Cornelia Stengel/Gino Wirthensohn/Luca Stäuble, Regulierung von künstlicher Intelligenz für FinTech-Anwendungen, SZW 2021, 395 ff., 402.

[10] Die Ad-hoc-Publizitätspflichten sind derzeit noch in der Selbstregulierung der SIX verankert (Art. 53 KR i.V.m. Art. 10 Abs. 2 RLAhP), sollen im Rahmen der laufenden FinfraG-Revision aber ins staatliche Recht überführt werden (vgl. dazu Eidgenössisches Finanzdepartement (EFD), Erläuternder Bericht zur Änderung des Bundesgesetzes über die Finanzmarktinfrastrukturen und das Marktverhalten im Effekten- und Derivatehandel [FinfraG], Bern, 19. Juni 2024).

[11] Art. 1 Abs. 2 FinfraG.

[12] FINMA-Aufsichtsmitteilung 08/2024, Ziff. 2.1.

Teilen
Drucken
PDF