Hand zeigt auf AI, Waage, Kopf und Gehirn Hand zeigt auf AI, Waage, Kopf und Gehirn
Die Einführung strenger KI-Gesetze hat bedeutende Auswirkungen auf die Wirtschaft und die Gesellschaft. (Symbolbild)

In einer Welt, die immer stärker von künstlicher Intelligenz (KI) geprägt wird, steigt die Notwendigkeit, diese Technologien zu regulieren und zu steuern. Die rasante Entwicklung der KI-Technologien wirft zahlreiche Fragen bezüglich Ethik, Sicherheit und sozioökonomischen Auswirkungen auf. Es existieren daher zahlreiche staatliche und internationale Bemühungen, regulatorische Massnahmen zu entwickeln, um die KI in Schach zu halten. Dabei hinken die Regulatorien jeweils stark hinter den rasanten technologischen Fortschritten aus der Industrie hinterher. Aus diesem Grund sind sich auch die wesentlichen Tech-Konzerne bewusst, dass sie eine grosse Verantwortung für die weltweite Sicherheit tragen. Die Entwicklungen und Regelwerke in diesem Feld bergen starke sozioökonomische Konsequenzen, welche sich auf die Zukunft unserer gesamten Gesellschaft auswirken.

Die KI-Governance in Unternehmen

Unternehmen nehmen heute eine zentrale Rolle bei der Entwicklung und Implementierung von KI ein, insbesondere auch, wenn es um die ethischen Standards und Sicherheitsmassnahmen geht. Da die staatlichen Interventionen noch in den Kinderschuhen stecken, obliegt es im Moment zu grossen Teilen in der Verantwortung der Firmen, hier einen vertretbaren Umgang zu finden. Die unternehmerische Governance von KI umfasst interne Richtlinien, Prozesse und Massnahmen, die darauf abzielen, den Einsatz von KI-Technologien verantwortungsbewusst zu steuern. Grosse Technologiefirmen wie Google, Microsoft und IBM haben spezialisierte Ethikkommissionen und Richtlinien entwickelt, die sicherstellen sollen, dass ihre KI-Systeme ethischen Grundsätzen folgen und nicht missbräuchlich verwendet werden. Neben internen Massnahmen gibt es auch branchenweite Initiativen, die eine Zusammenarbeit zwischen verschiedenen Unternehmen fördern. Hier sind einige Beispiele:

  • Interne Richtlinien und Compliance-Programme
  • Transparenz- und Berichterstattungstools
  • Technologieprüfungen und Audits
  • Branchenweite Kollaborationen und Partnerschaften
  • KI-Ethik- und Sicherheitsforschung
  • Zertifizierungen und branchenweite Standards

Die grossen Wettbewerber haben sich zum Teil auch in Konsortien zusammengeschlossen, die miteinander Richtlinien und ‘Best Practices’ publiziert haben. Hier sind die Unternehmen in einem grossen Spagat zwischen dem Erreichen eines Wettbewerbsvorsprungs und der Zurückhaltung wegen Sicherheitsbedenken. Es verwundert daher nicht, dass im Jahr 2023 ein internationaler Aufruf von führenden Experten für ein Moratorium in der Forschung grosser KI-Modelle folgenlos blieb. Dies aus gutem Grund: Im aggressiven Wettkampf um die Marktführerschaft muss im Moment jeder Player befürchten, von der Konkurrenz abgehängt zu werden.

Vor- und Nachteile der unternehmerischen KI-Governance

Einer der Hauptvorteile der unternehmerischen KI-Governance liegt in der Fähigkeit der Unternehmen, schnell auf technologische Innovationen und Marktanforderungen zu reagieren. Unternehmen können massgeschneiderte Governance-Modelle entwickeln, die spezifisch auf ihre Technologien, Kundenbedürfnisse und Geschäftsziele zugeschnitten sind. Durch interne Kontrollmechanismen und ethische Richtlinien können Unternehmen das Vertrauen der Nutzer:innen stärken und die gesellschaftliche Akzeptanz ihrer Produkte erhöhen. Zudem ermöglicht die agile Natur unternehmerischer Governance eine schnelle Anpassung an neue Erkenntnisse und regulatorische Anforderungen.

Es gibt aber durchaus auch Probleme, wenn die Verantwortung insbesondere in den Händen der Firmen liegt. Eine zentrale Kritik ist, dass Unternehmen möglicherweise zu stark von Profitmotiven geleitet werden und daher nicht immer die breiteren sozialen und ethischen Implikationen ihrer Technologien berücksichtigen. Es besteht die Befürchtung, dass unternehmerische Governance-Modelle zu einem "Race to the Bottom" führen könnten. Dabei werden ethische Standards gesenkt, um wettbewerbsfähig zu bleiben oder Entwicklungskosten zu minimieren. Ein weiterer Kritikpunkt ist die mangelnde Transparenz und öffentliche Rechenschaftspflicht in der unternehmerischen Governance. Da die meisten ethischen Richtlinien und Kontrollmechanismen intern verwaltet werden, fehlt es oft an externer Überprüfung und Überwachung durch unabhängige Instanzen. Dies kann dazu führen, dass unethisches Verhalten oder Fehlentwicklungen nicht ausreichend adressiert werden.

Beispiele aus der jüngsten Vergangenheit, wie die Entwicklung von Gesichtserkennungstechnologien, die unbeabsichtigte Verstärkung von Vorurteilen und Diskriminierung fördern können, illustrieren die Grenzen unternehmerischer KI-Governance. Solche Vorfälle verdeutlichen die Notwendigkeit einer stärkeren Regulierung und Kontrolle durch externe Akteure, um sicherzustellen, dass KI-Technologien im Einklang mit gesellschaftlichen Werten und ethischen Standards entwickelt werden.

Die Gesetzgeber: Staatliche und internationale Regulierungsversuche

Die Regulierung von künstlicher Intelligenz variiert stark je nach geografischer und politischer Landschaft, was zu einer vielschichtigen globalen Regulierungslandschaft führt. Im Moment haben sich die EU, die USA und China am stärksten mit konkreten Gesetzesanpassungen beschäftigt – mit manchmal gänzlich unterschiedlichen Haltungen zu dem Thema. Abgesehen davon hat mittlerweile beinahe jedes Land KI-Initiativen und Strategien zu Papier gebracht, um zu überlegen, wie sie sich bezüglich der KI-Regulierung positionieren wollen.

A. Das «KI-Gesetz» der Europäischen Union (EU AI Act)

Die EU hat mit dem KI-Gesetz, das erstmals im April 2021 vorgeschlagen wurde, eine Pionierrolle bei der KI-Regulierung übernommen. Dieses Gesetz klassifiziert KI-Systeme nach dem Risiko, das sie darstellen, und legt spezifische Anforderungen für Hochrisikoanwendungen fest, die Bereiche wie biometrische Identifikation und kritische Infrastrukturen abdecken. Diese Gesetzgebung zielt darauf ab, Vertrauen in KI-Technologien zu schaffen, indem sie Transparenz, Sicherheit und Rechenschaftspflicht fördert, ohne die Innovation zu behindern. Die EU teilt die KI-Modelle in vier Risikokategorien ein:

  1. Unanehmbares Risiko: KI-Systeme, die zur Manipulation des menschlichen Verhaltens, zur sozialen Punktbewertung oder zur Anwendung in sensiblen Bereichen wie Strafverfolgung, Militär oder Migration eingesetzt werden. Diese Systeme sind grundsätzlich verboten.
  2. Hohes Risiko: KI-Systeme, die in der Rechtspflege oder der öffentlichen Verwaltung eingesetzt werden, sowie Systeme zur Gesichtserkennung oder zur Bewertung der Kreditwürdigkeit. An diese Systeme werden strenge Anforderungen gestellt, wie umfassende Bewertung durch unabhängige Stellen, vorgeschriebene menschliche Überwachung und Massnahmen zur Risikominimierung.
  3. Limitiertes Risiko: KI-Systeme, die in Bereichen wie Chatbots, Spielzeug oder Transportsicherheit eingesetzt werden. Hier gibt es nur wenige Anforderungen, wie Transparenzpflicht, die Möglichkeit zur menschlichen Interaktion und Dokumentation der Risikobetrachtung.
  4. Minimales Risiko: KI-Systeme, die keine erheblichen Risiken für die Sicherheit, Gesundheit oder Grundrechte von Menschen darstellen. Bei diesen Systemen gibt es nur minimale Anforderungen, wie die Einhaltung von Treu und Glauben, sowie die Rechenschafts- und Dokumentationspflicht.

B. Die USA und ihren «Executive Order on AI»

Der amerikanische Senat hat sowohl im Jahr 2023 wie auch im 2024 viele der wichtigsten Vorreiter in der Industrie vorgeladen. Es zeichnet sich ein langes Tauziehen ab und noch gibt es keine klaren Vorstösse für spezifische Gesetze zur Handhabung der KI. Die konkretesten Motionen befassen sich mit der Einhaltung der digitalen Datenschutzrechte (gleich wie in Europa mit dem DSGVO). Um keine wertvolle Zeit zu verlieren, hat Präsident Joe Biden das einzige gemacht, was er in dieser Situation tun kann (da er keine eigenen Gesetze beschliessen kann): ein sogenanntes Executive Order herausgeben, welches die Regeln für die öffentliche Verwaltung beschliesst. So hat die Biden-Administration im Oktober 2023 die «Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence“ verabschiedet. Diese Verordnung beabsichtigt die nationale Politik in Bezug auf KI zu vereinheitlichen und fördert die Entwicklung von Standards für Sicherheit und Ethik in KI-Anwendungen. Die Order stellt einen wichtigen Schritt dar, um sicherzustellen, dass KI-Technologien in einer Weise eingesetzt werden, die sowohl die wirtschaftliche Wettbewerbsfähigkeit der USA stärkt, als auch ihre Bürger schützt. Vor allem aber ist es ein Signal an die Wirtschaft, Industrie und die internationale politische Gemeinschaft: «Wir sind dabei und behalten euch im Auge.»

C. Das eiserne China: strikte und opportunistische Regeln für KI

China hat eine Reihe von Richtlinien und Regeln implementiert, die darauf abzielen, die KI-Entwicklung zu steuern, während gleichzeitig Innovationen gefördert werden. Diese Regeln betonen die staatliche Kontrolle über KI-Technologien und deren Anwendungen, insbesondere im Bereich der Überwachung und nationalen Sicherheit. Chinas Ansatz ist im Vergleich zu westlichen Demokratien stärker zentralisiert und kontrolliert. Die kommunistische Partei benutzt die Stärken der KI besonders eindrücklich, um die Wirtschaft und Gesellschaft unter Kontrolle zu behalten. Das wohl bekannteste Beispiel, welches das gesamte Leben durchdringt und durch KI getrieben wird, ist das «Social Scoring» System. Jedes Verhalten, das der kommunistischen Partei beliebt, wird belohnt. Verhalten, welches ihr zuwiderläuft, wird knallhart bestraft und die entsprechenden Akteure werden marginalisiert. Die Lehren aus dem totalitären Regime werden im Westen als Beispiel verstanden, das zwingend zu vermeiden ist. (Im KI-Gesetz der EU sind dies verbotene Hochrisiko-Szenarien.)

D. Andere Länder

Andere Länder wie Kanada, Südkorea und Japan haben ebenfalls spezifische KI-Strategien mit dem Zweck entwickelt, sowohl die Entwicklung als auch die ethischen Aspekte der KI zu steuern. Diese reichen von Förderprogrammen für Forschung und Entwicklung bis hin zu spezifischen Vorstössen, die den Einsatz von KI in sensiblen Bereichen regeln sollen.

Die künstliche Intelligenz in der Zukunft der Gesellschaft

Die Einführung strenger KI-Gesetze hat bedeutende Auswirkungen auf die Wirtschaft und die Gesellschaft. KI-Regulierungen beeinflussen nicht nur, wie Unternehmen und Start-ups operieren, sondern auch wie sie auf globalen Märkten konkurrieren. Während gut durchdachte Gesetze das Potenzial haben, Innovationen zu fördern und gleichzeitig die öffentliche Sicherheit zu gewährleisten, können zu strenge Regeln auch das Wachstum hemmen und die Entwicklung neuer Technologien verlangsamen. Die Rolle der KI in der zukünftigen Gesellschaft wird stark davon abhängen, wie effektiv die globale Gemeinschaft in der Lage ist, gemeinsame Standards und Normen zu etablieren, die eine sichere und gerechte Nutzung dieser Technologien gewährleisten.

KI-Regulierungen sind ein kritisches Feld, das weiterhin dynamische Anpassungen erfordern wird, um mit den technologischen Fortschritten Schritt zu halten. Die Zusammenarbeit auf internationaler Ebene wird entscheidend sein, um sicherzustellen, dass KI-Technologien weltweit verantwortungsvoll und zum Nutzen aller eingesetzt werden. Wir stehen erst am Anfang einer langen Reise der globalen KI-Governance, die sowohl Chancen als auch Herausforderungen birgt.

Facebook Twitter Xing LinkedIn WhatsApp E-Mail