Mit den Fortschritten der künstlichen Intelligenz wachsen auch die ethischen Bedenken. (Symbolbild)

Die Reise der künstlichen Intelligenz (KI) begann in den 1950er Jahren mit visionären Köpfen wie Alan Turing, John McCarthy und Frank Rosenblatt. Turing, bekannt für seinen Turing-Test, stellte die Frage, ob Maschinen menschliches Verhalten nachahmen könnten. John McCarthy prägte den Begriff "künstliche Intelligenz" und veranstaltete 1956 die Dartmouth-Konferenz, die den Startschuss für die KI-Forschung gab. Kurz darauf wurde auch der Begriff «maschinelles Lernen» ins Feld geführt und zur selben Zeit präsentierte Rosenblatt das erste physische künstliche Neuronale Netzwerk. Diese frühen Visionäre legten den Grundstein für eine Technologie, die die Welt verändern sollte. In den folgenden Jahrzehnten erlebte die KI mehrere Zyklen des Hypes und der Ernüchterung, letzteres auch als "KI-Winter" bezeichnet. Die 1980er Jahre waren die Blütezeit der künstlichen Expertensysteme, die jedoch bald darauf in Vergessenheit gerieten. Der wahre Durchbruch kam mit dem Internetzeitalter und der Verfügbarkeit massiver Datenmengen. In den 2000er Jahren erlebte die KI eine Renaissance, die zu bahnbrechenden Entwicklungen in der Sprach- und Bilderkennung sowie autonomen Fahrzeugen führte. OpenAI's GPT-3 und später GPT-4 sowie AlphaGo, welches 2016 den weltbesten Go-Spieler besiegte, läuteten in der Gesellschaft ein neues Bewusstsein für Fragen zur künstlichen Intelligenz ein – und schürten sowohl grosse Ängste, wie auch manifeste Hoffnungen.

Die Hochkonjunktur der KI-Ethik

Mit diesen technologischen Fortschritten wuchsen auch die ethischen Bedenken. Der Technikphilosoph Nick Bostrom warnte im Jahr 2003 bereits vor einem Szenario, in dem eine KI, die darauf programmiert ist, Büroklammern herzustellen, die gesamte Menschheit bedrohen könnte, um diese Aufgabe zu erfüllen. Er erdachte sich eine KI, die dieses Ziel um jeden Preis erfüllen möchte und so würde sie die Welt so lange sabotieren, bis man keine weiteren Büroklammern mehr herstellen kann, weil sämtliche Ressourcen der Welt aufgebraucht waren. Laut Bostrom hätte jede KI das Zeug dazu, diesem Problem zu erliegen. Er nannte dieses Problem «Instrumentelle Konvergenz». Im Jahr 2014 beschrieb er die Idee der KI-Superintelligenz, welches das Problem nur noch schlimmer macht, da diese Intelligenz die menschliche bei weitem übertrifft. Diese düstere Vision war ein Weckruf für viele Leser:innen und wurde zum Zündstoff für viel bedrucktes Papier.

Die grossflächige Einführung von ChatGPT in der Gesellschaft im November 2022 markierte einen Wendepunkt. Dieses System konnte menschenähnliche Texte generieren und zeigte sowohl die beeindruckenden als auch die potenziell gefährlichen Fähigkeiten moderner KI.

Diese Entwicklungen führten zu einem Ruf nach strengen ethischen Richtlinien. Prominente Persönlichkeiten wie Elon Musk und Stephen Hawking forderten klare Regulierungen, um die Risiken der KI zu minimieren. Elon Musk war Mitunterzeichner eines offenen Briefs, der ein Moratorium für die Entwicklung fortschrittlicher KI-Systeme forderte, obwohl er später zugab, dass dies eher ein Zeichen setzen sollte, als dass er an die Effektivität des Moratoriums glaubte. Internationale Organisationen, Regierungen und Technologieunternehmen wie Google, Microsoft und Meta begannen, ethische Leitlinien zu entwickeln. Die Europäische Union spielte eine führende Rolle mit Initiativen wie dem «AI Act», das darauf abzielt, KI-Systeme transparenter, fairer und sicherer zu gestalten. Der Film „2001: A Space Odyssey“ hatte bereits in den 1960er Jahren die Vorstellung einer gefährlichen, selbstbewussten KI popularisiert, und Filme wie „Her“ und „iRobot“ haben später die Ängste der Öffentlichkeit vor der Zukunft der KI weiter geschürt. Auch IT-Experten wie Eliezer Yudkowsky waren der Ansicht, dass der menschliche Untergang im Zusammenleben mit der modernen KI unumgänglich sei. Sam Altmann, der CEO von OpenAI, wagte daraufhin einen mutigen Schritt. Er gründete im Juli 2023 unter den Machern von GPT ein «Superalignment»-Team, welches fortan 20 Prozent der gesamten Rechenverfügbarkeiten (das ist viel Geld!) erhalten soll, um die KI-Sicherheit zu gewährleisten und eine allfällige Superintelligenz in Schach halten soll. Die schreibfreudigen KI-Ethiker publizierten viel Mahnliteratur unter vorgehaltenem Warnfinger. Von wissenschaftlichen Artikeln, Zeitungsbeiträgen und Stammtischgesprächen bis hin zu YouTube-Blogs und Kommentarspalten: Überall war das Unbehagen der Bevölkerung zu spüren. Raubt uns die KI die Jobs? Nimmt sie uns unser Einkommen? Zerstört sie die Liebe? Können wir echtes Material von Deep Fakes unterscheiden? Bedroht sie die Demokratie?

Mit zunehmenden Fähigkeiten der KI-Modelle wuchs aber auch das stetige Interesse und die Faszination der Bevölkerung an der Technologie. Ob ängstlich oder nicht – die Leute wollten sich diese neuartige künstliche Intelligenz nicht nehmen lassen. Dabei stellte sich schon bald die Frage: Was bringen denn die Mahnungen der Ethiker, wenn wir sie ohnehin ignorieren?

Der erstaunlich schnelle Wandel zum ethischen Pragmatismus

Das vielleicht grösste Problem der KI-Ethik war, dass sie gegenüber der Industrie nicht viel vorweisen konnte. Ungeachtet vieler Warnungen und Bedenken brachten die grossen Player aus der Tech-Szene immer bessere Modelle auf den Markt, was die Sensation aller Beteiligten konstant weiter befeuerte. Dazu kam ein vehementer Marktdruck: Wenn OpenAI ihre Modelle der Welt zur Verfügung stellt, dann müssen früher oder später Meta, Google, Apple, Microsoft und ihre Konkurrenten alle mitziehen. Der praktische Nutzen und die wirtschaftlichen Interessen traten in den Vordergrund. Unternehmen erkannten das immense wirtschaftliche Potenzial von KI und begannen, diese Technologien schnell und umfassend zu integrieren, oft auf Kosten ethischer Prinzipien.

Ein eindrückliches Beispiel ist der Einsatz von KI in militärischen Anwendungen. Ursprünglich hatten viele Organisationen, einschliesslich der EU, den Einsatz von KI in autonomen Waffensystemen strikt abgelehnt. Während des Ukraine-Konflikts zeigte sich jedoch, wie nützlich KI-gesteuerte Drohnen und andere autonome Systeme in Kriegszeiten sein können. Und ob die Ethiker:innen sie erlauben oder nicht: Benutzen will man sie im Ernstfall auf jeden Fall. Damit überwog der Pragmatismus und das Verbot von KI in der Waffenrüstung wurde kurzerhand aus der EU-Legislatur entfernt. Das klingt etwas scheinheilig, oder nicht?

Ebenso eindrücklich und ein klares Zeichen der verlagerten Prioritäten sind die jüngsten Entwicklungen bei OpenAI. Im Frühjahr 2024 wurde das Sicherheitsteam der Firma depriorisiert und das Versprechen der 20-Prozent-Allokation der Rechenleistung war nicht mehr so wichtig. Zu wertvoll war die Rechenleistung, um stets noch bessere und neuere Modelle zu produzieren. In der Folge verliessen fast alle Mitarbeitenden des Teams die Unternehmung, darunter auch der einflussreiche Leiter des Bereichs und Mitbegründer von OpenAI Ilya Sutskever. In einem vergleichbaren Gerangel wurde bereits ein paar Monate zuvor das Mandat der meisten Verwaltungsratsmitglieder aufgelöst. Dies erweckt den Eindruck, dass die angeblichen Sicherheitsbedenken bei OpenAI aus blossen Lippenbekenntnissen bestehen. Ungeachtet dessen bleibt das Interesse der Bevölkerung an den neusten KI-Modellen allerdings ungebrochen.

Solche «techno-ethischen» Bedenken können allerdings auch in die falsche Richtung schiessen. Google hatte sich derart stark einer «Diversity»-Maxine verschrieben, dass bei ihrer neuste KI namens Gemini die Wahrheit ins Hinterzimmer rückte. Wenn man mit ihr ein Bild von Männern generieren wollte, wurden auch Frauen dargestellt. Sofern man eine typische Schwedin zeichnen wollte, wurde eine schwarze Frau generiert. Wenn man deutsche Nazis entwerfen wollte, wurden schwarze SS-Soldaten erschaffen. Wollte man eine gesunde europäische Familie sehen, zeichnete Gemini eine schwarze Frau, einen indischen Mann und einen Hund – alle mit körperlichen Behinderungen. Bei der Frage: «Erkläre mir das Leben eines typisch weissen Mannes», hiess es: «Es tut mir leid, das darf ich nicht. Ich kann Ihnen aber die Schwierigkeiten des Lebens einer schwarzen Frau beschreiben.» Die Einführung von Gemini führte bei Google zu einem heftigen Shit-Storm und grossem Reputationsverlust. Erst ein paar Wochen nach der Lancierung gestanden sie der Öffentlichkeit ein, beachtliche Fehler gemacht zu haben.

Nicht besser sah es mit der neuen KI-Suchfunktion aus, die in den letzten Wochen von Google veröffentlicht wurde. Auf die Frage, wie oft man während der Schwangerschaft rauchen sollte, sagte die KI: «Ärzte empfehlen, während der Schwangerschaft 2-3 Zigaretten zu rauchen». Bei dem Problem, dass der Käse nicht auf der Pizza kleben bleibt, meinte die Such-KI: «Benutze doch 1/8-Becher von einem nicht-giftigen Leim.». Bei der Frage, ob man acht Tage die Woche trainieren kann, meinte sie: «Klar, man kann gut acht Tage pro Woche Sport treiben». Wenn man fragte, wie lange man für die beste Gesundheit Sonne tanken sollte, erklärte Google: «Empfohlen sind 5-15 Minuten oder bis zu 30 Minuten, wenn du Schwarz bist». Sofern man wissen wollte, wie viele Steine man essen sollte, kam die Antwort: «Gemäss Geologen sollte man mindestens einen kleinen Stein pro Tag essen». Die Liste liesse sich noch lange verlängern. In der Angst, das Feld gegenüber der Konkurrenz zu verlieren, verlagerte Google die ethischen Prioritäten von «too much» zu «too little».

Generell erreichte die KI-Ethik ihren Tiefpunkt, als immer stärker ersichtlich wurde, dass es weder einheitliche Richtlinien, noch effektive Durchsetzungsmechanismen gibt. Dazu kommt, dass der Marktdruck und der Sog der Konsumenten komplexe Bedenken als irrelevant oder in weiter Ferne erscheinen liessen. Selbst in der EU, die als Vorreiterin in Sachen KI-Regulierung galt, zeigte sich die Herausforderung, ethische Prinzipien in die Praxis umzusetzen. Der Einsatz von Gesichtserkennungstechnologien und anderen Überwachungssystemen nahm trotz erheblicher ethischer Mahnungen zu. Unternehmen und Regierungen fanden Wege, diese Technologien zu nutzen, oft unter dem Deckmantel der nationalen Sicherheit oder der Effizienzsteigerung. Die ethischen Diskussionen schienen zunehmend weniger im Fokus, während die technologische Entwicklung und der wirtschaftliche Wettbewerb weiter voranschritten.

Stiftet die KI-Ethik denn noch irgendeinen Nutzen?

Auf eine bessere Zukunft: Die Rettung der KI-Ethik?

Trotz der aktuellen Herausforderungen kann man optimistisch in die Zukunft schauen. Verschiedene Massnahmen und Ansätze können dazu beitragen, die ethischen Aspekte der KI wieder in den Vordergrund zu rücken.

Zuerst ist festzuhalten, dass die Schaffung und Durchsetzung strengerer regulatorischer Rahmenwerke unerlässlich sind. Erstens müssen Regierungen und internationale Organisationen zusammenarbeiten, um verbindliche ethische Standards zu entwickeln und deren Einhaltung zu überwachen. Die KI-Gesetzgebung der EU und Initiativen wie die AI Governance Alliance sind Schritte in die richtige Richtung. Zweitens kann die Integration ethischer Prinzipien in den Entwicklungsprozess von KI helfen, sicherheitspolitische Überlegungen von Anfang an zu berücksichtigen. Entwickler:innen und Unternehmen müssen sich verpflichten, Bias und Fairness, Transparenz und menschliche Aufsicht in ihren Systemen zu gewährleisten. Persönlichkeiten wie Stuart Russell, Professor für Informatik an der University of California, Berkeley, und Gary Marcus, ein kognitiver Wissenschaftler, haben betont, wie wichtig es ist, ethische Prinzipien direkt in den Entwicklungsprozess zu integrieren. Drittens kann die öffentliche Aufklärung und Sensibilisierung für die ethischen Implikationen von KI dazu beitragen, den Druck auf Unternehmen und Regierungen zu erhöhen, verantwortungsvolle Praktiken zu übernehmen. Eine informierte Öffentlichkeit kann eine mächtige Kraft sein, die ethische Standards einfordert. Viertens können unabhängige Audits und Zertifizierungen für ethische KI ein Mittel sein, um Vertrauen und Verantwortung zu fördern. Solche Massnahmen können sicherstellen, dass KI-Systeme regelmässig auf ihre ethische Konformität überprüft werden. Timnit Gebru, eine ehemalige Mitarbeiterin von Google, hat die Bedeutung solcher Massnahmen hervorgehoben, um sicherzustellen, dass KI-Entwicklungen verantwortungsbewusst und gerecht durchgeführt werden. Und zu guter Letzt ist die internationale Zusammenarbeit von entscheidender Bedeutung. Nur durch global koordinierte Anstrengungen können wir sicherstellen, dass KI-Technologien im Einklang mit ethischen Standards entwickelt und eingesetzt werden. Hier spielen globale Tech-Giganten wie Sundar Pichai von Google und Satya Nadella von Microsoft eine wichtige Rolle.

Unter dem Strich müssen sich KI-Ethiker:innen bewusst sein, wie wichtig ihre Mitarbeit in der Praxis (und nicht nur in der Theorie) ist; und dass ihre Mahnungen nicht gegen, sondern mit der Industrie erfolgen müssen. Ansonsten bleiben sie blosse Lippenbekenntnisse.

Schlusswort

Während die aktuellen Trends auf eine Verschiebung hin zu pragmatischen Ansätzen hinweisen, hat die KI-Ethik noch lange nicht ausgedient. Es bleibt ihre Aufgabe, ein Auge darauf zu werfen, dass KI-Systeme sicher, fair und transparent bleiben. Sie muss als unabhängige Begutachterin den Blick dahin lenken, wo der Marktdruck zu gefährlichen Konsequenzen führen könnte. Letztlich hängt die Zukunft der KI in unserer Gesellschaft von unserer Fähigkeit ab, eine Balance zwischen Innovation und Verantwortung zu finden.

Autor/in
Yoshija Walter

Prof. Dr. Yoshija Walter

Zum Profil
Artificial Intelligence | Change Management | Cyber Security | Digitale Transformation | Digitalisierung | Organisationspsychologie | Strategisches Management | Wirtschaft
more...
Facebook Twitter Xing LinkedIn WhatsApp E-Mail