Roboter hält Hand an seinen Kopf Roboter hält Hand an seinen Kopf
Kritisches Denken bildet ein Gegengewicht zu den möglichen Fehlern und Verzerrungen der KI. (Symbolbild)

Je stärker die Technologie unsere Leben durchdringt, desto wichtiger wird kritisches Denken. Dies insbesondere, um die Kontrolle über KI-gestützte Entscheidungen zu behalten. Unsere «Critical Thinking Skills» ermöglichen es uns, die Vorschläge und Daten, die KI liefert, zu hinterfragen und informierte Entscheidungen zu treffen. Sie bilden daher ein Gegengewicht zu den möglichen Fehlern und Verzerrungen der KI, indem sie uns befähigen, über die Oberfläche hinaus zu denken und die Tiefe der durch KI generierten Einsichten zu erkunden.

Die menschliche Kontrolle über die künstliche Intelligenz

Für die Interaktion zwischen Mensch und KI ist die richtige Balance zwischen menschlicher Überwachung und automatisierter Entscheidungsfindung essenziell. Dazu haben sich verschiedene Grade menschlicher Kontrolleinflüsse etabliert:

  1. Human-in-the-Loop (HITL) stellt die intensivste Form menschlicher Beteiligung dar, bei der jede KI-Entscheidung überprüft und genehmigt werden muss. Diese starke Einbindung ist vor allem in kritischen Bereichen wie Medizin oder Recht unerlässlich, wo fehlerhafte Entscheidungen schwerwiegende Folgen haben können.
  2. Human-on-the-Loop (HOTL) ermöglicht es, KI-Systeme zu überwachen und bei Bedarf einzugreifen. Dieses Modell wird oft in Situationen verwendet, die schnelle Reaktionen erfordern, wie in der Verkehrsüberwachung, wobei die KI selbstständig agiert, solange sie innerhalb vorgegebener Grenzen operiert.
  3. Human-out-of-the-Loop (HOOTL) gewährt KI-Systemen vollständige Autonomie, ideal für Bereiche, in denen menschliche Reaktionszeiten zu langsam wären, wie bei bestimmten Datenverarbeitungsaufgaben.

Die soziotechnischen Herausforderungen mit der KI

Die Wahl des passenden menschlichen Kontrollsystems hängt von vielen Faktoren ab. Besonders bedeutsam sind die jeweiligen Risiken, die in der Zusammenarbeit mit dem System entstehen. Es gibt allerdings allgemeine KI-Probleme, die jederzeit bedacht werden müssen. Dazu gehört die (i) Misalignierung. Hier haben wir es mit einem Fall zu tun, wo die Ziele der KI nicht mit menschlichen Werten übereinstimmen, was in kritischen Bereichen wie z.B. im Gesundheitswesen gefährliche Konsequenzen haben kann. Eine präzise Abstimmung von KI-Systemen auf ethische Standards ist daher unerlässlich. Ein weiteres Problem ist die (ii) potentielle Verselbstständigung der KI, wo das Modell ihre eigenen Ziele und nicht mehr unsere Aufträge verfolgt. Diese Angst steht insbesondere im Fall einer möglichen künftigen «Superintelligenz» im Raum, die die Fähigkeiten der Menschen zu übertreffen vermag. Eine wenig diskutierte Gefahr ist das (iii) Lock-In-Problem, bei welchem die KI in einem Narrativ stecken bleibt und kaum wieder zurück auf eine Metaperspektive findet. Das bedeutet, dass sich das Modell «gedanklich» in einem anderen Auftrag oder Sprachspiel befindet und somit unfähig ist, sich unseren neuen Aufträgen anzunehmen (in diesem Fall hilft nur noch ein Neustart des Systems). Das wohl grösste und bekannteste Problem sind die (iv) KI-Halluzinationen. In der Tat handelt es sich dabei um einen echten Fachbegriff, welcher die Tatsache herausstreicht, dass Sprachmodelle (LLMs, sog. «Large Language Models») Dinge erfinden, die nicht stimmen. In vielen Fällen klingt die KI so überzeugend, dass die Menschen es dabei nicht bemerken, wenn sie es mit einer Fehlinformation zu tun haben.

Neue Studie: KI-Halluzinationen sind technisch unvermeidbar

Allein die Tatsache, dass die künstliche Intelligenz Daten und Informationen «erfindet», sollte genug sein, ihre Resultate immer kritisch zu hinterfragen. Obschon die Forschung hart daran arbeitet, solche Halluzinationen zu mindern (durch Techniken wie «Retrieval Augmented Generation», oder kurz: RAG), konnte eine aktuelle Studie aufzeigen, dass es in der Natur der künstlich Neuronalen Netzwerke liegt zu halluzinieren (Xu, Jain & Kankanhalli, 2024). KI-Modelle haben keine echte Verankerung in der echten Welt und können daher nicht zwischen wahr und falsch in der Realität unterscheiden. Diese unvermeidlichen Halluzinationen resultieren aus der Verarbeitungsweise von Sprachmodellen und den Mängeln in ihren Trainingsdaten. Solche Daten sind zudem oft unausgewogen oder fehlerhaft, was vermehrt zu irreführenden KI-Ausgaben führt. Besonders kritisch ist dies in Bereichen wie Medizin oder Recht, wo Genauigkeit entscheidend ist.

Kurz gesagt: KI-Halluzinationen sind wegen der LLM-Systemarchitektur unvermeidbar! Die Studie fordert verstärkte Massnahmen zur Diversifizierung und Überprüfung der Trainingsdaten sowie zur Implementierung von Kontrollmechanismen, um die Zuverlässigkeit der KI-Ausgaben zu verbessern. Zudem wird die Bedeutung von Bildungsprogrammen betont, die Nutzerinnen und Nutzern beibringen, KI-generierte Informationen kritisch zu hinterfragen. Diese Erkenntnisse unterstreichen die essenzielle Rolle des kritischen Denkens, die wir Menschen im Umgang mit der neuen Technologie entwickeln müssen.

«AI Literacy» - Bildung zur Zähmung der KI

Das kritische Denken ermöglicht es uns also, KI-generierte Informationen zu hinterfragen und ethisch zu bewerten, eine Fähigkeit, die besonders wichtig ist, da Daten oft als objektiv betrachtet werden. Technologie kann jedoch auch selbst dazu beitragen, kritisches Denken fördern, indem sie interaktive Herausforderungen bietet, die Nutzer:innen zum Nachdenken anregen.

Parallel dazu wird das Thema "AI Literacy" immer wichtiger. Eine Studie hebt die Dringlichkeit von breit angelegten, inklusiven Bildungsprogrammen hervor, die nicht nur Wissen vermitteln, sondern auch praktische Fähigkeiten durch Workshops und Simulationen fördern. Diese Programme sollen sicherstellen, dass alle Menschen, nicht nur Technologie-Spezialistinnen und -Spezialisten, die technologischen und sozialen Implikationen von KI verstehen. Beide Themen – kritisches Denken und KI-Bildung – sind eng miteinander verknüpft. Kritisches Denken hilft, die Grenzen der Technologie zu erkennen und fördert eine tiefere Auseinandersetzung mit KI, während eine fundierte KI-Bildung dazu beiträgt, dass Menschen KI verantwortungsvoll einsetzen und deren Auswirkungen kritisch einschätzen können.

Obacht vor den Bösewichten: «LLM Hacking»

Abgesehen von den «natürlichen» Problemen, die LLMs mit sich bringen, sind sie besonders anfällig für eine Vielzahl von Cyberangriffen. Diese Angriffe reichen von subtilen Manipulationen bis hin zu aggressiven Übernahmen, was die Notwendigkeit von robusten Sicherheitsmassnahmen unterstreicht.

  • Evasion und Poisoning Attacks: Diese Formen der Cyberangriffe stellen eine direkte Manipulation der KI durch Eingriffe in deren Datenverarbeitung dar. Evasion Attacks zielen darauf ab, die KI zu täuschen, indem sie die Eingabedaten so verändern, dass die KI die Situation falsch interpretiert. Poisoning Attacks hingegen beeinflussen die Trainingsdaten der KI, um langfristige Fehlfunktionen zu provozieren. Diese Taktiken können dazu führen, dass KI-Systeme unzuverlässig werden und falsche Informationen liefern oder schädliche Aktionen ausführen.
  • Prompt Injection Attacks: Eine spezifische Bedrohung für LLMs ist der sogenannte Prompt-Injection-Angriff, bei dem Angreifer speziell gestaltete Eingaben machen, die dazu führen, dass die KI unerwünschte oder gefährliche Inhalte produziert. Diese Art von Angriff kann besonders schwer zu erkennen sein, da sie oft innerhalb der normalen Funktionsweise der KI stattfindet
  • Abwehrstrategien: Um diese Bedrohungen zu bekämpfen, ist es entscheidend, dass Entwicklerinnen und Sicherheitsexperten zusammenarbeiten, um die Systeme zu härten. Dazu gehört das Implementieren von Sicherheitsüberprüfungen während der Entwicklungsphase, das kontinuierliche Monitoring der KI-Systeme auf Anomalien und das schnelle Reagieren auf identifizierte Bedrohungen. Weiterhin ist die Schulung der Nutzer:innen im Umgang mit KI-Systemen ein wichtiger Schritt, um das Risiko von unbeabsichtigten Sicherheitslücken zu minimieren.

Die Thematik des LLM Hacking zeigt weitere Schattenseiten der KI-Technologien auf und bildet ein weiteres Argument, dass kritisches Denken und kontinuierliche Bildung über KI-Risiken unerlässlich sind, um die Sicherheit und Zuverlässigkeit dieser mächtigen Werkzeuge zu gewährleisten.

Fazit: «AI Criticality» als Kompass in der KI-gesteuerten Welt

Kritisches Denken ermöglicht es uns, KI-generierte Daten zu hinterfragen und ihre Plausibilität zu prüfen, was ethische Entscheidungsfindungen sichert. Die Integration kritischen Denkens in Bildungssysteme ist entscheidend, um diese Fähigkeiten zu entwickeln. Programme sollten auf allen Bildungsebenen angeboten werden, um nicht nur analytische Fähigkeiten zu fördern, sondern auch ein Bewusstsein für ethische Aspekte im Umgang mit KI zu schaffen. Es gibt sowohl Herausforderungen als auch Chancen bei der Integration von kritischem Denken in KI-Anwendungen. Technologie kann die Entwicklung kritischer Fähigkeiten unterstützen, doch es gilt, eine Überabhängigkeit von technologischen Lösungen zu vermeiden und ein Gleichgewicht zu wahren, das Menschen in Entscheidungsprozessen einbindet. Ein kollektives Bemühen aller Beteiligten – Bildungseinrichtungen, Unternehmen und politische Entscheidungsträger – ist erforderlich, um eine Kultur des kritischen Denkens zu fördern, die mit dem Fortschritt der KI Schritt halten kann. Dies stellt sicher, dass Technologie unsere menschlichen Qualitäten ergänzt und erweitert, statt sie zu ersetzen. Diese Fähigkeiten lassen sich unter dem Begriff «AI Criticality» verbuchen.

Autor/in
Yoshija Walter

Prof. Dr. Yoshija Walter

Zum Profil
Artificial Intelligence | Change Management | Cyber Security | Digitale Transformation | Digitalisierung | Organisationspsychologie | Strategisches Management | Wirtschaft
more...

CAS FH in KI-Management (Künstliche Intelligenz / Artificial Intelligence)

Certificate of Advanced Studies (CAS)

Mehr laden
Digitalisierung | Innovationsmanagement | Wirtschaft
more...
Facebook Twitter Xing LinkedIn WhatsApp E-Mail