"Enter" drücken, um zum Inhalt weiterzugehen

Kritische Perspektiven auf KI

Es gibt eine Reihe von Beiträgen, die kritische Perspektiven auf KI enthalten.

Emily M. Bender, Resisting Dehumanization in the Age of “AI”: https://journals.sagepub.com/doi/10.1177/09637214231217286

Dehumanisierung definiert Bender anhand von drei Merkmalen: fehlende Wahrnehmung des Anderen als menschlich/Menschen, Bezugnahme auf kognitive Zustände, denen der menschliche Charakter abgesprochen wird und die Erfahrung, einer Bewertung als nicht-menschlich ausgesetzt zu sein. KI trägt zu einer Dehumanisierung in diesem Sinne bei, auf sechs verschiedene Weisen:

  • Gleichsetzung von Computer und Gehirn (computational metaphor): Damit geht einher, das menschliche Denken und Verhalten als weniger komplex zu setzen als die Fähigkeiten eines Computers. Dazu passend ein Zitat von Baria and Cross: “ it afford[s] the human mind less complexity than is owed, and the computer more wisdom than is due“.
  • Klassifizierung von Menschen anhand bestimmter Kategorien, z.B. Geschlecht oder Ethnie. Dies geschieht beispielsweise im Bereich so genannter „Digital physiognomy“.
  • Ground lies: Dies bedeutet, dass die Datensätze, die in KI benutzt werden entgegen den Behauptungen nicht repräsentativ sind, sondern Stereotype, Vorurteile und Verzerrungen enthalten und diese auch in die Auswahl und das Filtern von Datensätzen eingehen.
  • Unverbundenheit: Im Unterscheid zu KI sind Menschen wesentlich durch Beziehungen geprägt. KI-Entscheidungssysteme lassen die damit verbundenen Gesichtspunkte außen vor.
  • Ghost work: KI wird durch die Tätigkeiten von Menschen geformt, die unsichtbar bleiben.
  • Ausdruck weißer Überlegenheit: In KI wird die Überlegenheit weißer Menschen inkorporiert.

Es folgt eine Darlegung dessen, was sich aus einer wissenschaftliche Perspektive im Umgang mit KI tun lässt. In Machine Learning-Forschung sollten einfache Aufgaben problematisiert werden. Es geht darum Fehlinterpretationen zu vermeiden, die aus der Bewältigung von Aufgaben Fähigkeiten ableiten. Weitergehend sollten behauptete Fähigkeiten von KI kritisch analysiert werden sowie „Whiteness“ als Standard sollte etwas entgegengesetzt werden, Engagement in öffentlichen Debatten ist wichtig, eine breitere Verteilung von Forschungsgeldern sowie die Entwicklung von alternativen Wegen, um Probleme zu bewältigen.

Emily M. Bender, Advocating for Protections for the Information Ecosystem
https://medium.com/@emilymenonbender/advocating-for-protections-for-the-information-ecosystem-89fbe95e9de2

Hier geht es um vertrauenswürdige öffentliche Informationen. Die Verbreitung von künstlich erzeugten Inhalten erschwert die Verfügbarkeit bzw. die Identifizierung dieser Informationen. Bender hält für KI-generierte Inhalte ein Watermarking-System für sinnvoll.

Vortrag von Emily M. Bender: ChatGP-why: When, if ever, is synthetic text safe, appropriate, and desirable?
https://www.youtube.com/watch?v=qpE40jwMilU

Emily M. Bender, Chirag Shah, Envisioning Information Access Systems: What Makes for Good Tools and a Healthy Web?
https://dl.acm.org/doi/10.1145/3649468

In diesem Artikel geht es um den Zugang zu Informationen und inwieweit dieser durch KI-Software gewährleistet ist und bedarfsgerecht funktioniert. Wie sollten Informationssysteme im Kontext von generativer KI aussehen? Als Nutzungsanforderungen werden folgende Merkmale genannt: Relevanz, Neuheit und Diversität, Geschwindigkeit, Personalisierung/Kontextualisierung, Interaktivität, Transparenz. In Bezug darauf weisen so genannte „discriminative“ (klassifizieren bestehende Inhalte) und generative KI-Systeme unterschiedliche Leistungsfähigkeit auf. Problematisch bei generativen Systemen sind folgende Punkte:

  • Nicht begründete Antworten
  • Bias
  • Mangel an Transparenz
  • Mangel an Einflussmöglichkeiten seitens der Nutzenden
  • Mangel an angemessener „Reibung“
  • Umwelt- und Arbeitskosten

Guter und sicherer Nutzen kann sich unter folgenden Bedingungen ergeben:

  • Die sprachliche Form ist wichtig und nicht der Inhalt.
  • Die Antwort-Flüssigkeit und -kohärenz ist nicht irreführend.
  • Problematischer Bias und Hass-Inhalte können identifiziert und gefiltert werden.
  • Das KI-System wurde ohne Daten-Diebstahl, Arbeits-Ausbeutung und exzessivem Wasser- und Energieverbrauch entwickelt.

Es wird die Frage aufgeworfen, ob sich generative Systeme überhaupt als Informationssysteme oder als Bestandteile von diesen eignen. Hierfür nennen Bender & Shah z.B. Unterstützungen bei Suchanfragen.

Des Weiteren werden Forschungsfragen aufgeführt, die vier für Informationssysteme relevanten Kategorien zugeordnet sind: Lernen der Anwender*innen, gesellschaftfliche Anforderungen, technische Innovationen, Interface Design und Transparenz.

Diese Fragen können als leitend für Informationssysteme betrachtet werden, die KI-Komponenten enthalten.

Abschließend machen die Autor*innen deutlich, dass sie das Web als ein gefährdetes Informations-Ökosystem sehen. Das Web ist ihrer Ansicht nach ein System aus wechselseitigen Beziehungen. KI-generierte Inhalte durchbrechen dieses System, wobei die Mechanismen von Suchmaschinen, die aus vorhandenen Inhalten in bestimmter Weise Suchergebnisse präsentieren, ähnlich aus diesem System ausbrechen.

Notwendig seien eine verantwortungsvolle und vorsichtige Herangehensweise im Designprozess von Informationssystemen.

Der Artikel rollt das Feld nicht anhand der vorhandenen Systeme auf, sondern anhand der individuellen und gesellschaftlichen Anforderungen an solche Systeme.

Ben Williamson, AI in education is a public problem: https://codeactsineducation.wordpress.com/ Williamson listet 21 Probleme auf, die KI mit sich bringt, die seiner Ansicht nach zeigen, dass KI nicht unvermeidlich, nur positiv oder gar transformativ ist.

Als Erster einen Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert