Home
eBook-Shop (nur Verlagstitel)
Links
Warenkorb
Übertragen auf KI lässt sich konstatieren, dass diese auf Basis der realen Daten des Internets lernt, die die vorherrschende Meinung und damit die Meinung der herrschenden Klasse widerspiegeln. Folglich entspricht auch der Output, sei es als Grafik oder als Text, dieser herrschenden Meinung: KI erscheint sexistisch (https://www.vol.at/hype-um-app-scharfe-kritik-an-sexistischen-ki-bildern/7794634, https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-ki-sexismus-101.html), rassistisch (https://www.dw.com/de/coded-bias-wie-wird-ki-rassistisch/av-57018426, https://www.rnd.de/wissen/wie- kuenstliche-intelligenz-rassismus-befoerdert-TZFL7KPOYRHFRBAA66OVOFS6QI.html), antikommunistisch, leugnet die Existenz von Klassen und ist durchdrungen von bürgerlicher Propaganda (https://de.wikipedia.org/wiki/Propagandamodell). Die Nutzer der KI sind dieser Propaganda unterschwellig ausgesetzt, während fortschrittliche Ideen in der Masse an Informationen kaum eine Chance haben. Der Betreiber einer KI wiederum kann technisch auch direkt in deren Antworten eingreifen und damit Zensur (https://www.sueddeutsche.de/leben/debatte-um-iphone-sprachprogramm-mein-bauch-gehoert-siri-1.1223565), Propaganda und Manipulation selbst befördern.
Zudem erfolgt der Einsatz von KI erfolgt bei ChatGPT und vielen anderen KI-basierten Systemen nicht lokal, sondern über Cloud-Dienste. Dadurch gelangen sensible und zum Teil personenbezogene Daten zu den Betreibern (https://www.heise.de/newsticker/meldung/Verraeterische-Sprachassistentin-Auch-bei-Siri-hoeren-Menschen-zu-4480652.html) und werden nicht selten zu Trainingszwecken gespeichert. Einmal vorhandene Daten können aber auch von den Betreibern missbraucht oder von Cyberangreifern erbeutet werden. Daraus resultiert ein hohes Datenschutzrisiko. (https://www.heise.de/news/OpenAI-US-Verbraucherschutzbehoerde-soll-ermitteln-Italien-sperrt-ChatGPT-8328351.html)
Ein weiteres Risiko ergibt sich aus der bereits erwähnten Tatsache, dass KI nicht fehlerfrei ist. Es gibt kein klares Ja oder Nein, sondern nur eine Wahrscheinlichkeit, die nie bei 100 Prozent liegt. Daraus folgt zwangsläufig, dass KI Fehler macht, was von den Herstellern so in Kauf genommen wird. An dieser Stelle ist entscheidend, welche Konsequenzen die Fehler letztendlich haben: Wenn man einen Strafzettel erhält, weil die KI das Kennzeichen falsch erkannt hat, ist das ärgerlich. Wenn man aber die Wohnung, den Job oder den Kredit nicht bekommt, weil die KI eine Fehleinschätzung vorgenommen hat, kann das zu einem richtig großen Problem werden. Und tödlich enden kann es, wenn die KI beim autonomen Fahren Fehler macht und das tut sie bereits. (https://www.ingenieur.de/technik/fachbereiche/verkehr/unfaelle-mit-autonomen-autos/, https://www.dw.com/de/autonomes-fahren-teslas-unfall-und-die-gro%C3%9Fen-h%C3%BCrden-der-branche/a-57314799)
Das vielfach geteilte Horrorszenario besteht in der Vorstellung, dass künstliche Intelligenz eines Tages dem Menschen überlegen ist, ihn für überflüssig hält und bis zur Ausrottung bekämpft oder zumindest versklavt. Bereits heute kann es mitunter so wirken, als würde sich KI verselbständigen. In einem Experiment ließen Facebook-Forscher zwei KIs namens Bob und Alice miteinander kommunizieren. Anfangs sprachen die beiden KIs in einem für Menschen verständlichen Englisch, dann aber entwickelten sie die Sprache weiter. Sie verwendeten weiterhin englische Wörter, stellten diese aber in einen neuen Kontext. Dabei wurden Wörter und Satzteile mehrfach verwendet; die Experten gehen davon aus, dass die KIs durch die Wiederholungen Mengenangaben machen wollten. (https//wmfuWe.de/news98894.htm.l)
Zu hinterfragen ist außerdem, was Chatbots oder Sprachassistenten mit der menschlichen Psyche machen. Sie können beispielsweise zu emotionaler Vereinsamung führen wenn die Maschine zum Freund wird. Menschen unterhalten sich mit ihr wie mit einer Person, verbringen mehr Zeit mit ihr als mit realen Kontakten und gehen in einigen Fällen sogar eine Liebesbeziehung ein. (https://www.tagesspiegel.de/gesellschaft/wie-ich-versucht-habe-mich-in-einen-chatbot-zu-verlieben-4140919.html) Parallel dazu gibt es sogar Bestrebungen, Chatbots zur Kostensenkung im Gesundheitswesen einzusetzen. Sie sollen anstelle eines Psychotherapeuten mit psychisch kranken Menschen sprechen. Wissenschaftliche Untersuchungen zeigen aber, dass sie den Therapeuten eben gerade nicht ersetzen können. (https://www.researchgate.net/publication/347388083_Empathic_Chatbot_Emotional_Intelligence for_Mental_Health_Well-being) Ein weiteres Problem besteht darin, dass KI zur Generierung von Fälschungen missbraucht wird. Man spricht hier von Deepfake. Dabei handelt es sich um eine Technologie, die es ermöglicht, Gesichter auf Fotos und Videos digital auszutauschen, was oft als Face Swap bezeichnet wird. Deepfakes können eingesetzt werden, um gezielt Desinformation zu verbreiten, Personen zu diskreditieren oder sogar politische Entscheidungen zu beeinflussen.
Die dargestellten Aspekte stellen sicher nur eine Auswahl all jener Risiken dar, die mit KI einhergehen. Wie bereits erwähnt, fordern einige prominente Vertreter von Technologieunternehmen, also Personen, die sich mit der Materie auskennen, in einem offenen Brief einen sofortigen Stopp der Entwicklung von künstlicher Intelligenz mit Fähigkeiten, die über GPT-4 hinausgehen: