TV-Doku: Algorithmische Verzerrungen
Der Psychologe und Online-Experte Christian Stöcker kennt die Tricks, mit denen KI-Experten sozialer Netzwerke von Facebook bis YouTube heute versuchen, Nutzer zu beeinflussen – vor allem, um das Geschäftsmodell Werbung zu fördern. Aufgund dieser Fokussierung kommt es heute zu wissenschaftlich nachweisbaren unerwünschten Begleiterscheinungen einer Technologie, deren unbestrittene Vorteile dazu führten, dass sie längst Teil des gesellschaftlichen Lebens wurden. Susanne Päch geht mit Christian Stöcker in der TV-Doku „Algorithmische Verzerrungen – KI setzt gezielt auf unbewusste Reflexe der menschlichen Psyche“ den Fragen nach, wo die Probleme liegen und wie man sich vor unerwünschter Beeinflussung schützen kann.
Für die Gesellschaft ist es wichtig zu verstehen, wie die künstlichen Intelligenzen im Netz zu ihren automatisch erhobenen Empfehlungen kommen. Denn klar ist inzwischen auch, dass Algorithmen nicht nur Vorteile haben, sondern auch negative Begleiterscheinungen zeigen, die nur auf der Grundlage von Kenntnissen über solche Algorithmen gestoppt werden können. Genau dazu forscht Stöcker mit empirischen Methoden, die er auch mit simulierten Nutzern im Netz untersucht. Für ihn lassen sich eindeutige Muster über die Wirkungsmechanismen solcher Algorithmen erkennen, wobei das Optimierungsziel der Unternehmen in den Blickpunkt der Kritik rückt.
Empfehlungen sind so erfolgreich, weil sie typischen Verhaltensmustern des Menschen folgen – im Verbund mit individuellen Vorlieben, die sich einerseits durch das Auslesen von persönlichen Coockies auf den Rechnern von Nutzern offenbaren und andererseits durch die Auswertungsmethoden von Big Data entstehen: Methoden, die durch das Vergleichen massenhafter Daten statistische Zusammenhänge bezüglich bestimmter Interessen von Individuen aufdecken. Die im Netz aktiven, mit den digitalen Daten selbstlernenden Algorithmen steuern heute die Ergebnisse von Suchmaschinen, liefern personalisierte Werbeformen aus oder bringen auch Empfehlungen in sozialen Netzen auf den Rechner. Die Algorithmen von Google, Facebook & Co gehören zu den am besten gehüteten Betriebsgeheimnissen der globalen Player – und das wird sich auch kaum ändern.
Wie aber gelingt es Algorithmen, uns unbewusst zu beeinflussen? Psychologische Studien belegen seit langem zwei offensichtliche „Schwachstellen“ des Menschen, die von den Algorithmen der Unternehmen gezielt ausgenutzt werden. Erstens neigt der Mensch dazu, solche Inhalte vorzuziehen, die der eigenen Vorstellungswelt entsprechen, er zieht sich lieber in eine wohlige Echokammer zurück, in der die eigenen Meinungen bestärkt werden. Anders gesagt: Der Mensch meidet ganz generell das Fremdartige und setzt sich auch ungern mit widersprechenden und daher mühsamen Auffassungen auseinander. Und zweitens: Der homo sapiens liebt Inhalte, die ihn auf der Ebene angenehmer Emotionen abholen – plakativ gesagt: Der Mensch gibt sich viel lieber in wohlig-bekannter Umgebung dem Glücksgefühl hin als sich mit Werve der Mühe kognitiver Auseinandersetzung zu unterziehen.
Algorithmen folgen genau dieser Spur. Denn die emotionalisierenden und die eigene Weltsicht bestätigenden Inhalte erhöhen die Nutzungszeit. Und das ermöglicht, mehr Werbung an die Nutzer als potenzielle Konsumenten auszuliefern. Denn Werbung ist das eigentliche Geschäftsmodell, dem sich aus Sicht er Unternehmen alles unterzuordnen hat – auch die Qualität von Information, die überdies von Algorithmen heute automatisiert gar nicht bewertet werden kann. Bei der Beantwortung, was hochwertige, und was minderwertige Qualität hat, versagt die Künstliche Intelligenz. Bei YouTube beispielsweise, deren Algorithmen Stöcker für besonders bedenklich hält, führt das Prinzip Verweildauer durch die Optimierungs-Kaskadierung zwanghaft zur Häufung unangemessener Videos – für jene, die die Autoplay-Funktion nutzen. Und das sind viele, denn bei YouTube sind die Autoplay-Nutzer heute für rund siebzig Prozent der Nutzungszeit verantwortlich. Für die YT-Algorithmen zählen nur die Klickhäufigkeit und die durchschnittliche Verweildauer, mit der Menschen Videos anschauen, also der Grad der Emotionalisierung von Inhalten – die Stoffe, mit denen Algorithmen ihre Empfehlungen optimieren – und sie führen uns praktisch zwangsläufig immer tiefer in schmutziges Fahrwasser hinein: in extremes Gedankengut von der Pädophilie bis zu Verschwörungstheorien.
Die vom Medium TV längst bekannte Couch Potatoe ist also auch im Online-Medium angekommen – nur, dass sie hier, anders als im Fernsehen, nicht mit einem ausgestrahlten Einheits-Programm bedient wird, sondern durch die permanente individuelle Optimierung auf Quote in einen beschleunigten Sog an Qualitätsverlust gezogen wird. Hinzu kommt dann noch, dass diese Empfehlungs-Algorithmen weiter von außen manipuliert und missbraucht werden können. Likes, die nicht von Menschen, sondern von Maschinen kommen – und sogar Fake News, nicht nur vom Homo Sapiens, sondern von Künstlichen Intelligenzen, den sogenannten Bots, algorithmisch produziert. Sie setzen in der Regel bei den besonders leicht beeinflussbaren Menschen am linken oder rechten Gesinnungsrand an. All das zusammen gibt ein gefährliches Gebräu unerwünschter Beeinflussungs-Optionen.
Sind wir also all den unerwünschten Nebeneffekten oder gar dem manipulativen Missbrauch schutzlos ausgeliefert? Die Antwort heißt natürlich: nein. Wir können uns widersetzen, wenn wir – wenig erstaunlich –genau jene Region im Gehirn einschalten, die diese Plattformen gern umschiffen: Kognitive Prozesse, mit denen wir lernen und verstehen, wie diese Algorithmen im Netz funktionieren.
Ansprechpartner:
Dr. Susanne Päch
Chefredaktion HYPERRAUM.TV
Bavariafilmplatz 3
82031 Grünwald
susanne.paech@hyperraum.tv
Media Contact
Alle Nachrichten aus der Kategorie: Kommunikation Medien
Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.
Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.
Neueste Beiträge
Selen-Proteine …
Neuer Ansatzpunkt für die Krebsforschung. Eine aktuelle Studie der Uni Würzburg zeigt, wie ein wichtiges Enzym in unserem Körper bei der Produktion von Selen-Proteinen unterstützt – für die Behandlung von…
Pendler-Bike der Zukunft
– h_da präsentiert fahrbereiten Prototyp des „Darmstadt Vehicle“. Das „Darmstadt Vehicle“, kurz DaVe, ist ein neuartiges Allwetter-Fahrzeug für Pendelnde. Es ist als schnelle und komfortable Alternative zum Auto gedacht, soll…
Neuartige Methode zur Tumorbekämpfung
Carl-Zeiss-Stiftung fördert Projekt der Hochschule Aalen mit einer Million Euro. Die bisherige Krebstherapie effizienter gestalten bei deutlicher Reduzierung der Nebenwirkungen auf gesundes Gewebe – dies ist das Ziel eines Projekts…