Menschliche und algorithmische Voreingenommenheit in sozialen Medien

Ganz gleich, ob Verschwörungstheorien, wissenschaftlich belegte Fakten, Werbung oder persönliche Bilder – wir nehmen in sozialen Medien eher diejenigen Inhalte wahr, deren enthaltene Informationen mit unseren eigenen Überzeugungen übereinstimmen. Das bedeutet auch, dass wir in Folge mit höherer Wahrscheinlichkeit auf diese Beiträge reagieren, sie teilen und weiterverbreiten. In unserer persönlichen Filterblase spiegelt sich also nur unser eigenes Weltbild wider, abweichende Einstellungen sind nicht einmal sichtbar. Innerhalb der eigenen sozialen Gruppe vertraut man den Informationen der Freunde und teilt deren Werte, weshalb dort dieses eine Weltbild dominiert. Was Freundinnen und Freunde posten, wird selten hinterfragt oder bezüglich des Wahrheitsgehalts geprüft. 

Doch warum ist das so? Täglich sind wir mit einer Menge an Informationen konfrontiert, die das Gehirn verarbeiten muss. Zur Verarbeitung dieser überwältigenden Fülle von Sinneseindrücken nutzt das Gehirn einige Methoden und „Abkürzungen“ (z.B. confirmation bias bzw. Bestätigungsfehler), die bewirken, unsere bestehenden Annahmen zu bestätigen oder auszubauen. Dieser Effekt wird noch verstärkt, wenn es sich um emotionale Themen und stark verfestigte Meinungen handelt. Es ist einfacher und weniger Arbeit für das Gehirn, an aktuellen Meinungen, Werten und Einstellungen festzuhalten, als erneut einen Entscheidungsprozess zu durchlaufen, die Überzeugungen zu ändern oder neu zu bilden. Das heißt, dass sogar objektiv richtige Fakten, die mit den eigenen Annahmen nicht vereinbar sind, abgelehnt oder ignoriert werden.

smc confirmation bias

Nicht nur kognitive Prozesse verstärken Vorurteile und Voreingenommenheit. Auch die Algorithmen der sozialen Medien und Suchmaschinen tragen zur Verfestigung von Stereotypen und (verzerrten) Annahmen bei. Zu den von Algorithmen benutzten Faktoren, welche die Sichtbarkeit von Postings beeinflussen, zählen beispielsweise die Altersgruppe der betroffenen Personen, ihr allgemeines Verhalten im Internet, der Standort, die Interessen oder auch die politische Orientierung. Der Einsatz solcher Algorithmen hat das Ziel, den Userinnen und Usern möglichst „relevante“ Inhalte anzuzeigen und sie dadurch zu Interaktionen und Klicks zu animieren. Um diese Personalisierung zu erreichen, werden der Person zu ihrem Weltbild passende Inhalte angeboten; Vorurteile werden aufgegriffen und verstärkt. Dies birgt auch die Gefahr der Radikalisierung bestimmter Gruppen, die ihre Ideen kritiklos bestätigt sehen.

Die algorithmische Voreingenommenheit (algorithmic bias) resultiert daraus, dass den Algorithmen durch maschinelles Lernen bestehende Vorurteile oder Ungleichheiten antrainiert werden. Einerseits basiert das maschinelle Lernen auf existierenden Daten, die selbst Ungleichheiten enthalten. Im Englischen könnte „a doctor“ von einer Künstlichen Intelligenz eher als „Arzt“ und nicht als „Ärztin“ erkannt werden, weil die Analyse der verwendeten Daten ergibt, dass in diesem Beruf mehrheitlich Männer tätig sind. Wenn man den Google Übersetzer die englische Aussage “My doctor was not here today“ auf Deutsch übersetzen lässt, wird daraus „Mein Arzt war heute nicht hier“, obwohl es sich genauso gut um eine Ärztin handeln könnte.

6

Ein weiteres Beispiel: Gibt in der Apple-Emojisuche den Suchbegriff „CEO“ ein, wird nur eine männliche Emoji angezeigt:

8

Normalerweise werden Algorithmen für Gesichtserkennung mit Hilfe von Datensätzen trainiert, die mehr Personen mit weißer als mit anderer Hautfarbe enthalten. Deswegen werden manche Personen von diesen Algorithmen gar nicht als Menschen identifiziert.

Andererseits wird die Qualität der Such- und Abfrageergebnisse von den Personen beeinflusst, die die Künstliche Intelligenz programmieren, Daten einpflegen und bearbeiten. Da die großen Suchmaschinen und ihre Algorithmen meist im Westen entwickelt werden, erkennen sie beispielsweise eher ein westliches Brautpaar als ein traditionell afrikanisches Hochzeitspaar.

9

Algorithmen werden nicht nur dafür eingesetzt, um zu entscheiden, welche Posts in unseren Social Media-Feeds aufscheinen, sondern auch, um KandidatInnen in einem Bewerbungsprozess auszuwählen. Wenn die Datenbasis fehlerhaft oder nicht repräsentativ ist, besteht die Gefahr, dass eine auf Vorurteilen beruhende Entscheidung getroffen wird. Dadurch kann es zur Diskriminierung von Gesellschaftsgruppen kommen. Vor Kurzem gestand Facebook vor dem Hintergrund der Black Lives Matter-Bewegung ein, dass seine Algorithmen voreingenommen und diskriminierend sein können. Instagram und Facebook kündigten deswegen an, Teams einzustellen, die diese Algorithmen untersuchen und fairer machen sollen.

Welche Rolle spielen der Bestätigungsfehler und die algorithmische Voreingenommenheit im Social Media-Marketing? Es ist wichtig, die Zielgruppe und ihre bestehenden Überzeugungen gut zu kennen. Dadurch kann man Informationen zur Marke teilen, die die Gruppe bereits für wahr hält. In den Werbebotschaften sollten die positiven Assoziationen, die mit der Firma oder Marke verbunden werden, aufgegriffen werden, um eine Verstärkung zu bewirken. Den Inhalten wird somit zugestimmt und das Vertrauen in die Marke wird vergrößert. Darüber hinaus können detaillierte Produktbeschreibungen die positiven Annahmen der (potenziellen) Kundinnen und Kunden über das Produkt verstärken, was aber auch durch Testimonials oder Produktbewertungen erreicht werden kann. Am besten stimmt man die Botschaften in den verschiedenen sozialen Medien und auf Websites aufeinander ab, damit dieselbe Information mehrmals wahr- und aufgenommen werden kann.

Wenn man im Marketing tätig ist, sollte man sich die eigenen Annahmen und Vorurteile bewusst machen, hinterfragen und alternative Methoden ausprobieren. Zudem kann man die Annahmen über die „ideale“ Zielgruppe öfters überdenken und mit Hilfe der Audience Insights neue Zielgruppen finden. Außerdem ist zu bedenken, dass man Algorithmen nicht blind vertrauen kann, dass sie – wie Menschen – voreingenommen sein können und eben dadurch bestimmte Ergebnisse anzeigen. Wenn man auf der Suche nach passenden Bildern für Werbeanzeigen ist, können die Algorithmen der jeweiligen Suchmaschine auch Vorurteile widerspiegeln.

 

 

ourEPICblog