Stimme+
Heilbronn
Lesezeichen setzen Merken

Social Bots: Eine Waffe im Informationskrieg

   | 
Lesezeit  2 Min
Erfolgreich kopiert!

Nicht-menschliche Nutzer in den Sozialen Medien, sogenannte Social Bots, können Falschnachrichten, Verschwörungstheorien und Propaganda schnell verbreiten. Eine Doktorandin der TUM Heilbronn erklärt unter anderem, wie man sie entlarvt.

von Annika Heffter
Wie gefährlich sind Social Bots, gerade in Pandemie- und Kriegszeiten? Das lässt sich nach Angaben einer Expertin schwer sagen.
Wie gefährlich sind Social Bots, gerade in Pandemie- und Kriegszeiten? Das lässt sich nach Angaben einer Expertin schwer sagen.  Foto: Production Perig/stock.adobe.com

Software-Roboter in den Sozialen Medien, sogenannte Social Bots, können Inhalte rasend schnell verbreiten. Die Computerprogramme simulieren menschliches Verhalten, liken, kommentieren, verfassen selbst Posts und sind je nach ihrer Komplexität entweder recht einfach oder fast gar nicht als nicht-menschlich zu entlarven. Wie gefährlich sind Social Bots, gerade in Pandemie- und Kriegszeiten? Die Doktorandin Michaela Lindenmayr von der TUM Heilbronn hat sich genauer mit dem Thema befasst.

Es geht darum, Meinungen zu beeinflussen

Angefangen hat das mit ihrer Masterarbeit zum Thema Hassrede in den Sozialen Medien. "Ich habe festgestellt, dass viel Hassrede gar nicht von menschlichen Nutzern kommt und mich gefragt, was das für Nutzer sind", erzählt sie. Auf sozialen Plattformen seien Bots häufig im politischen Bereich zu finden, "wenn es darum geht, Meinungen von Menschen zu beeinflussen", so Lindenmayr.

 


Mehr zum Thema

Auf dem Bildschirm eines Smartphones sind die Icons von Instagram, Facebook und WhatsApp zu sehen.
Region
Lesezeichen setzen

Künstliche Intelligenz hilft beim Kampf gegen Trolle und Hate Speech


Zum Beispiel bei Wahlen könne das zu Meinungsmanipulationen führen, aber auch generell sagt die Doktorandin: "Überall, wo es Falschnachrichten gibt, können Bots große Reichweite generieren." Zudem könnten sie das Bild der öffentlichen Meinung verzerren und etwa Anhänger von Verschwörungstheorien zahlreicher erscheinen lassen, als sie in Wirklichkeit sind.

Aufpassen und mit unabhängigen Medien abgleichen

Welche Rolle Social Bots zum Beispiel bei der Kriegspropaganda in Russland derzeit spielen, lasse sich schwer sagen. Aber: "Grundsätzlich ist es wichtig, Informationen, die man online findet zu hinterfragen und zu überprüfen, bevor man ihnen Glauben schenkt. Das geht aber natürlich nur, wenn man seriöse Informationen von anderen Quellen auch zur Verfügung hat."

Durch die Einschränkung unabhängiger Medien und der Kanäle, auf denen sich Menschen informieren können, wie es im Moment in Russland geschieht, könnten Social Bots also leichteres Spiel haben, Einfluss auszuüben.

Bots müssen nicht schlafen

Lindenmayr
Foto: Privat
Lindenmayr Foto: Privat  Foto: Bots

Die Aktivität von Social Bots nachzuweisen ist nicht einfach, erklärt Michaela Lindenmayr. Die Entwickler von Bots mit manipulativen Intentionen seien denjenigen, die sie versuchen zu entlarven und entfernen, "immer einen Schritt voraus". Früher habe man etwa schauen können, wann und wie oft ein Nutzer etwas postet. Bots müssen nicht schlafen, können nonstop aktiv sein. Wenn ein Nutzer also 24 Stunden lang mit Inhalten um sich wirft, sei die Wahrscheinlichkeit hoch, dass er nicht menschlich ist.

Mittlerweile würden Bots aber so programmiert, dass sie menschlicher wirken, also etwa vermeintliche Essens- und Ruhepausen einlegen. Wer hinter den Bots steckt, ob eine große Trollfabrik oder einzelne Programmierer, sei ebenfalls schwer zu ermitteln. Oft sehe man nur das Resultat und Ausmaß der Einmischung.

 


Mehr zum Thema

Auf dem Bildschirm eines iPhones wird die App von Facebook angezeigt.
Stimme+
Meinung
Lesezeichen setzen

Facebook gefällt das − nicht


Nicht alle Bots sind schlecht

Grundsätzlich, berichtet Lindenmayr, würden Wissenschaftler davon ausgehen, dass etwa neun bis 15 Prozent der Teilnehmer an kontroversen Diskussionen in den Sozialen Medien Bots sind. Nicht alle davon seien aber schlecht, betont die Wissenschaftlerin. Zum Beispiel bei Naturkatastrophen oder aber auch in Kriegssituationen könnten Bots positiv eingesetzt werden, "um wichtige Informationen möglichst schnell und weit zu verbreiten", so Lindenmayr.

Für soziale Plattformen sei es also wichtig, nicht alle nicht-menschlichen Nutzer sofort zu entfernen. Die Klassifizierung in gute und schlechte Bots sei aber nicht einfach und Unternehmen hätten nicht immer ein Interesse daran, aktiv zu werden. "Als Plattform verliert man durch Bots einerseits etwas Kontrolle, andererseits erreicht man auch mehr Menschen." Diese Kosten-Nutzen-Rechnung ändere sich nur, "wenn Nutzer sagen, dass sie nicht mehr auf der Plattform sein wollen, weil sie das Gefühl haben, dass das meiste nicht stimmt, was sie dort sehen."


Tipps zur Erkennung von Social Bots

Social Bots können besonders bei der Verbreitung von Falschnachrichten oder Verschwörungstheorien sehr effektiv sein. Michaela Lindenmayr rät, Inhalte, die man online liest, zunächst einmal zu hinterfragen und mithilfe seriöser Quellen zu überprüfen. Zudem helfe es, sich die Accounts auffälliger Nutzer, also möglicher Bots, anzuschauen, zum Beispiel das Profilbild. Viele Plattformen verifizieren Accounts auch. Zusätzlich kann man schauen, ob die Art der Kommunikation eines Nutzers menschlich erscheint, etwa in Bezug auf die Wortwahl.

 
Kommentar hinzufügen

Kommentare

Neueste zuerst | Älteste zuerst | Beste Bewertung
Keine Kommentare gefunden
  Nach oben