Type to search

Social Media

Wir bekämpfen Fake-News-KI-Bots, indem wir mehr KI einsetzen. Das ist ein Fehler.

Share

Kalev Leetaru, Senior Fellow an der George Washington University, schlägt vor, dass die ersten Angriffe von KI-Bots möglicherweise nicht auf soziale Medien abzielen, sondern einen sogenannten Distributed-Denial-of-Service-Angriff beinhalten, bei dem gezielte Webserver heruntergefahren werden indem man sie mit Verkehr überschwemmt.

„Stellen Sie sich für einen Moment vor, Sie hätten dieses Botnet der Kontrolle eines Deep-Learning-Systems übergeben und diesem KI-Algorithmus die vollständige Kontrolle über jeden Regler und Regler dieses Botnets gegeben“, schreibt Leetaru.

Diese Bemühungen zielen nicht darauf ab, Nachrichtenorganisationen dabei zu helfen, die Unmengen an Inhalten zu überprüfen. Vielmehr helfen sie einem milliardenschweren Unternehmen, das eigene Haus sauber zu halten.

„Sie geben ihm auch Live-Feeds mit globalen Internetstatusinformationen von großen Cybersicherheits- und Überwachungsanbietern auf der ganzen Welt, damit es Sekunde für Sekunde beobachten kann, wie das Opfer und der Rest des Internets insgesamt auf den Angriff reagieren. Vielleicht kommt das alles, nachdem Sie den Algorithmus mehrere Wochen damit verbracht haben, das Ziel bis ins kleinste Detail zu überwachen, um die Gesamtheit und Nuancen seiner Verkehrsmuster und Verhaltensweisen zu verstehen und sich seinen Weg durch seine äußeren Verteidigungsschichten zu graben.“

Jenseits der Verteidigung

Im April 2018 erschien Mark Zuckerberg vor dem Kongress: Er stand unter dem politischen Mikroskop für den falschen Umgang mit Nutzerinformationen während der Wahlen 2016. In seiner zweiteiligen Aussage erwähnte er mehr als 30 Mal künstliche Intelligenz und deutete an, dass KI die Lösung für das Problem der digitalen Desinformation sein würde, indem sie Programme bereitstellte, die der schieren Menge an Computerpropaganda entgegenwirken würden. Er prognostizierte, dass KI im nächsten Jahrzehnt der Retter für die massiven Größenprobleme sein würde, mit denen Facebook und andere im Umgang mit der weltweiten Verbreitung von Junk-Inhalten und Manipulationen konfrontiert sind.

Gibt es also eine Möglichkeit, mit KI oder automatisierter Bot-Technologie gegen die Manipulation der öffentlichen Meinung im Internet vorzugehen? Können wir KI verwenden, um KI zu bekämpfen?

Das Observatory on Social Media der Indiana University hat öffentliche Tools entwickelt, die maschinelles Lernen nutzen, um Bots zu erkennen, indem 1.200 Funktionen untersucht werden, um festzustellen, ob es sich eher um einen Menschen oder einen Bot handelt.

Und Facebook-Produktmanagerin Tessa Lyons sagte in einer Ankündigung aus dem Jahr 2018: „Maschinelles Lernen hilft uns, Duplikate entlarvter Geschichten zu identifizieren. So widerlegte beispielsweise ein Faktenprüfer in Frankreich die Behauptung, man könne einer Person einen Schlaganfall ersparen, indem man sich mit einer Nadel in den Finger sticht und Blut abnimmt. Dadurch konnten wir über 20 Domains und über 1.400 Links identifizieren, die dieselbe Behauptung verbreiten.“

In solchen Fällen können Social-Media-Unternehmen maschinelles Lernen nutzen, um Faktenchecks aus der ganzen Welt aufzunehmen und sogar zu überprüfen und diese evidenzbasierten Korrekturen zu verwenden, um gefälschte Inhalte zu kennzeichnen.

In der akademischen Gemeinschaft wird jedoch heftig darüber diskutiert, ob die passive Identifizierung potenziell falscher Informationen für Social-Media-Nutzer tatsächlich effektiv ist. Einige Forscher weisen darauf hin, dass die Bemühungen zur Überprüfung von Fakten sowohl online als auch offline in ihrer derzeitigen Form nicht sehr effektiv funktionieren. Anfang 2019 brach die Faktencheck-Website Snopes, die bei solchen Korrekturbemühungen mit Facebook zusammengearbeitet hatte, die Beziehung ab. In einem Interview mit dem Poynter Institute sagte Vinny Green, Vice President of Operations von Snopes: „Es sieht nicht so aus, als ob wir bestrebt sind, die Überprüfung von Fakten durch Dritte für Verlage praktikabler zu machen – es scheint, als würden wir uns bemühen, dies zu erreichen.“ einfacher für Facebook.“

Organisationen wie Facebook verlassen sich weiterhin auf kleine, in der Regel gemeinnützige Organisationen, um Inhalte zu überprüfen. Potenziell falsche Artikel oder Videos werden oft an diese Gruppen weitergegeben, ohne Hintergrundinformationen darüber, wie oder warum sie überhaupt gemeldet wurden.

Diese Bemühungen zielen nicht darauf ab, Nachrichtenorganisationen dabei zu helfen, die Menge an Inhalten oder Hinweisen, die sie täglich erhalten, zu überprüfen, um unterversorgten Reportern zu helfen, bessere Arbeit zu leisten. Vielmehr helfen sie einem milliardenschweren Unternehmen, das eigene Haus post-hoc sauber zu halten. Es ist an der Zeit, dass Facebook intern die Verantwortung für den Faktencheck übernimmt, anstatt die Aufgabe der Überprüfung oder Entlarvung von Nachrichtenberichten an andere Gruppen abzugeben. Auch Facebook und andere Social-Media-Unternehmen müssen sich nicht mehr auf Faktenchecks im Nachhinein verlassen – das heißt erst, wenn ein falscher Artikel viral geworden ist. Diese Unternehmen müssen eine Art Frühwarnsystem für computergestützte Propaganda entwickeln.

Facebook, Google und andere wie sie beschäftigen Menschen, um Inhalte zu finden und zu entfernen, die Gewalt oder Informationen von terroristischen Gruppen enthalten. Sie sind jedoch viel weniger eifrig in ihren Bemühungen, Desinformation loszuwerden. Die Fülle der unterschiedlichen Kontexte, in denen falsche Informationen online fließen – von einer Wahl in Indien bis hin zu einem großen Sportereignis in Südafrika – macht es für KI schwierig, auf eigene Faust ohne menschliches Wissen zu operieren. Aber in den kommenden Monaten und Jahren werden Horden von Menschen auf der ganzen Welt brauchen, um die riesigen Mengen an Inhalten unter den unzähligen Umständen, die sich ergeben werden, effektiv zu überprüfen.

Es gibt einfach keine einfache Lösung für das Problem der Computerpropaganda in den sozialen Medien. Es liegt jedoch in der Verantwortung der Unternehmen, einen Weg zu finden, um das Problem zu beheben. Bisher scheint Facebook viel mehr auf die Öffentlichkeitsarbeit ausgerichtet zu sein als auf die Regulierung des Flusses von Computerpropaganda oder grafischen Inhalten. Laut The Verge verbringt das Unternehmen mehr Zeit damit, seine Bemühungen zu feiern, bestimmte Vitriol- oder Gewaltstücke loszuwerden, als seine Moderationsprozesse systematisch zu überarbeiten.

Jenseits von Faktenchecks

Es wird eine Kombination aus menschlicher Arbeit und KI sein, die letztendlich erfolgreich sein wird, um Computerpropaganda zu bekämpfen, aber wie dies geschehen wird, ist einfach nicht klar. KI-unterstützte Faktenprüfung ist nur ein Weg nach vorn. Maschinelles Lernen und Deep Learning können zusammen mit menschlichen Arbeitern Computerpropaganda, Desinformation und politische Belästigung auf verschiedene andere Weise bekämpfen.

Jigsaw, der Google-basierte Technologie-Inkubator, in dem ich ein Jahr lang als Forschungsstipendiat gearbeitet habe, hat ein KI-basiertes Tool namens Perspective entwickelt und gebaut, um Online-Trolling und Hassreden zu bekämpfen. Dieses Tool (an dem ich selbst nicht gearbeitet habe) ist eine API, die es Entwicklern ermöglicht, toxische Sprache automatisch zu erkennen.

Es ist umstritten, weil es nicht nur die Gefahr von Fehlalarmen birgt – das Markieren von Beiträgen, die nicht wirklich Trolling oder Missbrauch enthalten – sondern auch die Sprache moderiert. Laut Wired wurde das Tool mit maschinellem Lernen trainiert, aber jedes solche Tool wird auch mit Eingaben von Menschen trainiert, die ihre eigenen Vorurteile haben. Könnte also ein Tool, das entwickelt wurde, um rassistische oder hasserfüllte Sprache zu erkennen, an einem fehlerhaften Training scheitern?

Im Jahr 2016 brachte Facebook Deeptext auf den Markt, ein KI-Tool ähnlich wie Googles Perspective. Das Unternehmen sagt, es habe dazu beigetragen, über 60.000 hasserfüllte Posts pro Woche zu löschen. Facebook räumte jedoch ein, dass das Tool immer noch auf einen großen Pool menschlicher Moderatoren angewiesen ist, um schädliche Inhalte tatsächlich loszuwerden. Twitter hingegen hat Ende 2017 endlich Schritte unternommen, um sorgfältiger daran zu arbeiten, ähnlich bedrohliche oder gewalttätige Posts zu verbieten. Aber obwohl es begonnen hat, dieses problematische Material einzudämmen – und auch Horden von politischen Bot-Konten löscht – hat Twitter keine klaren Hinweise darauf gegeben, wie es Konten erkennt und löscht. Meine Forschungsmitarbeiter und ich finden weiterhin fast jeden Monat massive manipulative Botnets auf Twitter.

Hinter dem Horizont

Es überrascht nicht, dass ein Technologe wie Zuckerberg eine technologische Lösung vorschlagen würde, aber KI allein ist nicht perfekt. Der kurzsichtige Fokus von Technologieführern auf computerbasierte Lösungen spiegelt die Naivität und Arroganz wider, die Facebook und andere dazu veranlasst haben, Benutzer angreifbar zu machen.

Es gibt noch keine Armeen intelligenter KI-Bots, die daran arbeiten, die öffentliche Meinung während umkämpfter Wahlen zu manipulieren. Wird es in Zukunft geben? Womöglich. Aber es ist wichtig zu beachten, dass selbst Armeen intelligenter politischer Bots nicht alleine funktionieren werden: Sie werden immer noch menschlicher Aufsicht bedürfen, um zu manipulieren und zu täuschen. Wir haben es hier nicht mit einer Online-Version von The Terminator zu tun. Koryphäen aus den Bereichen Informatik und KI, darunter der Turing-Preisträger Ed Feigenbaum und Geoff Hinton, der „Godfather of Deep Learning“, haben sich entschieden gegen die Befürchtungen ausgesprochen, dass „die Singularität“ – das unaufhaltsame Zeitalter der intelligenten Maschinen – in naher Zukunft kommt. In einer Umfrage unter Stipendiaten der American Association of Artificial Intelligence gaben über 90 % an, dass Superintelligenz „außerhalb des absehbaren Horizonts“ liegt. Die meisten dieser Experten waren sich auch einig, dass superintelligente Computer, wenn sie eintreffen, keine Bedrohung für die Menschheit darstellen werden.

Stanford-Forscher, die daran arbeiten, den Stand der Technik in der KI zu verfolgen, schlagen vor, dass unsere „Maschinenoberherren“ derzeit „noch nicht einmal den gesunden Menschenverstand oder die allgemeine Intelligenz eines Fünfjährigen aufweisen können“. Wie werden diese Werkzeuge also die menschliche Herrschaft untergraben oder beispielsweise überaus menschliche soziale Probleme wie politische Polarisierung und mangelndes kritisches Denken lösen? Das Wall Street Journal hat es 2017 prägnant formuliert: „Ohne Menschen ist Künstliche Intelligenz immer noch ziemlich dumm.“

Grady Booch, ein führender Experte für KI-Systeme, steht dem Aufstieg superintelligenter Schurkenmaschinen ebenfalls skeptisch gegenüber, jedoch aus einem anderen Grund. In einem TED-Vortrag im Jahr 2016 sagte er: „Jetzt über den Aufstieg einer Superintelligenz zu sorgen, ist in vielerlei Hinsicht eine gefährliche Ablenkung, denn der Aufstieg der Computer selbst bringt uns eine Reihe von menschlichen und gesellschaftlichen Problemen mit sich, denen wir uns jetzt widmen müssen. ”

Noch wichtiger, betonte Booch, können aktuelle KI-Systeme alle möglichen erstaunlichen Dinge tun, von der Unterhaltung mit Menschen in natürlicher Sprache bis hin zur Erkennung von Objekten – aber diese Dinge werden von Menschen entschieden und mit menschlichen Werten codiert. Sie sind nicht programmiert, aber ihnen wird beigebracht, wie sie sich zu verhalten haben.

„Wissenschaftlich nennen wir das Ground Truth“, sagt Booch, „und hier kommt der entscheidende Punkt: Bei der Herstellung dieser Maschinen vermitteln wir ihnen daher unsere Werte. Dabei vertraue ich einer künstlichen Intelligenz genauso, wenn nicht mehr, wie einem gut ausgebildeten Menschen.“

Ich würde Boochs Idee noch weiterführen. Um das Problem der Computerpropaganda anzugehen, müssen wir die Menschen hinter den Tools ins Visier nehmen.

Ja, die sich ständig weiterentwickelnde Technologie kann die Verbreitung von Desinformation und Trolling automatisieren. Es kann Täter anonym und ohne Angst vor Entdeckung operieren lassen. Aber dieses Instrumentarium als Mittel der politischen Kommunikation ist letztlich darauf ausgerichtet, das menschliche Ziel der Kontrolle zu erreichen. Propaganda ist eine menschliche Erfindung und so alt wie die Gesellschaft. Wie mir ein Experte für Robotik einmal sagte, sollten wir Maschinen, die so intelligent sind wie Menschen, nicht so sehr fürchten wie Menschen, die nicht so intelligent sind, wie sie Maschinen bauen.

Auszug aus The Reality Game: How the Next Wave of Technology Will Break the Truth von Samuel Woolley. Copyright © 2020. Erhältlich bei PublicAffairs, einem Impressum der Hachette Book Group, Inc.

Tags:

You Might also Like

Leave a Comment

Your email address will not be published. Required fields are marked *