#news

Wie uns künstliche Intelligenz hinters Licht führt

Dunkle, helle und einfach nur komische Seiten von künstlicher Intelligenz. Ein Bot der Donald Trump auf Twitter imitiert, Silvester Stallone in Terminator und John Snow entschuldigt sich für das Ende von Game of Thrones: da ist für jeden etwas dabei.

Wie uns künstliche Intelligenz hinters Licht führt
Patrick Gillinger
Gründer / Marketing & UX-Design bei Deckweiss

Erst vor kurzem bin ich zufälligerweise auf einen auf den ersten Blick total unscheinbaren Post auf Reddit gestoßen. Der User hat dabei lediglich von seinen Erfahrungen mit OpenAI's GPT-2 erzählt und einige seiner Ergebnisse verlinkt. (Bei GPT-2 handelt es sich um ein Sprachen-Modell welches so einiges an Tasks bezüglich Textverständnis, -wiedergabe und -vervollständigung durchführen kann. Mehr dazu hier.) Einer seiner Links ist mir aber besonders ins Auge gestochen: ein Twitter-Bot der künstliche Intelligenz verwendet, um eine echte Person zu imitieren.

Cue @botustrump

Unter dem Twitter-Handle @botustrump spielt sich das ganze Spektakel ab. Der Developer hat sich dafür entschieden mit seiner Software US-Präsident Donald Trump zu imitieren. Wer mit Trump's Tweets (auf Twitter @realdonaldtrump) vertraut ist, wird mit Sicherheit keine Probleme damit haben, zu erkennen, warum die Entscheidung auf ihn fiel. Seine doch sehr eigene Art der Formulierung und die Verwendung nicht unbedingt gebräuchlicher Wörter können einen ziemlich guten Maßstab für den Output des Bots abgeben.

Der erste Eindruck? Verdammt beeindruckend. Natürlich gibt es nicht selten Tweets die wenig Sinn ergeben im Gegensatz (?) zu Trumps richtigen Account, dennoch muss man sagen, dass es auf den ersten Blick nicht so einfach ist, echt von fake zu unterscheiden.

GPT-2 bei der Arbeit

Wer den technischen Hintergrund hinter dem Modell kennen lernen will, ist mit diesen Links gut bedient: openai über gpt-2, "two minute papers"-video

Kurzgesagt ist GPT-2 vor allem deshalb spannend, weil es großteils unüberwacht lernen kann. In den meisten aktuellen Anwendungsfällen muss der Mensch noch die KI trainieren. Das beste Beispiel dafür ist reCAPTCHA, ein Service der seit Jahren von Google angeboten wird und uns gelegentlich davon aufhält eine Website zu besuchen oder einen Service zu nutzen. Wenn wir also gerade mal wieder auswählen "auf welchen Fotos ist ein Auto zu sehen?", trainieren wir in Wirklichkeit eine KI (bzw. wir helfen Google ein Machine Learning Dataset zu erstellen).

Das Ganze endet aber nicht bei Text

Bilder sagen ja bekannterweise mehr als 1000 Worte, aber wie sieht das Ganze dann eigentlich bei Videos aus? Ziemlich beeindruckend...und angsteinflößend. Wer von Deepfakes gehört hat, weiß sicherlich auf was ich hinaus will.

Vor gut 1,5 Jahren hat es eine Software namens Fakeapp v1 (treffender Name in meinen Augen) ins Internet geschafft. Das One-Man-Project erlangte in manchen Kreisen schnell viel Aufmerksamkeit und es konnte nun jeder (einigermaßen starke Hardware vorausgesetzt) mit dem Programm Deepfakes erzeugen.

Konkret handelt es sich bei Deepfakes im einfachsten Fall um Videos von Personen, deren Gesicht durch ein anderes ersetzt wurde. Wer also zum Beispiel statt Schwarzenegger lieber Silvester Stallone als "Terminator" gesehen hätte, kann sich jetzt diesen Traum erfüllen. Und das ganze sogar richtig realistisch.

Mit gebräuchlicher Consumer-Hardware, ausreichend Zeit und der nötigen Menge an Videomaterial kannst du das mittlerweile übrigens auch machen.

Abwarten und Tee trinken?

Wo das ganze hinführt ist ungewiss. Aber davon auszugehen, dass jeder verantwortungsbewusst mit solchen Werkzeugen umzugehen weiß, das ist unwahrscheinlich. Schreckliche Szenarien sind schnell ausgemalt, wenn man sich vorstellt, dass sich ein guter Schauspieler & Stimmenimitator (z.B. dieser Deepfake) schnell mal online als jede beliebige Person ausgeben könnte.

So sagt OpenAI (die Köpfe hinter GPT-2) auch selbst, gibt es aktuell keinen Plan das volle Modell zu veröffentlichen. Die Kosten für eine neue Ära an Fake-Kampagnen seien zu klein ebenso wie die aktuellen Möglichkeiten diese aufzudecken.

Not all bad

Neben den Horrorszenarien kann man die Technologie auch für viel Gutes einsetzen. So können wir etwa die Fotos von Verstorbenen zum Leben entwickeln um diese näher kennen zu lernen.

Vorläufig können wir auch versuchen die Technologie besser verstehen zu lernen und sie dazu zu nutzen, praktische Anwendungen für uns zu entwickeln.

Oder wir könnten zusehen, wie sich John Snow für die 8. Staffel von Game of Thrones entschuldigt.

Takeaway

Für uns heißt das jetzt konkret: der Fake-News Trend (zu sehen etwa in den letzten US-Präsidentschaftswahlen) könnte erst der Anfang sein. Es gilt also so viele Menschen wie möglich über die Technologie aufklären, Bewusstsein zu schaffen, und ihnen Möglichkeiten geben Wahrheit von Fake zu unterscheiden.  Schlussendlich liegt es an uns, was wir damit machen.

Artikel teilen