Inhaltsverzeichnis
Wie LLMs, Deepfakes & Co. uns auf die falsche Fährte locken
Generative KI ist die meistdiskutierte Technologie unserer Zeit.
LLMs, Deepfakes und KI-generierte Stimmen erobern unseren Alltag in rasendem Tempo und lösen dabei die unterschiedlichsten Reaktionen aus: von Staunen und Begeisterung bis hin zu Ablehnung und Angst.
Der Grund: KI ahmt menschliche Sprache, Stimmen, Bilder und Videos so exakt nach, dass der Unterschied zwischen „echt“ und „fake“ manchmal verschwimmt.
Als Sprachexperte fällt es mir bisher noch nicht schwer, KI-generierte Texte zu erkennen:
Je länger der Ausschnitt, desto klarer wird, ob ein LLM dahintersteckt.
In den nächsten Jahren könnten Chatbots aber so leistungsfähig werden, dass der Unterschied kaum noch auszumachen ist.
Dasselbe gilt für KI-generierte Bilder, Videos und Audioformate (z. B. Musik).
Die Angst vor dem Missbrauch
Die Potenziale dieser Technologien liegen auf der Hand.
Sie sorgen für Zeitersparnis, neue kreative Möglichkeiten – und einen noch schnelleren und gezielteren Zugriff auf Informationen, als es mit Google je möglich war.
Gleichzeitig wächst die Sorge vor dem Missbrauch.
Wenn Texte, Bilder und Stimmen beliebig „gefakt“ werden können – wem können wir dann noch trauen?
„Stammen die Social-Media-Posts, die wir täglich lesen, von echten Menschen oder von Bots?“
„Ist die Stimme am Telefon ‚echt‘ oder ‚gefakt‘“?
„Zeigt das Video der Regierungsansprache wirklich den Präsidenten?“
In nicht allzu ferner Zukunft dürfte es uns immer schwerer fallen, auf solche Fragen eine eindeutige Antwort zu geben.
Kein Wunder also, dass Verunsicherung aufkommt.
Menschen und Gruppierungen mit politischer oder religiöser Agenda, skrupellose Unternehmer, Ideologen und Betrüger aller Art können und werden KI nutzen, um ihre Ziele zu erreichen.
Was tun?
Das technologische Wettrüsten
Wie immer, wenn etwas aus dem Ruder zu laufen droht, wird in der Politik der Ruf nach Taten laut.
Man müsse jetzt handeln, dürfe nicht zögern, weil man sonst den Gewissenlosen das Feld überlasse.
Also auf ins technologische Wettrüsten – und her mit der KI, die die KI enttarnt!
Das schafft Arbeitsplätze, Sicherheit und Vertrauen – und damit die Basis für den Wohlstand von morgen.
In der Tat:
Dieses technologische Wettrüsten ist notwendig – und ebenso alternativlos wie das militärische.
Zugleich aber ist es aussichtslos, weil der Kampf nicht zu gewinnen ist.
Denn im Kern kämpfen wir nicht gegen hochentwickelte Technologien, sondern gegen verblendete Menschen.
Jene, die glauben, tun und lassen zu können, was ihnen beliebt, sofern es ihnen nutzt.
Wie der Präsident des wirtschaftlich und militärisch mächtigsten Landes der Welt.
Die entscheidende Frage
In gewisser Weise sind uns also die Hände gebunden.
Besonders wenn unser politischer Einfluss und unsere finanziellen Ressourcen beschränkt sind.
Aber kein Grund, die Flinte ins Korn zu werfen!
Denn die entscheidende Frage lautet gar nicht:
„Wie kann ich ‚echt‘ und ‚fake‘ unterscheiden?“
Sie lautet:
„Wie reagiere ich auf Texte, Bilder, Videos und Stimmen – egal ob ‚echt‘ oder ‚gefakt‘?“
Und darauf haben wir durchaus Einfluss – unabhängig von Status, Macht und Moneten.
In Zukunft geht es vielleicht weniger darum, ob es wirklich Papa Trump war, der genau dies in genau jenem Wortlaut gesagt hat.
Ob die Stimme am Telefon wirklich dem Mitarbeiter eines Meinungsforschungsinstituts gehört.
Ob das freundliche Gesicht auf YouTube, das mir erklärt, wie ich erfolgreicher werde, „echt“ ist.
Die Frage ist eher:
- Ist das, was da gesagt wird, relevant?
- Schadet es, wenn ich nicht reagiere?
Und am wichtigsten:
- Stimmt das, was da gesagt wird, mit meinem moralischen Kompass überein?
Ich glaube, die größte Gefahr von KI-Fakes besteht darin, dass sie uns von uns selbst entfernen.
Sie gaukeln uns vor, dass Dinge wichtig wären, die nicht wichtig sind.
Sie animieren uns dazu, zu Dingen Stellung zu beziehen, die uns gar nichts angehen.
Und vor allem: Sie drängen uns dazu, anders zu handeln, als wir es nach unserer inneren Intuition tun würden.
Mit vermeintlich guten Gründen.
Aber unsere Intuition ist intelligenter als KI und intelligenter als Präsident Schlumpf.
Sie ist die Summe unseres Wissens und unserer Erfahrungen – Ergebnis einer 4 Milliarden Jahre dauernden Evolution.
Wieso sollten wir zulassen, dass ein KI-generiertes Artefakt – ob Text, Stimme oder Bild – diese Intelligenz aushebelt?
Und ich bin mir ziemlich sicher:
Wo’s wirklich drauf ankommt, wird es auch in Zukunft keine Täuschung geben:
Im Hier und Jetzt, in meiner unmittelbaren Umgebung.
In der „echten“ Welt.
Jener Welt, die von vielen gar nicht mehr wahrgenommen wird – außer durch die digitale Brille.
In dieser Welt haben LLMs und Deepfakes nur so viel Raum, wie wir ihnen geben.
Die Chance
Junge Menschen lernen heute, richtig zu prompten.
Sie lernen, welchen Input es braucht, damit die KI das ausspuckt, was sie wollen.
Den meisten von ihnen dürfte das bekannt vorkommen.
Auch sie werden in der Schule „gepromptet“.
Tag für Tag werden sie mit Lernstoff vollgepumpt, damit sie am Ende das ausspucken, was wir wollen.
Möglichst ohne kritisches Hinterfragen.
Vielleicht können wir jetzt, wo es KI gibt, unseren Kindern ein bisschen mehr Freiraum gewähren?
Wir können Aufgaben vom Format „Tu dies, tu jenes!“ künftig mehr an Maschinen delegieren und dafür unsere Kinder weniger wie Maschinen behandeln.
Indem wir unsere Aufmerksamkeit nicht auf ihren Output lenken – und auch nicht auf den Input.
Sondern auf das, was dazwischen ist: den Menschen.
Wenn dieser Mensch sich wohlfühlt, gesehen fühlt, dann wird er sich später im digitalen Dschungel nicht zwischen Deepfakes und Fake News verlieren.
Weil er gelernt hat, auf seine innere Stimme zu hören.
Und die sagt ihm, wo er steht, was er fühlt und wer er ist.
Nicht die KI.