Deepfakes setzt sich aus den Begriffen „Fake“ und „Deep Learning“, was eine Methode des maschinellen Lernens ist, zusammen. Es handelt sich dabei um äußerst authentisch wirkende Videos, Bilder oder auch Audio-Dateien. In Wirklichkeit sind diese von Authentizität meilenweit entfernt. Medien werden mithilfe von KI absichtlich abgeändert, verfälscht und regelrecht manipuliert. Sie sehen oder hören also Menschen Dinge tun oder sagen, die sie nie wirklich getan oder gesagt haben und das kann in vielerlei Hinsicht problematisch sein.
Durch die stetigen Fortschritte in der Technologie steigt auch die Qualität von KI-Programmen und damit die Glaubwürdigkeit der Deepfakes. Die KI entwickelt sich schlichtweg in riesigen, unaufhaltbaren Schritten. Deepfakes werden immer realer, immer besser. Das macht es für die Menschen schwerer die „fake“ Videos und Aussagen herauszufiltern und die Wahrheit zu erkennen.
Einfaches Vergnügen oder doch ernste Bedrohung?
Im privaten Rahmen dienen Deepfakes häufig zur Unterhaltung. Menschen erstellen lustige Videos, in denen sie plötzlich 20 Jahre älter sind oder sich in einer bekannten Filmszene befinden. Dieser vermeintliche Spaß kann in der Öffentlichkeit, insbesondere im Zusammenhang mit Politik oder bekannten Persönlichkeiten, schnell zur Gefahr werden. Als Mittel zur Manipulation, Propaganda und Rufmord eingesetzt, werden oftmals absichtlich Desinformationen verbreitet. Das Potential zum Missbrauch ist enorm. Deepfakes legen Politikern Worte in den Mund, die sie nie gesagt haben oder machen Prominente zu Pornodarstellern. Letzteres kommt besonders häufig vor und kann den Ruf von Personen schwerwiegend schädigen und ihre Existenz zunichte machen.
Gefahren für Privatpersonen
Nicht nur Personen des öffentlichen Lebens sind von den negativen Aspekten der Deepfakes betroffen. Ebenso können diese Medienmanipulationen Privatpersonen zum Verhängnis werden. Inzwischen sind Deepfakes keineswegs mehr etwas, was nur von äußerste tech-affinen Personen, Geheimdiensten oder großen Hollywood-Studios ausgeführt werden kann. Die dafür notwendigen Softwares stehen zur freien Verfügung im Internet und ermöglichen es der breiten Masse relativ einfach Deepfakes zu erstellen. Zahlreiche Privatpersonen sind ebenfalls schon den sogenannten „Deepfake-Pornos“ zum Opfer gefallen. Diese Form von Deepfakes hat einen hohen individuellen Schaden zur Folge. Der Fakt, dass immer mehr Menschen Bilder und Videos von sich im Internet teilen, macht es den Tätern noch leichter und das Risiko selbst Opfer zu werden steigt erheblich.
Tipps, um Deepfakes zu erkennen:
Derzeit sind die meisten Deepfakes noch mit bloßem Auge erkennbar. Saferinternet.at hat einige typische Merkmale, an denen Deepfakes erkennt werden können, zusammengefasst:
- Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder merkwürdig aussehende Haare können entlarvend sein.
- Unscharfe Übergänge: Achten Sie auf Übergänge, wie jene zwischen Gesicht und Haaren oder Gesicht und Hals. Diese Übergänge sind bei Deepfakes oftmals unscharf.
- Fehlendes Blinzeln: Menschen blinzeln ganz automatisch alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal!
- Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
- Unlogischer Hintergrund: Sehen Sie sich den Hintergrund sowie den Übergang zwischen Gesicht und Hintergrund an – oftmals zeigen sich erst beim genaueren Betrachten Fehler!
- Unseriöse Quelle: Wo sind Sie auf das Video oder auf das Bild gestoßen? Ist die Quelle vertrauenswürdig oder eher dubios?
- Umgekehrte Suche: Auf TinEye.com oder berify.com können Sie Videos sowie Bilder hochladen, um im Internet danach zu suchen und so ihre Echtheit zu überprüfen.
- Skeptisch sein: Wenn die Aussagen oder das Verhalten der gezeigten Person sehr ungewöhnlich für die Person sind, können Sie ruhig skeptisch sein.