Deepfake-Bilder, die durch künstliche Intelligenz generiert werden, können politische Propaganda und nicht-einvernehmliche pornografische Inhalte verbreiten. Experten geben vier Tipps, um Deepfakes von echten Bildern zu unterscheiden.
In jüngster Zeit haben Bilder von Prominenten in ungewöhnlichen Situationen die Runde gemacht: So etwa ein virales Bild, das den Papst in einem dicken weißen Daunenmantel und mit einem juwelenbesetzten Kreuz zeigt. Oder Donald Trump bei seiner Verhaftung.
Es handelt sich dabei um Deepfakes, also gefälschte Bilder oder Videos, die durch künstliche Intelligenz (KI) generiert wurden. Das KI-Tool Midjourney ist in den letzten Monaten so mächtig geworden, dass es in der Lage ist, täuschend echt aussehende “Fotos” von Situationen zu generieren, die es nie gegeben hat. Diese Grafiken oder auch “Fotos” werden auf der Grundlage von Textbeschreibungen – so genannten Prompts – erzeugt.
Der KI-Experte Henry Ajder warnt vor den Konsequenzen von Deepfakes, die für politische Propaganda bis hin zu nicht einvernehmlichem pornografischem Material genutzt werden können. Auch “subtilere” Deepfakes, wie das Bild des Papstes in einer modischen weißen Daunenjacke, können das Vertrauen in visuelle Medien langsam untergraben und die Wahrheitsfindung erschweren.
Hier vier Tipps, um Deepfakes von echten Bildern zu unterscheiden:
- Einige KI-generierte Bilder können “plastisch” aussehen, was ein Hinweis darauf sein kann, dass das Bild mit Midjourney erzeugt wurde. Andere KI-Plattformen weisen dieses Merkmal nicht unbedingt auf.
- Achten Sie auf ästhetische Unstimmigkeiten wie ungewöhnliches Licht, übertriebene Augenbrauen oder unrealistische Proportionen. Diese können darauf hindeuten, dass das Bild gefälscht ist.
- Der Kontext ist wichtig. Fragen Sie, wer das Bild geteilt hat, wo es geteilt wurde und ob es mit vertrauenswürdigen Quellen verlinkt ist.
- Verwenden Sie Werkzeuge zur Bildumkehrung, um die Herkunft eines Bildes zu überprüfen und seine Verbreitung im Internet zu verfolgen.
Es wird aber immer schwieriger, Deepfakes zu erkennen, da die zur Verfügung stehenden KI-Tools immer ausgefeilter und besser werden. Trotzdem ist es wichtig, wachsam und aufmerksam zu bleiben, um Fehlinformationen zu vermeiden und die Quellen von Fotos verifizieren zu können. Genau aus diesem Grund warnen Experten, dass es wichtig ist, den Kontext eines Bildes zu berücksichtigen und vertrauenswürdige Quellen heranzuziehen, um die Authentizität eines Bildes zu überprüfen.