Von künstlicher Intelligenz generierte Bilder werden aktuell äußerst kontrovers diskutiert.
Die neue Technologie ist faszinierend, keine Frage, kann aber auch zu einem echten Problem für die die Menschheit werden, je “besser” und “intelligenter” sie wird. Zum Beispiel können dann im Internet verbeitete Deepfakes nicht nur auf persönlicher, sondern auch auf internationaler oder globaler Ebene gefährlich sein.
Ein Beispiel? Im März 2022 kursierte die Theorie im Netz, dass Chris Rock beim “Zusammentreffen” mit Will Smith bei der Oscar-Verleihung eine Augenbinde getragen habe, was beweisen sollte, dass die ganze Sache inszeniert gewesen sei. Der User, der das Originalbild geteilt hatte, gab an, dass er das Foto auf 8K hochskaliert hatte. Der KI-gesteuerte Upscaler hatte dabei Details in Rocks Gesicht hinzugefügt, die in Wirklichkeit gar nicht vorhanden waren.
Ein Tool wie DALL-E 2 oder MidJourney benötigt aktuell nur ein paar Worte in Form eines “Prompts”, um daraus ein Bild zu erzeugen. Es wird also immer wichtiger, die Unterschiede zwischen echten Bildern und Bildern, die von künstlicher Intelligenz erzeugt wurden, erkennen zu können. So fortschrittlich die Technologie auch sein mag, es gibt aktuell immer noch einige Punkte in von KI-generierten Bildern, die man leicht als “generiert” erkennen kann – wenn man denn weiß, worauf man achten muss.
Die Kollegen von SlashGear haben in diesem Fundstück drei Möglichkeiten gefunden, wie man generierte Fotos von echten Fotos unterscheiden kann. Im Artikel sind zudem einige interessante Quellen verlinkt, auf denen der verlinkte Artikel basiert und die man sich bei Interesse auch mal anschauen sollte.
Viel Spaß beim Lesen!
>> SlashGear