CSI:KI – Wie KI-Forensiker manipulierte Bilder erkennen

KI heute - A podcast by Nina Blümel & Frank Hoppe

Categories:

Wie schütze ich mich vor Deepfakes? In der heutigen Folge schauen wir einem IT-Forensiker über die Schulter.Stellt euch vor, ihr scrollt durch eure sozialen Medien und seht Fotos und Videos, von denen ihr nicht sicher seid, ob ihr ihnen noch vertrauen könnt. Laut einer aktuellen Umfrage der Bitkom sind ganze 70 Prozent der Befragten der Meinung, dass wir heute nicht mehr bedenkenlos glauben können, was  wir auf Fotos und in Videos sehen. Aber das ist noch nicht alles – ganze 63 Prozent geben an, dass ihnen Deepfakes Angst machen.In der Vergangenheit schien es fast unmöglich zu sein, hochwertiges Video- oder Audiomaterial glaubwürdig zu manipulieren. Die Herausforderung bestand darin, mindestens 16.000 Datenpunkte pro Sekunde konsistent zu verfälschen. Doch heute, in Zeiten von künstlicher Intelligenz, ist das kein Problem mehr. Die Frage, die sich uns stellt, ist: Wie können wir erkennen, wenn uns Deepfakes täuschen? Denn die Wahrheit zu erkennen, wird immer schwieriger.Hilfreiche Tipps und spannende Einsichten hat unser heutiger Gast, Prof. Dr. Martin Steinebach - Multimedia Security and IT Forensics Researcher (Fraunhofer SIT), mitgebracht.Fundstücke der Woche:Wie Kriminelle KI-Tools für Verbrechen nutzenDeepfakes - Gefahren und GegenmaßnahmenMissbrauch mit KI: So gefährlich sind DeepfakesOPITZ CONSULTING■■■ Digitale Service ManufakturDisclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Nina & Frank laden sich Gäste ein und sprechen mit ihnen über aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.

Visit the podcast's native language site