Forschungsthema: Deepfakes: Wie sie entstehen, wie sie (miss)braucht werden, und wie man sie erkennt
Deepfakes - das sind computergenerierte Bilder, Videos oder Audiodateien, die mithilfe von KI-Algorithmen erstellt werden und täuschend echt eine Person imitieren, um ihr z.B. Worte in den Mund zu legen, die sie nie gesagt hat. Deepfakes können für böswillige Zwecke missbraucht werden, z.B. die Erstellung von Fake News, Verleumdung oder Betrug. Da die zugrundeliegenden KI-Methoden immer mächtiger werden, werden auch die Deepfakes immer besser (und leichter zu erstellen, sogar für Laien), und somit immer schwerer zu erkennen. Was also tun? Nicolas Müller erforscht KI-Methoden, die dieser Herausforderung entgegnen. Das beinhaltet einerseits, die Bedrohung besser zu verstehen, und durch Demonstratoren, Schulungen und Workshop zu zeigen, wie einfach eine Stimme geklont werden kann. Dies fördert die Medienkompetenz und hilft, nicht so leicht auf Fakes hereinzufallen. Andererseits entwickelt er KI-Deepfake-Erkennungsmethoden, um diese falschen Videos aufzuspüren und zuverlässig zu erkennen.
Nicolas Müller hat an der TU München in Informatik promoviert. Vorher absolvierte er sein Staatsexamen in Informatik sowie in Mathematik und Theologie an der Universität Freiburg. Er arbeitet seit 2017 als wissenschaftlicher Mitarbeiter am Fraunhofer AISEC in Garching bei München.
Copyright | |
---|---|
SecuritySlam-226 Stephanie Leisten |
Deutsche Atlantische Gesellschaft e.V.
German Atlantic Association
Lennéstraße 11 · 10785 Berlin (Germany)
+49 30 20649–134
+49 30 20649–136
E‑Mail an die Geschäftsstelle