Interview: "Deepfakes sind ein sehr mächtiges Werkzeug"
Mit so genannten Deepfakes stehen Cyberkriminellen ganz neue Möglichkeiten offen. Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) erklärt im Interview, wie überzeugend gefälschte Audio- und Videodateien mittlerweile sind und wie man sie entlarvt.
Braucht man besondere IT-Skills, um Stimmen zu klonen?
Nein. Technologien wie das so genannte Few-Shot-Learning oder auch One-Shot-Learning ermöglichen, dass eine KI bereits aus wenigen oder sogar nur einem Trainingsbeispiel sehr gut lernen kann. Auch der Zugang zu solcher Technologie ist recht einfach. Ab fünf Euro im Monat kann man solche KI-Software nutzen. Um Audio-Spuren künstlich zu erzeugen, reicht im Grunde ein 20-sekündiger Audiomitschnitt. Je länger und qualitativ hochwertiger die hochgeladenen Audiodaten sind, desto besser fällt das Ergebnis aus. Sicherheitschecks finden dabei übrigens nicht statt – man muss lediglich bestätigen, selbst der Inhaber des hochgeladenen Audios zu sein. Man braucht also weder eine große Anzahl von Daten noch besondere technische Kenntnisse, um digital erstellte Stimmaufnahmen – sogenannte Audio-Deepfakes – zu generieren.
Welche Verfahren zur…