Deepfakes

Deepfakes sind gefälschte Medieninhalte (z. B. Videos, Bilder, Audioaufnahmen), die mithilfe von Künstlicher Intelligenz (KI) manipuliert oder vollständig generiert wurden. Diese Technologie basiert auf sogenannten Deep-Learning-Algorithmen, einer Unterform des maschinellen Lernens, die neuronale Netzwerke nutzt, um Muster in Bild- und Tonmaterial zu erkennen und zu imitieren.

Typische Anwendungen sind:

  • Gesichtsmanipulation: Das Gesicht einer Person wird in ein Video integriert, das ursprünglich jemand anderen zeigt, sodass es scheint, als würde die betroffene Person etwas sagen oder tun, was sie nie getan hat.
  • Stimmenfälschung: Mithilfe von Verfahren wie Text-to-Speech oder Voice Conversion können Stimmen nachgebildet werden, um täuschend echt zu klingen.
  • Erstellung neuer Inhalte: Vollständig synthetische Gesichter oder Stimmen, die keine reale Vorlage haben, können ebenfalls erzeugt werden.

Deepfakes werden für kreative Anwendungen, aber auch für schädliche Zwecke genutzt, wie z. B. die Verbreitung von Desinformation, Erpressung oder Betrug. Aktuelle Beispiele sind die Verwendung von Deepfakes in gefälschten Nachrichten, Kriegspropaganda oder im sogenannten „Deepfake-Porn“, wo ohne Zustimmung das Gesicht einer Person in pornografische Inhalte eingefügt wird.

Die Technologie birgt Risiken für die Informationssicherheit und erfordert Maßnahmen wie verbesserte Erkennungstechnologien, um Missbrauch zu verhindern. Organisationen wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) und Forschungsinitiativen arbeiten an entsprechenden Lösungen, etwa der Entwicklung von Software zur Erkennung von Deepfakes.