Vertrauensspiel. So erstellen Sie in 5 Minuten Ihren eigenen DeepFake
In diesem Artikel sprechen wir darüber, wie man ein professionelles DeepFake erstellt, ohne ein paar hundert Zeilen Code schreiben zu müssen.
Wenn Sie diesen Artikel lesen, haben Sie höchstwahrscheinlich schon von dem Algorithmus für künstliche Intelligenz namens DeepFake gehört. Heute werden Deepfakes fast überall eingesetzt: vom Kino bis zum Pornovideo. Eine kürzlich durchgeführte Studie hat gezeigt, dass 96 % der Deepfakes im Internet tatsächlich Pornovideos sind. In den meisten Fällen erstellen Benutzer gefälschte Promi-Pornovideos oder verwenden Technologien für Rachepornos.
Neben der Pornografie wird die Technologie auch in der Politik, der Erstellung von Fake News und verschiedenen Arten von Täuschungen eingesetzt. Im Internet gibt es viele ähnliche Videos mit verschiedenen politischen Persönlichkeiten, in einem davon hat beispielsweise Obama Trump einen kompletten Dipshit (ein Arschloch) genannt. Im April 2018 zeigte BuzzFeed, wie weit die Videofälschung fortgeschritten ist, indem es das Gesicht von Barack Obama und die überzeugende Stimme von Jordan Peele kombinierte.
BuzzFeed-Deepfake-Beispiel
Technologie wird jedoch nicht nur zum Schaden, sondern auch zum Nutzen der Gesellschaft eingesetzt. So wurde beispielsweise im Salvador Dali Museum in Florida zu Ehren des 115. Geburtstags des berühmten Künstlers eine Sonderausstellung Dalí Lives („Dali lebt”) organisiert. Die Projektkuratoren verwendeten einen KI-generierten Prototyp des Künstlers, der mit Museumsbesuchern kommunizierte und ihnen Geschichten über seine Gemälde und sein Leben erzählte.
Aber Sie müssen kein erfahrener Entwickler sein, um Ihren eigenen Deepfake zu erstellen. Alles, was Sie brauchen, ist ein normales Foto, das Sie animieren möchten, und ein Video Ihres Lieblingskünstlers oder desjenigen, dessen Bewegungen Sie nachahmen möchten.
Um den oben beschriebenen Prozess zu simulieren, implementieren wir eine Bildanimation, die mit Hilfe von neuronalen Netzen möglich ist, die das Bild in der von Ihnen gewählten Videosequenz bewegen. Nachdem Sie diesen Artikel bis zum Ende gelesen haben, werden Sie verstehen, dass Sie jedes Foto animieren können, ohne eine einzige Codezeile schreiben zu müssen.
Wie es funktioniert?
Deepfakes basieren auf Generative Adversarial Neural Networks (GANs). Das sind auf maschinellem Lernen basierende Algorithmen, die aus einer gegebenen Menge neue Inhalte generieren können. GAN kann beispielsweise tausend Fotos von Barack Obama studieren und seine eigenen erstellen, wobei alle Gesichtszüge und Gesichtsausdrücke des Ex-Präsidenten erhalten bleiben.
Wir werden das in „ Bewegungsmodell erster Ordnung für Bildanimation ” eingeführte Modell verwenden, das ein neuer Ansatz zum Ersetzen eines Objekts in einem Video durch ein anderes Bild ist, ohne zusätzliche Informationen anzugeben und zusätzlichen Code zu schreiben.
Bevor Sie eine Videosequenz erstellen, ist es sehr wichtig, genau zu verstehen, wie es geht.
Bei der Verwendung dieses Modells hilft das neuronale Netzwerk bei der Rekonstruktion des Videos, wobei das ursprüngliche Motiv durch ein anderes Objekt ersetzt wird, das sich im Originalbild befindet. Während des Tests versucht das Programm, basierend auf dem hinzugefügten Video vorherzusagen, wie sich das Objekt im Originalbild bewegen wird. So wird jede kleinste im Video dargestellte Bewegung getrackt, angefangen bei der Kopfdrehung bis hin zur Bewegung der Lippenwinkel.
Der Prozess der Erstellung von DeepFake
Die Tests werden an einer großen Anzahl von Videos durchgeführt. Um das Video zu rekonstruieren, extrahiert das Modell mehrere Frames und versucht, die Muster der ausgeführten Bewegungen zu lernen. Durch die Analyse der extrahierten Informationen lernt sie, die Bewegung als eine Mischung aus Schlüsselpunktbewegungen, die für sie spezifisch sind, und ihren eigenen affinen Transformationen zu kodieren.
Während des Tests rekonstruiert das Modell die Videosequenz, indem es jedem Frame des Videos ein Objekt aus dem Originalbild hinzufügt und es somit animiert.
Der Rahmen wird durch die Verwendung eines Bewegungsauswertungsmoduls und eines Bilderzeugungsmoduls implementiert.
Der Zweck des Bewegungsbewertungsmoduls besteht darin, genau zu verstehen, wie sie ausgeführt werden („ latente Bewegungsdarstellung “). Einfach ausgedrückt versucht es, die Bewegungen in ihrer Abfolge zu verfolgen und sie zu codieren, um Schlüsselpunkte zu verschieben und lokale affine Transformationen aufzuzeichnen. Das Ergebnis ist ein dichtes Bewegungsfeld und eine okklusale Maske, die zusammenwirken. Die Maske bestimmt, welche Teile des Objekts, die sich in einer bestimmten Reihenfolge bewegen, durch das Originalbild ersetzt werden sollen (z. B. der untere Teil des Gesichts).
In diesem GIF ist beispielsweise der Rücken der Dame nicht animiert.
Schließlich werden die vom Bewegungsschätzungsmodul empfangenen Daten zusammen mit dem Originalbild und der ausgewählten Videodatei an das Bilderzeugungsmodul gesendet. Der Bildgenerator erzeugt Frames aus bewegtem Video, wobei das ursprüngliche Bildobjekt ersetzt wird. Die Frames werden zusammengefügt, um anschließend ein neues Video zu erstellen.
Erstellung von DeepFakes
Sie können den Quellcode leicht auf Github finden, ihn auf Ihrem eigenen Computer klonen und alles dort ausführen, aber es gibt einen einfacheren Weg, mit dem Sie in nur 5 Minuten ein fertiges Video erhalten.
- Folgen Sie dem Link: https://colab.research.google.com/github/AwaleSajil/DeepFake_1/blob/master/first_order_model_demo(Youtube)_new_audioV5_a.ipynb
- Erstellen Sie eine Kopie der ipynb -Datei in Ihrem Google-Laufwerk.
3 Führen Sie den ersten Prozess aus, um alle erforderlichen Ressourcen herunterzuladen und Modellparameter festzulegen.
4 Anschließend können Sie den Algorithmus anhand einer vorbereiteten Sammlung von Videos und Fotos testen. Wählen Sie einfach ein Quellbild aus der Sammlung und das Video aus, das Sie auf dieses Bild projizieren möchten. Nach ein paar Minuten haben Sie einen fertigen Deepfake in Ihren Händen.
5 Um Ihr eigenes Video zu erstellen, geben Sie den Pfad zum Originalbild und zum bewegten Video in die dritte Zelle ein. Sie können sie direkt in den Ordner mit dem Modell herunterladen, der durch Klicken auf das Ordnersymbol links im Menü geöffnet werden kann. Es ist wichtig, dass Ihr Video auf das Gesicht zugeschnitten ist und im mp4-Format vorliegt. Sie können auch die Beispiele aus der Sammlung in diesem Abschnitt verwenden.
Durch die Kombination des Videos mit Ivangai und dem Foto von Elon Musk gelang es uns, den folgenden Deepfake zu erhalten