Zuhause Geschäft Ai und maschinelles Lernen nutzen, Deepfakes, jetzt schwerer zu erkennen

Ai und maschinelles Lernen nutzen, Deepfakes, jetzt schwerer zu erkennen

Inhaltsverzeichnis:

Video: So lernen Maschinen: #1 KI und maschinelles Lernen (November 2024)

Video: So lernen Maschinen: #1 KI und maschinelles Lernen (November 2024)
Anonim

Auf dem Weg in die nächste Wahlkampfsaison sollten Sie sich vor den potenziellen Gefahren in Acht nehmen, die gefälschte Online-Videos durch künstliche Intelligenz (KI) und maschinelles Lernen (ML) mit sich bringen. Mithilfe von KI-Software können Benutzer Deep-Fake-Videos (kurz für "Deep Learning and Fake") erstellen, in denen ML-Algorithmen zum Austauschen von Gesichtern verwendet werden, um die Illusion zu erzeugen, dass jemand etwas gesagt hat, was er nicht gesagt hat, oder dass er jemand ist. bist nicht. Deepfake-Videos tauchen in verschiedenen Bereichen auf, von Unterhaltung über Politik bis hin zur Unternehmenswelt. Deepfake-Videos können nicht nur eine Wahl mit falschen Botschaften unfair beeinflussen, sondern sie können auch persönliche Verlegenheit hervorrufen oder irreführende Markenbotschaften hervorrufen, wenn sie beispielsweise einen CEO anzeigen, der eine Produkteinführung oder eine Akquisition ankündigt, die tatsächlich nicht stattgefunden hat.

Deepfakes sind Teil einer Kategorie von KI, die als "Generative Adversarial Networks" oder GANs bezeichnet wird und in denen zwei neuronale Netzwerke miteinander konkurrieren, um Fotos oder Videos zu erstellen, die real erscheinen. GANs bestehen aus einem Generator, der einen neuen Datensatz wie ein gefälschtes Video erstellt, und einem Diskriminator, der mithilfe eines ML-Algorithmus Daten aus dem realen Video synthetisiert und vergleicht. Der Generator versucht weiterhin, das gefälschte Video mit dem alten zu synthetisieren, bis der Diskriminator nicht mehr erkennen kann, dass die Daten neu sind.

Wie Steve Grobman, Senior Vice President und Chief Technology Officer (CTO) von McAfee, auf der RSA-Konferenz 2019 im März in San Francisco betonte, gibt es seit der Erfindung der Fotografie gefälschte Fotografien. Er sagte, das Ändern von Fotos sei eine einfache Aufgabe, die Sie in einer Anwendung wie Adobe Photoshop ausführen können. Aber jetzt werden diese erweiterten Bearbeitungsfunktionen auch für Videos verwendet. Dabei werden leistungsfähige und leicht zugängliche Softwaretools verwendet.

Wie Deepfakes erstellt werden

Obwohl es hilfreich ist, KI-Konzepte zu verstehen, ist es nicht erforderlich, Datenwissenschaftler zu sein, um ein Deepfake-Video zu erstellen. Laut Grobman müssen nur einige Anweisungen online befolgt werden. Auf der RSA-Konferenz 2019 (siehe Video oben) stellte er zusammen mit Dr. Celeste Fralick, Chief Data Scientist und Senior Principal Engineer bei McAfee, ein Deepfake-Video vor. Das Deepfake-Video illustrierte die Bedrohung, die diese Technologie darstellt. Grobman und Fralick zeigten, wie ein Beamter in einem Video, in dem etwas Gefährliches gesagt wurde, die Öffentlichkeit irreführen konnte, die Botschaft für echt zu halten.

Um ihr Video zu erstellen, haben Grobman und Fralick Deepfake-Software heruntergeladen. Sie machten dann ein Video, in dem Grobman 2017 vor dem US-Senat aussagte, und stellten Fralicks Mund auf Grobmans.

"Ich habe frei verfügbare öffentliche Kommentare von verwendet, um ein ML-Modell zu erstellen und zu trainieren. Dadurch konnte ich ein Deepfake-Video entwickeln, bei dem meine Worte aus dem Mund kamen", sagte Fralick dem RSA-Publikum von der Bühne. Fralick fuhr fort, dass Deepfake-Videos für die soziale Ausbeutung und den Informationskrieg genutzt werden könnten.

Für die Erstellung ihres Deepfake-Videos verwendeten Grobman und Fralick ein von einem Reddit-Benutzer entwickeltes Tool namens FakeApp, das ML-Algorithmen und -Fotos verwendet, um Gesichter in Videos auszutauschen. Während ihrer RSA-Präsentation erklärte Grobman die nächsten Schritte. "Wir haben die Videos in Standbilder aufgeteilt, die Gesichter extrahiert und sie aufgeräumt, indem wir sie sortiert und in Instagram aufgeräumt haben."

Mit Python-Skripten konnte das McAfee-Team Mundbewegungen aufbauen, damit Fralicks Rede mit Grobmans Mund übereinstimmt. Dann mussten sie einige benutzerdefinierte Skripte schreiben. Die Herausforderung bei der Erstellung eines überzeugenden Deepfake besteht darin, dass Merkmale wie Geschlecht, Alter und Hautfarbe nicht übereinstimmen, so Grobman.

Anschließend verwendeten er und Fralick einen endgültigen AI-Algorithmus, um die Bilder von Grobman, die vor dem Senat aussagten, mit Fralicks Rede abzugleichen. Grobman fügte hinzu, dass es 12 Stunden dauerte, um diese ML-Algorithmen zu trainieren.

McAfee erläuterte die Schritte, die zur Erstellung eines Deepfake-Videos erforderlich waren, das auf der RSA-Konferenz 2019 gezeigt wurde. Es verwendete Deepfake-Software namens FakeApp und das Training von ML-Modellen, um das Video von Grobman mit der Rede von Fralick zu verändern. (Bildnachweis: McAfee).

Die Folgen von Deepfakes

Von Hackern erstellte Deepfake-Videos können viele Probleme verursachen - von Regierungsbeamten, die falsche Fehlinformationen verbreiten, bis zu Prominenten, denen es peinlich ist, in Videos zu sein, in denen sie wirklich nicht mit Unternehmen zu tun haben, die die Marktposition von Wettbewerbern beeinträchtigen. Angesichts dieser Probleme sandte der Gesetzgeber im September einen Brief an Daniel Coats, den Direktor des US-Geheimdienstes, um eine Überprüfung der Bedrohung durch Deepfakes anzufordern. In dem Brief wurde gewarnt, dass Länder wie Russland Deepfakes in sozialen Medien nutzen könnten, um falsche Informationen zu verbreiten. Im Dezember führte der Gesetzgeber das Gesetz über böswillige unechte Verbote von 2018 ein, um Betrug im Zusammenhang mit "audiovisuellen Aufzeichnungen", die sich auf unechte Nachahmungen beziehen, zu verbieten. Es bleibt abzuwarten, ob die Rechnung bestanden wird.

Wie bereits erwähnt, kann es für Prominente peinlich sein, Videos zu sehen, in denen die Gesichter der Pornostars mit ihren Gesichtern überlagert sind, wie dies bei Gal Gadot der Fall war. Oder stellen Sie sich einen CEO vor, der angeblich Produktneuheiten ankündigt und die Aktie eines Unternehmens senkt. Sicherheitsexperten können ML verwenden, um diese Art von Angriffen zu erkennen. Wenn sie jedoch nicht rechtzeitig erkannt werden, können sie einem Land oder einer Marke unnötigen Schaden zufügen.

"Mit Deepfakes können Sie wirklich überzeugende Videos erstellen, die einer Marke großen Schaden zufügen", sagte Dr. Chase Cunningham, Principal Analyst bei Forrester Research. Er fügte hinzu, dass Sie, wenn Sie diese Nachrichten auf LinkedIn oder Twitter verbreiten oder ein Bot-Formular verwenden, "die Aktie eines Unternehmens auf der Grundlage von gefälschten Videos ohne großen Aufwand zerschlagen können".

Durch gefälschte Videos könnten Verbraucher dazu verleitet werden, zu glauben, dass ein Produkt etwas kann, was es nicht kann. Cunningham bemerkte, dass, wenn der CEO eines großen Autoherstellers in einem Scheinvideo sagte, dass das Unternehmen keine gasbetriebenen Fahrzeuge mehr herstellen und diese Nachricht dann auf Twitter oder LinkedIn in diesem Video verbreiten würde, diese Aktion einer Marke leicht schaden könnte.

"Interessanterweise treffen die Leute nach meinen Recherchen Entscheidungen auf der Grundlage von Schlagzeilen und Videos in 37 Sekunden", sagte Cunningham. "Wenn Sie sich also ein Video vorstellen können, das länger als 37 Sekunden läuft, können Sie die Leute dazu bringen, eine Entscheidung auf der Grundlage von zu treffen." ob sachlich oder nicht. Und das ist erschreckend."

Da Social Media ein anfälliger Ort ist, an dem Deepfake-Videos viral werden können, arbeiten Social Media-Websites aktiv daran, die Bedrohung durch Deepfakes zu bekämpfen. Facebook setzt beispielsweise Ingenieurteams ein, die manipulierte Fotos, Audio- und Videodaten erkennen können. Zusätzlich zum Einsatz von Software stellen Facebook (und andere Social-Media-Unternehmen) Mitarbeiter ein, die manuell nach Deepfakes suchen.

"Wir haben unsere laufenden Bemühungen zur Bekämpfung manipulierter Medien ausgeweitet, um auch gegen Deepfakes vorzugehen", sagte ein Vertreter von Facebook in einer Erklärung. "Wir wissen, dass das ständige Aufkommen aller Formen manipulierter Medien echte Herausforderungen für die Gesellschaft darstellt. Deshalb investieren wir in neue technische Lösungen, lernen aus der akademischen Forschung und arbeiten mit anderen in der Branche zusammen, um Deepfakes und andere Formen manipulierter Medien zu verstehen."

Nicht alle Deepfakes sind schlecht

Wie wir mit dem pädagogischen Deepfake-Video von McAfee und den komödiantischen Deepfake-Videos im Late-Night-TV gesehen haben, sind einige Deepfake-Videos nicht unbedingt schlecht. Während die Politik die wahren Gefahren von Deepfake-Videos aufdecken kann, zeigt die Unterhaltungsbranche in der Tat oft nur die hellere Seite von Deepfake-Videos.

Zum Beispiel wurde in einer kürzlich erschienenen Folge von The Late Show With Stephen Colbert ein lustiges Deepfake-Video gezeigt, in dem das Gesicht von Schauspieler Steve Buscemi über den Körper von Schauspielerin Jennifer Lawrence gelegt wurde. In einem anderen Fall ersetzte der Komiker Jordan Peeler ein Video, in dem der frühere Präsident Barack Obama mit seiner eigenen Stimme sprach. Solche humorvollen Deepfake-Videos sind auch online erschienen, in denen das Gesicht von Präsident Trump dem Gesicht von Bundeskanzlerin Angela Merkel überlagert wird, während die Person spricht.

Wiederum, wenn die Deepfake-Videos für einen satirischen oder humoristischen Zweck oder einfach als Unterhaltung verwendet werden, dann erlauben oder nutzen Social-Media-Plattformen und sogar Filmproduktionshäuser sie. Facebook lässt diese Art von Inhalten beispielsweise auf seiner Plattform zu, und Lucasfilm verwendete eine Art digitaler Erholung, um eine junge Carrie Fisher in "Rogue One: A Star Wars Story" auf der Leiche der Schauspielerin Ingvild Deila zu zeigen.

McAfees Grobman bemerkte, dass ein Teil der Technologie, die hinter Deepfakes steckt, mit Stunt-Doubles beim Filmemachen sinnvoll eingesetzt wird, um die Sicherheit der Schauspieler zu gewährleisten. "Kontext ist alles. Wenn es für komödiantische Zwecke ist und es offensichtlich ist, dass es nicht real ist, dann ist dies ein legitimer Einsatz von Technologie", sagte Grobman. "Zu erkennen, dass es für alle möglichen Zwecke verwendet werden kann, ist der Schlüssel."

(Bildnachweis: Statista)

Deepfake-Videos erkennen

McAfee ist nicht die einzige Sicherheitsfirma, die versucht, gefälschte Videos zu erkennen. Zwei Sicherheitsexperten von Symantec, Security Response Lead Vijay Thaware und Software Development Engineer Niranjan Agnihotri, haben in ihrem auf Black Hat 2018 veröffentlichten Artikel mit dem Titel "AI Gone Rogue: Deep Fakes ausmerzen, bevor sie zu Bedrohungen führen" ein Tool zum Erkennen entwickelt gefälschte Videos basierend auf Google FaceNet. Google FaceNet ist eine neuronale Netzwerkarchitektur, die von Google-Forschern entwickelt wurde, um die Überprüfung und Erkennung von Gesichtern zu erleichtern. Benutzer trainieren ein FaceNet-Modell für ein bestimmtes Bild und können anschließend bei Tests ihre Identität überprüfen.

Um die Verbreitung gefälschter Videos zu stoppen, bietet AI Foundation, eine gemeinnützige Organisation, die sich auf die Interaktion zwischen Mensch und KI konzentriert, eine Software namens "Reality Defender" an, mit der gefälschte Inhalte entdeckt werden können. Es kann Bilder und Videos scannen, um festzustellen, ob sie mit AI geändert wurden. Wenn ja, erhalten sie ein "Ehrliches AI-Wasserzeichen".

  • Der Business Guide zum maschinellen Lernen Der Business Guide zum maschinellen Lernen
  • PornHub, Twitter-Verbot 'Deepfake' AI-Modifizierter Porno PornHub, Twitter-Verbot 'Deepfake' AI-Modifizierter Porno
  • Die neueste Deepfake-Technologie lässt Sie wie Bruno Mars tanzen Die neueste Deepfake-Technologie lässt Sie wie Bruno Mars tanzen

Eine andere Strategie besteht darin, das Konzept von Zero Trust im Hinterkopf zu behalten. Dies bedeutet, dass Sie niemals vertrauen, sondern immer überprüfen müssen. Dies ist ein Motto der Cybersicherheit, bei dem IT-Experten sicherstellen müssen, dass alle Benutzer legitim sind, bevor Sie Zugriffsberechtigungen erteilen. Ein Verbleib bei der Gültigkeit von Videoinhalten ist notwendig. Sie möchten auch Software mit digitalen Analysefunktionen, mit der Sie gefälschte Inhalte erkennen können.

Auf der Suche nach Deepfakes

In Zukunft müssen wir mit Videoinhalten vorsichtiger umgehen und die Gefahren berücksichtigen, die sie bei Missbrauch für die Gesellschaft darstellen können. Wie Grobman bemerkte: "Kurzfristig müssen die Menschen skeptischer gegenüber dem sein, was sie sehen und erkennen, dass Video und Audio hergestellt werden können."

Behalten Sie also die politischen Videos, die Sie sich in der nächsten Wahlsaison ansehen, mit Skepsis im Auge und vertrauen Sie nicht allen Videos mit Unternehmensleitern. Denn was Sie hören, ist möglicherweise nicht das, was wirklich gesagt wurde, und irreführende Deepfake-Videos können unserer Gesellschaft wirklich schaden.

Ai und maschinelles Lernen nutzen, Deepfakes, jetzt schwerer zu erkennen