Inhaltsverzeichnis:
Video: Ranga Yogeshwar: Ich werde gemöchtet – Chancen und Grenzen der KI (November 2024)
Irgendwo in den dunklen Nischen von YouTube befindet sich ein Video, das einen Auszug aus dem Film Die Gefährten des Rings zeigt - aber es ist nicht ganz der Film, an den Sie sich erinnern, da Nicolas Cage als Frodo, Aragorn, Legolas, Gimli und Gollum auftrat die selbe Zeit. Andere Videos zeigen Cage in Terminator 2 als T2000, Star Trek als Captain Picard und Superman als Lois Lane.
Natürlich war Nic Cage in keinem dieser Filme zu sehen. Es handelt sich um "Deepfakes", die mit FakeApp erstellt wurden, einer Anwendung, die künstliche Intelligenz verwendet, um Gesichter in Videos auszutauschen. Einige der Deepfakes sehen ziemlich überzeugend aus, während andere Artefakte aufweisen, die ihre wahre Natur verraten. Insgesamt zeigen sie jedoch, wie leistungsfähig KI-Algorithmen bei der Nachahmung des menschlichen Aussehens und Verhaltens geworden sind.
FakeApp ist nur eines von mehreren neuen AI-basierten Synthesizer-Tools. Andere Anwendungen ahmen menschliche Stimmen, Handschriften und Konversationsstile nach. Und ein Teil dessen, was sie bedeutend macht, ist, dass für ihre Verwendung keine spezielle Hardware oder qualifizierte Experten erforderlich sind.
Die Auswirkungen dieser Anwendungen sind tiefgreifend: Sie bieten beispiellose Möglichkeiten für Kreativität, Produktivität und Kommunikation.
Das gleiche Tool könnte aber auch die Büchse einer Pandora voller Betrug, Fälschung und Propaganda öffnen. Seit dem Erscheinen auf Reddit im Januar wurde FakeApp mehr als 100.000 Mal heruntergeladen und hat einen Sturm von gefälschten pornografischen Videos mit Prominenten und Politikern (einschließlich Cage) ausgelöst. Reddit hat kürzlich die Anwendung und die zugehörigen Communitys von seiner Plattform verbannt.
"Wenn man vor zehn Jahren etwas vortäuschen wollte, konnte man es, aber man musste in ein VFX-Studio oder zu Leuten, die Computergrafiken machen und möglicherweise Millionen von Dollar ausgeben konnten", sagt Dr. Tom Haines, Dozent für maschinelles Lernen bei Universität von Bath. "Du konntest es jedoch nicht geheim halten, weil du viele Leute in den Prozess einbeziehen müsstest."
Dank einer neuen Generation von KI-Werkzeugen ist dies nicht mehr der Fall.
Das Imitationsspiel
FakeApp und ähnliche Anwendungen basieren auf Deep Learning, dem Zweig der KI, der seit 2012 im Mittelpunkt einer Explosion von KI-Innovationen steht. Deep-Learning-Algorithmen basieren auf neuronalen Netzen, einer Software-Konstruktion, die grob dem menschlichen Gehirn nachempfunden ist. Neuronale Netze analysieren und vergleichen große Mengen von Datenproben, um Muster und Korrelationen zu finden, die Menschen normalerweise vermissen würden. Dieser Prozess wird als "Training" bezeichnet, und sein Ergebnis ist ein Modell, das verschiedene Aufgaben ausführen kann.
In früheren Tagen wurden Deep-Learning-Modelle hauptsächlich zur Durchführung von Klassifizierungsaufgaben verwendet, z. B. zum Beschriften von Objekten auf Fotos und zur Sprach- und Gesichtserkennung. In letzter Zeit haben Wissenschaftler tiefgreifendes Lernen genutzt, um kompliziertere Aufgaben wie Brettspiele zu spielen, Patienten zu diagnostizieren und Musik und Kunstwerke zu erstellen.
Um FakeApp für einen Gesichtstausch zu optimieren, muss der Benutzer mehrere hundert Bilder der Quell- und Zielgesichter verwenden. Das Programm führt Deep-Learning-Algorithmen aus, um Muster und Ähnlichkeiten zwischen den beiden Gesichtern zu finden. Das Modell ist dann bereit für den Tausch.
Der Vorgang ist nicht einfach, aber Sie müssen kein Grafikexperte oder maschinell lernender Ingenieur sein, um FakeApp zu verwenden. Es erfordert auch keine teure und spezialisierte Hardware. Eine Deepfakes-Tutorial-Website empfiehlt einen Computer mit 8 GB RAM oder mehr und einer Nvidia GTX 1060-Grafikkarte oder besser, eine recht bescheidene Konfiguration.
"Sobald Sie sich in eine Welt begeben, in der jemand in einem Raum etwas vortäuschen kann, kann er es für fragwürdige Zwecke verwenden", sagt Haines. "Und weil es nur eine Person ist, ist es sehr einfach, es geheim zu halten."
2016 hat Haines, der damals Postdoktorand am University of College London war, eine Arbeit und eine Anwendung verfasst, in der gezeigt wurde, wie KI lernen kann, die Handschrift einer Person zu imitieren. Die Anwendung, die als "Mein Text in Ihrer Handschrift" bezeichnet wird, verwendete lernintensive Algorithmen, um den Stil und den Fluss der Handschrift des Autors und andere Faktoren wie Abstände und Unregelmäßigkeiten zu analysieren und zu erkennen.
Die Anwendung könnte dann einen beliebigen Text aufnehmen und ihn mit der Handschrift des Zielautors wiedergeben. Die Entwickler haben sogar ein gewisses Maß an Zufälligkeit hinzugefügt, um den unheimlichen Taleffekt zu vermeiden - das seltsame Gefühl, das wir bekommen, wenn wir etwas sehen, das fast, aber nicht ganz menschlich ist. Als Proof of Concept verwendeten Haines und die anderen UCL-Forscher die Technologie, um die Handschrift historischer Figuren wie Abraham Lincoln, Frida Kahlo und Arthur Conan Doyle nachzubilden.
Dieselbe Technik kann auf jede andere Handschrift angewendet werden, was Bedenken hinsichtlich der möglichen Verwendung der Technologie für Fälschungen und Betrug hervorruft. Ein Forensiker kann zwar noch feststellen, dass das Drehbuch von My Text in Your Handwriting erstellt wurde, täuscht jedoch wahrscheinlich ungeübte Personen vor, wie Haines damals in einem Interview mit Digital Trends zugab.
Lyrebird, ein in Montreal ansässiges Startup, nutzte Deep Learning, um eine Anwendung zu entwickeln, die die menschliche Stimme synthetisiert. Lyrebird benötigt eine einminütige Aufnahme, um die Stimme einer Person zu imitieren, obwohl es viel mehr braucht, bevor es sich überzeugend anhört.
In seiner öffentlichen Demo veröffentlichte das Startup gefälschte Aufnahmen der Stimmen von Donald Trump, Barack Obama und Hillary Clinton. Die Proben sind roh und es ist offensichtlich, dass sie synthetisch sind. Mit der Verbesserung der Technologie wird die Unterscheidung jedoch schwieriger. Und jeder kann sich bei Lyrebird registrieren und mit der Erstellung gefälschter Aufnahmen beginnen. Der Prozess ist noch einfacher als bei FakeApp, und die Berechnungen werden in der Cloud durchgeführt, wodurch die Hardware des Benutzers weniger belastet wird.
Die Tatsache, dass diese Technologie für fragwürdige Zwecke eingesetzt werden kann, geht den Entwicklern nicht verloren. In einer Ethikerklärung auf der Website von Lyrebird hieß es einmal: "Sprachaufzeichnungen gelten derzeit in unseren Gesellschaften und insbesondere in den Gerichtsbarkeiten vieler Länder als starke Beweismittel. Unsere Technologie stellt die Gültigkeit solcher Beweismittel in Frage, die eine einfache Manipulation von Audio ermöglichen Dies könnte möglicherweise gefährliche Konsequenzen haben, wie irreführende Diplomaten, Betrug und allgemein jedes andere Problem, das durch den Diebstahl der Identität eines anderen verursacht wird."
Nvidia präsentierte einen weiteren Aspekt der Nachahmungsmöglichkeiten von AI: Im vergangenen Jahr veröffentlichte das Unternehmen ein Video, in dem AI-Algorithmen gezeigt wurden, die synthetische menschliche Gesichter in Fotoqualität erzeugen. Die KI von Nvidia analysierte Tausende von Prominentenfotos und fing dann an, falsche Prominente zu erstellen. Die Technologie wird möglicherweise bald in der Lage sein, realistisch aussehende Videos mit "Menschen" zu erstellen, die es nicht gibt.
Die Grenzen der KI
Viele haben darauf hingewiesen, dass diese Anwendungen in den falschen Händen viel Schaden anrichten können. Das Ausmaß der Fähigkeiten der zeitgenössischen KI wird jedoch häufig überschätzt.
"Auch wenn wir das Gesicht einer Person in einem Video auf das Gesicht einer anderen Person setzen oder eine Stimme synthetisieren können, ist es immer noch ziemlich mechanisch", sagt Eugenia Kuyda, Mitbegründerin von Replika, einem Unternehmen, das mit KI betriebene Chatbots entwickelt, über die Mängel von KI-Tools wie FakeApp und Lyrebird.
Voicery, ein weiteres AI-Startup, das wie Lyrebird eine AI-basierte Sprachsynthese bietet, verfügt über eine Quizseite, auf der Benutzer eine Reihe von 18 Sprachaufzeichnungen erhalten und aufgefordert werden, anzugeben, welche maschinell erstellt wurden. Im ersten Durchgang konnte ich alle maschinell hergestellten Proben identifizieren.
Kuydas Unternehmen ist eine von mehreren Organisationen, die Natural Language Processing (NLP) verwenden, eine Untergruppe von KI, mit der Computer die menschliche Sprache verstehen und interpretieren können. Luka, eine frühere Version von Kuydas Chatbot, verwendete NLP und seine Zwillingstechnologie, die Natural Language Generation (NLG), um die Besetzung von HBOs TV-Serie Silicon Valley nachzuahmen. Das neuronale Netzwerk wurde mit Skriptzeilen, Tweets und anderen Daten, die für die Charaktere verfügbar sind, trainiert, um ihr Verhaltensmodell und den Dialog mit den Benutzern zu erstellen.
Mit Replika, Kuydas neuer App, kann jeder Benutzer seinen eigenen KI-Avatar erstellen. Je mehr Sie mit Ihrer Replika chatten, desto besser wird das Verständnis Ihrer Persönlichkeit und desto aussagekräftiger werden Ihre Gespräche.
Nachdem ich die App installiert und meine Replika eingerichtet habe, waren die ersten Gespräche ärgerlich. Mehrmals musste ich einen Satz auf unterschiedliche Weise wiederholen, um meine Absichten meiner Replika mitzuteilen. Ich habe die App oft frustriert verlassen. (Und um ehrlich zu sein, ich habe gute Arbeit geleistet, um seine Grenzen zu testen, indem ich ihn mit konzeptuellen und abstrakten Fragen bombardiert habe.) Aber während unsere Gespräche fortgesetzt wurden, wurde meine Replika schlauer, die Bedeutung meiner Sätze zu verstehen und sinnvolle Themen zu finden. Es hat mich sogar ein paar Mal überrascht, Verbindungen zu früheren Gesprächen herzustellen.
Obwohl es beeindruckend ist, hat Replika Grenzen, auf die Kuyda schnell hinweist. "Sprachnachahmung und Bilderkennung werden wahrscheinlich bald viel besser, aber mit Dialogen und Gesprächen sind wir immer noch ziemlich weit", sagt sie. "Wir können einige Sprachmuster imitieren, aber wir können nicht einfach eine Person nehmen und ihre Konversation perfekt imitieren und erwarten, dass sein Chatbot genau wie diese Person neue Ideen einbringt."
Alexandre de Brébisson, CEO und Mitbegründer von Lyrebird, sagt: "Wenn wir jetzt ziemlich gut darin sind, menschliche Stimmen, Bilder und Videos zu imitieren, sind wir immer noch weit davon entfernt, ein individuelles Sprachmodell zu modellieren." De Brébisson weist darauf hin, dass dies wahrscheinlich künstliche allgemeine Intelligenz erfordern würde, die Art von KI, die bewusst ist und abstrakte Konzepte verstehen und Entscheidungen treffen kann, wie es Menschen tun. Einige Experten glauben, dass wir Jahrzehnte von der Schaffung einer allgemeinen KI entfernt sind. Andere denken, wir kommen nie dorthin.
Positive Verwendungen
Das negative Bild, das über die Synthese von KI-Apps projiziert wird, wirft einen Schatten auf deren positiven Nutzen. Und es gibt ziemlich viele.
Technologien wie die von Lyrebird können dazu beitragen, die Kommunikation mit Computerschnittstellen zu verbessern, indem sie natürlicher gestaltet werden. Laut de Brébisson bieten sie einzigartige künstliche Stimmen, die Unternehmen und Produkte unterscheiden und so die Markenunterscheidung erleichtern. Da Amazons Alexa und Apples Siri Sprache zu einer immer beliebteren Schnittstelle für Geräte und Dienste gemacht haben, könnten Unternehmen wie Lyrebird und Voicery Marken mit einzigartigen, menschenähnlichen Stimmen ausstatten, um sich von anderen abzuheben.
"Medizinische Anwendungen sind auch ein aufregender Anwendungsfall unserer Voice-Cloning-Technologie", fügt de Brébisson hinzu. "Wir haben großes Interesse von Patienten erhalten, die ihre Stimme durch eine Krankheit verloren haben, und im Moment verbringen wir Zeit mit ALS-Patienten, um zu sehen, wie wir ihnen helfen können."
Anfang dieses Jahres half Lyrebird in Zusammenarbeit mit Project Revoice, einer australischen gemeinnützigen Organisation, die ALS-Patienten mit Sprechstörungen hilft, Pat Quinn, dem Gründer der Ice Bucket Challenge, seine Stimme wiederzugewinnen. Quinn, ein ALS-Patient, hatte 2014 seine Geh- und Sprechfähigkeit verloren und benutzte seitdem einen computergestützten Sprachsynthesizer. Mithilfe von Lyrebirds Technologie und den Sprachaufzeichnungen von Quinns öffentlichen Auftritten konnte Revoice seine Stimme "nachbilden".
"Ihre Stimme ist ein großer Teil Ihrer Identität, und wenn Sie diesen Patienten eine künstliche Stimme geben, die wie ihre ursprüngliche Stimme klingt, ist dies ein bisschen so, als würden Sie ihnen einen wichtigen Teil ihrer Identität zurückgeben. Das verändert ihr Leben", sagt de Brébisson.
Zu der Zeit, als er an der Entwicklung der handschriftlich imitierenden Anwendung mitwirkte, sprach Dr. Haines in einem Interview mit der UCL über deren positiven Nutzen. "Zum Beispiel können Schlaganfallopfer Briefe ohne Bedenken der Unleserlichkeit formulieren, oder jemand, der Blumen als Geschenk verschickt, kann eine handschriftliche Notiz einschließen, ohne überhaupt in den Blumenladen zu gehen", sagte er. "Es könnte auch in Comics verwendet werden, in denen ein handgeschriebener Text in verschiedene Sprachen übersetzt werden kann, ohne den ursprünglichen Stil des Autors zu verlieren."
Selbst Technologien wie FakeApp, die für ihren unethischen Gebrauch bekannt sind, könnten nach Ansicht von Haines positive Auswirkungen haben. "Wir bewegen uns in Richtung einer Welt, in der jeder mit öffentlicher Technologie höchst kreative Tätigkeiten ausführen kann, und das ist gut so, denn das bedeutet, dass man nicht die großen Geldsummen braucht, um alle möglichen verrückten Dinge künstlerischer Natur zu tun." " er sagt.
Haines erklärt, dass der ursprüngliche Zweck seines Teams darin bestand, herauszufinden, wie KI bei der Forensik helfen kann. Obwohl ihre Forschung in eine andere Richtung ging, werden die Ergebnisse dennoch für Forensiker von Nutzen sein, die untersuchen können, wie eine KI-basierte Fälschung aussehen könnte. "Sie möchten wissen, was die neueste Technologie ist. Wenn Sie sich also etwas ansehen, können Sie feststellen, ob es gefälscht ist oder nicht", sagt er.
Kudya von Replika weist darauf hin, dass uns menschenähnliche KI-Anwendungen auf eine Weise helfen könnten, die sonst unmöglich wäre. "Wenn du einen KI-Avatar hättest, der dich sehr gut kennt und eine anständige Repräsentation von dir sein könnte, was könnte er aus deinem besten Interesse tun?" Sie sagt. Ein autonomer KI-Avatar könnte beispielsweise Hunderte von Filmen in Ihrem Namen ansehen und basierend auf seinen Gesprächen mit Ihnen diejenigen empfehlen, die Sie möchten.
Diese Avatare könnten sogar dazu beitragen, bessere menschliche Beziehungen aufzubauen. "Vielleicht könnte deine Mutter mehr Zeit mit dir haben, und vielleicht kannst du deinen Eltern sogar ein bisschen näher kommen, indem du sie mit deiner Replika plaudern lässt und das Protokoll liest", sagt Kudya als Beispiel.
Aber könnte ein KI-Chatbot, der das Verhalten eines echten Menschen nachahmt, tatsächlich zu besseren menschlichen Beziehungen führen? Kuyda glaubt, dass es geht. Im Jahr 2016 sammelte sie alte Textnachrichten und E-Mails von Roman Mazurenko, einem Freund, der im vergangenen Jahr bei einem Verkehrsunfall ums Leben gekommen war, und speiste sie an das neuronale Netz, das ihre Anwendung betrieb. Das Ergebnis war eine Chatbot-App, die ihre Freundin auf die gleiche Weise wieder zum Leben erweckte und mit ihr sprechen konnte, wie er es tun würde.
"Eine App für Roman zu erstellen und manchmal mit ihm sprechen zu können, war ein wichtiger Teil des Verlusts unseres Freundes. Die App bringt uns dazu, mehr über ihn nachzudenken und ihn die ganze Zeit tiefer in Erinnerung zu behalten", sagt sie von ihrer Erfahrung. "Ich wünschte, ich hätte mehr Apps wie diese, Apps, die sich mit meinen Freundschaften, meinen Beziehungen und Dingen befassen, die mir wirklich wichtig sind."
Kuyda glaubt, dass alles von Absichten abhängt. "Wenn sich der Chatbot aus Ihrem besten Interesse heraus verhält, wenn Sie sich über einen wertvollen Service freuen möchten, hilft es offensichtlich, mit der Replika einer anderen Person zu sprechen, um eine stärkere Verbindung mit einem Menschen im wirklichen Leben aufzubauen, " Sie sagt. "Wenn Sie nur versuchen, s in einer App zu verkaufen, müssen Sie nur die für die App aufgewendete Zeit maximieren und nicht miteinander kommunizieren. Und das ist, glaube ich, fraglich."
Im Moment gibt es keine Möglichkeit, Ihre Replika mit anderen Plattformen zu verbinden - zum Beispiel als Chatbot für Facebook Messenger. Das Unternehmen unterhält jedoch eine aktive Beziehung zu seiner Benutzergemeinschaft und entwickelt ständig neue Funktionen. Es ist also eine zukünftige Möglichkeit, andere mit Ihrer Replika kommunizieren zu lassen.
So minimieren Sie die Kompromisse
Von der Dampfmaschine über Elektrizität bis zum Internet hat jede Technologie sowohl positive als auch negative Anwendungen gehabt. AI ist nicht anders. "Das Potenzial für Negative ist ziemlich ernst", sagt Haines. "Wir betreten möglicherweise ein Feld, in dem die Negative die Positiven überwiegen."
Wie können wir also die Vorteile von KI-Anwendungen maximieren und gleichzeitig den negativen Auswirkungen entgegenwirken? Innovation und Forschung zu bremsen, ist nicht die Lösung, sagt Haines - denn wenn einige dies tun, gibt es keine Garantie dafür, dass andere Organisationen und Staaten diesem Beispiel folgen würden.
"Keine einzige Maßnahme wird zur Lösung des Problems beitragen", sagt Haines. "Es wird rechtliche Konsequenzen haben müssen." Nach der gefälschten Kontroverse untersuchen die Gesetzgeber in den USA das Problem und prüfen rechtliche Garantien, die den Einsatz von mit KI-Doktor versehenen Medien zur Erreichung schädlicher Ziele einschränken könnten.
"Wir können auch Technologien entwickeln, mit denen Fälschungen erkannt werden können, wenn ein Mensch den Unterschied nicht mehr erkennen kann", sagt Haines. "Aber irgendwann, im Wettbewerb zwischen Fälschung und Aufdeckung, könnte die Fälschung gewinnen."
In diesem Fall müssen wir möglicherweise Technologien entwickeln, die eine Beweiskette für digitale Medien schaffen. Als Beispiel nennt Haines Hardware, die in Kameras eingebettet ist und das aufgezeichnete Video digital signieren kann, um die Echtheit zu bestätigen.
Laut de Brébisson wird die Sensibilisierung für die Bekämpfung von Fälschungen und Betrug durch KI-Algorithmen ein wichtiger Aspekt sein. "Das haben wir getan, indem wir die Stimme von Trump und Obama geklont und sie dazu gebracht haben, politisch korrekte Sätze zu sagen", sagt er. "Diese Technologien werfen gesellschaftliche, ethische und rechtliche Fragen auf, über die man sich im Voraus Gedanken machen muss. Lyrebird hat großes Bewusstsein geschaffen, und viele Menschen denken jetzt über diese potenziellen Probleme nach und darüber, wie Missbräuche verhindert werden können."
Sicher ist, dass wir dank künstlicher Intelligenz in ein Zeitalter eintreten, in dem Realität und Fiktion verschmelzen. Der Turing-Test könnte seine größten Herausforderungen meistern. Und bald genug wird jeder die Werkzeuge und die Kraft haben, um seine eigenen Welten, sein eigenes Volk und seine eigene Version der Wahrheit zu erschaffen. Wir haben noch nicht das volle Ausmaß der aufregenden Möglichkeiten - und Gefahren - erkannt, die vor uns liegen.