Zuhause Geschäft Ihr Telefon kann Ihnen möglicherweise bald mitteilen, ob Sie verliebt sind

Ihr Telefon kann Ihnen möglicherweise bald mitteilen, ob Sie verliebt sind

Inhaltsverzeichnis:

Video: Wie du SOFORT weißt, ob ein Mädchen auf dich steht! (November 2024)

Video: Wie du SOFORT weißt, ob ein Mädchen auf dich steht! (November 2024)
Anonim

Dein Date küsst dich gute Nacht. Du drehst dich um, um nach Hause zu gehen. Dein Date geht in die entgegengesetzte Richtung. Sie ziehen Ihr Smartphone heraus. Sie flüstern: "Ich hatte eine tolle Zeit." Auf Ihrem Smartphone wird eine Berechnung ausgeführt, die nur eine Millisekunde dauert. Wenn es fertig ist, sagt das Smartphone laut: "Du bist verliebt."

Obwohl dieses Szenario eher wie eine Black Mirror-Episode als eine ehrliche Einschätzung der zukünftigen Technologie aussieht, prognostiziert ein neuer Bericht von Gartner Research, dass wir möglicherweise nur noch fünf Jahre von ähnlichen auf künstlicher Intelligenz (KI) basierenden Einschätzungen entfernt sind. Laut dem Bericht "Predicts 2018: Personal Devices" wird Ihr persönliches Gerät bis 2022 mehr über Ihren emotionalen Zustand wissen als Ihre eigene Familie.

Wenn Sie die Gesichtserkennungssoftware, die Ihr Smartphone entsperrt, auf einen Blick verwenden und mit der Sprachanalyse kombinieren, kann Ihr Smartphone Stirnrunzeln, Lächeln und Tränen mit dem dazugehörigen Sprachtimbre abgleichen, um Ihren wahren emotionalen Zustand zu bestimmen. Diese Emotion AI wird von großen Unternehmen wie Amazon, Apple und Google sowie von anderen kleineren Anbietern wie Affectiva, audEERING und Eyeris entwickelt.

Sie alle experimentieren mit Emotion AI, um Wege zu finden, wie Alltagsgegenstände "die emotionalen Zustände und Stimmungen der Menschen erkennen, analysieren, verarbeiten und darauf reagieren" können, heißt es in dem Bericht. Affectiva, audEERING und Eyeris konzentrieren sich speziell darauf, Ihr Auto in einen Emotionsdetektor zu verwandeln, um Ihr Verhalten während der Fahrt zu überwachen, um Ihnen Unterstützung zu bieten, sicheres Fahrverhalten zu überwachen oder das Fahrerlebnis zu verbessern.

Für Business-to-Business-Technologien (B2B) sind die Möglichkeiten unbegrenzt. Stellen Sie sich vor, Sie könnten die Stimmung eines Kunden vorhersagen, bevor er oder sie jemals mit einem Kundendienstmitarbeiter spricht. Was wäre, wenn eine CRM-Software (Customer Relationship Management) die Kaufwahrscheinlichkeit eines potenziellen Kunden vorhersagen könnte, bevor ein Vertriebsmitarbeiter eine Entscheidung trifft? Indem wir emotionale Informationen von persönlichen Geräten abrufen und diese Daten in die Cloud übertragen, können wir erreichen, was Marken versucht haben, aber nie die Technologie hatten, um dies zu erreichen: 100-prozentige, unverfälschte Einsicht in die Kundenstimmung.

So funktioniert das

Dem Bericht zufolge erkennt Emotion AI 11 Hauptemotionen (Wut, Angst, Ekel, Angst, Glück, Eifersucht, Liebe, Traurigkeit, Scham, Überraschung und einen neutralen Zustand) über Mimik, Intonation und Stimme. Die erste Welle dieser Technologie wird von virtuellen persönlichen Assistenten (Virtual Personal Assistants, VPAs) angetrieben (denken Sie an Alexa und Cortana). In Kürze können diese Systeme emotionale Intelligenz für einen besseren Kontext und ein verbessertes Serviceerlebnis hinzufügen, heißt es in dem Bericht. Derzeit investieren vor allem Google, IBM und Microsoft in diesem Bereich.

"Keines der VPAs verfügt bisher über diese Fähigkeit", sagte Annette Zimmermann, Vice President bei Gartner Research. "Aber da sie Google und seine Funktionen kennen, sind sie noch nicht weit davon entfernt. Google und Amazon sind wahrscheinlich die Ersten, die dies implementieren. Microsoft hat einige Arbeiten daran durchgeführt, sodass sie auch über die Funktionen verfügen. Apple mit Siri ist etwas im Rückstand." daher denke ich, dass sie später damit sein werden."

In der zweiten Stufe von Emotion AI können Lernsoftware, Videospiele, Diagnosesoftware, sportliche und gesundheitliche Leistungen sowie autonome Autos die Erfahrungen basierend auf der emotionalen Berichterstattung eines Benutzers anpassen. Zum Beispiel hat die Firma Affectiva "bereits Lernsoftware entwickelt, die die Emotionen eines Kindes während der Lösung eines Problems überwacht", sagte Zimmerman. "Je nachdem, ob das Kind frustriert ist, weil die Aufgabe zu schwierig ist, kann die Software den Schwierigkeitsgrad anpassen." Andere Möglichkeiten sind ein autonomes Auto, das Ihre Angst spürt und die Geschwindigkeit senkt, oder Videospiele, deren Schwierigkeitsgrad sich ändert, je nachdem, ob Sie eine Herausforderung suchen oder ein gedankenloses, lässiges Gameplay.

Was kommt als nächstes?

Heutige Marken geben Milliarden von Dollar für die Überwachung von Social-Media-Websites wie Facebook und Twitter aus, um festzustellen, was die breite Öffentlichkeit über ihre Produkte empfindet. Leider zielen einige dieser Tools in erster Linie darauf ab, nur zwischen "positiven" und "negativen" Gefühlen zu unterscheiden, während andere weiter fortgeschritten sind, indem sie "differenzierteren emotionalen Zuständen zuschreiben und dennoch eine aggregierte Sichtweise haben", heißt es in dem Bericht.

Emotion AI ist besser in der Lage, direktes und indirektes Feedback zu messen und gleichzeitig einen tieferen Einblick in die Einstellungen zu Marken und Produkten zu erhalten. Wenn Unternehmen technische Anbieter konsultieren, müssen bestimmte Fragen geklärt werden. Beispielsweise reagieren unterschiedliche Kulturen auf unterschiedliche Reize auf unterschiedliche Weise, sodass der Ärger einer Person in einer Kultur als Erregung und in einer anderen als Angst empfunden werden kann.

"Es gibt Unterschiede, die auf Kulturen basieren, aber die Unternehmen, die diese KI-Systeme trainieren, wie AudEERING und Affectiva, können diese Unterschiede ausgleichen. Letztendlich kann das System die richtigen Emotionen unabhängig von Alter, Geschlecht und Kultur erkennen. "sagte Zimmerman.

Die Sicherheit muss ebenfalls genau überwacht werden. Stellen Sie sich vor, Sie könnten ein System hacken, um herauszufinden, was eine Person zutiefst beschämt oder demütigt. Sie könnten diese Informationen dann verwenden, um jemanden zu erpressen oder in Verlegenheit zu bringen. "Sie möchten, dass die Daten, mit denen diese Systeme trainiert werden, absolut sicher und anonym sind", sagte Zimmerman. "Die Unternehmen, mit denen ich gesprochen habe, halten sich an diese Sicherheitsmaßnahmen. Wir müssen diesen Unternehmen vertrauen, dass sie die Daten auf die richtige Weise schützen."

In Zukunft schlägt Gartner vor, dass Technologieanbieter wie Affectiva und AudEERING "einen beratenden Ansatz verfolgen, wenn sie über grundlegende Konzepte nachdenken, welche emotionalen Modelle sie verwenden und mit ihren Kunden zusammenarbeiten sollen - die meisten davon sind sogar für das Konzept von Emotion AI neu" zum Bericht.

Für Marken schlägt Gartner Unternehmen vor, "Emotion AI über Computer Vision oder Audiotechnologie zum Konversationssystem hinzuzufügen, indem fertige APIs von Anbietern emotionaler KI wie audEERING verwendet werden, um das Benutzererlebnis zu verbessern" und "Organisationen bei der Implementierung effektiver Programme mit Beratung zu helfen Bemühungen und nicht nur die Technologie, die Emotionsanalyse ermöglicht."

Ihr Telefon kann Ihnen möglicherweise bald mitteilen, ob Sie verliebt sind