Video: How Amazon, Apple, Facebook and Google manipulate our emotions | Scott Galloway (November 2024)
Als ich mir diese Woche die Keynote von Apples Worldwide Developer Conference und vor zwei Wochen von Googles I / O-Konferenz ansah, stach mir vor allem die Anstrengung heraus, die beide Unternehmen - wie auch Microsoft - in die Entwicklung intelligenter Systeme gesteckt haben, die sich auskennen so viel wie möglich über dich.
Solche Systeme wissen, wer Sie sind, wo Sie sich gerade befinden und welche Informationen auf Ihrem Bildschirm angezeigt werden. In der Regel mit dem Ziel, als "persönlicher Assistent" zu agieren, der Ihre Bedürfnisse antizipiert. Dies ist ein äußerst ehrgeiziges Ziel, von dem eines dieser Unternehmen zu verstehen scheint, dass es der nächste große Schritt in der Datenverarbeitung sein könnte.
Im Falle von Apple und Google können andere Angebote, die in den Keynotes angekündigt werden, mehr Aufmerksamkeit erhalten oder kurzfristig sichtbare Auswirkungen haben. Google Fotos stießen auf große Aufmerksamkeit. Sowohl Apple Pay als auch Android Pay scheinen im Begriff zu sein, sich immer mehr durchzusetzen, und die Verbesserungen bei Android Wear und WatchOS lassen möglicherweise auf ein Überangebot an Anwendungen für Wearables schließen. Die Umstellung auf intelligentere, umfassendere Gesamtsysteme könnte sich jedoch langfristig als am stärksten auswirken.
Apple, Google und Microsoft sehen das aus verschiedenen Blickwinkeln. Sie scheinen jedoch auf Systemen zusammenzuwachsen, die über ein mobiles Front-End verfügen, das durch Eingabe oder Sprache gesteuert werden kann, auf dem eine Reihe internetbasierter Dienste und Prozesse basieren, die eine große Menge an Daten über Sie enthalten, und auf denen Rückschlüsse möglich sind diese Daten und was Sie tun.
Der Weg zu dieser Konvergenz wurde in den letzten Jahren durch eine Reihe von Einführungen geebnet. Viele haben jahrelang an persönlichen Assistenten gearbeitet, und Siri wurde ursprünglich als eigenständige Anwendung von einer Ausgründung von SRI International entwickelt. Im Jahr 2011 führte Apple Siri als "virtuellen Assistenten" für das iPhone 4 ein, der hauptsächlich als Front-End für Dinge wie Websuche, lokales Wetter und das Nachschlagen von Restaurants fungierte. Im Jahr 2012 führte Google Google Now als Teil von Android 4.1 Jelly Bean ein und lieferte Informationen zu einer Reihe von "Karten", die Fragen beantworteten. Im Laufe der Zeit wuchs diese Zahl, um mehr Informationen bereitzustellen und mehr Domänen abzudecken.
Zuerst fand ich beide interessant, aber die Sprachsteuerung schien eher ein "Salon-Trick" als eine nützliche Anwendung zu sein.
In den letzten Jahren haben sich beide jedoch rasant verbessert. Zum Teil haben mehr Benutzer beiden Unternehmen mehr Daten zur Verfügung gestellt, mit denen sie arbeiten können. In Kombination mit intelligenteren Algorithmen und viel Arbeit bei der Serververarbeitung ergab dies Systeme, die jetzt viel genauer verstehen, was Sie verlangen, als dies beim Start der Fall war. Beide können jetzt Fragen in mehreren Bereichen beantworten. Und Google Now kann anhand Ihrer typischen Standorte auf Informationen schließen, beispielsweise, wo sich Ihr Zuhause und Ihr Büro befinden.
Microsoft hat Cortana letztes Jahr im Rahmen der Windows Phone 8.1-Version eingeführt und als den ersten wirklich persönlichen "digitalen Assistenten" bezeichnet, da er neben der Websuche mehr von Ihren Aktivitäten in anderen Anwendungen verstand. Es könnte Dinge wie Erinnerungen setzen und verstehen, wer für Sie wichtig war und wer nicht, und obwohl es nicht so viele Benutzer gab, scheint es sich in den letzten Jahren ebenfalls verbessert zu haben. Cortana wird nun auch auf Desktops und Laptops Teil von Windows 10 sein.
Dies bringt uns zu den neueren Ankündigungen, in denen sich alle drei Anbieter offenbar Funktionen von den anderen zu leihen scheinen und wirklich versuchen, ihre Angebote zu verbessern.
Google Now On Tap
Vor einigen Wochen sprach Sundar Pichai, Senior Vice President von Google I / O, darüber, wie sich das Unternehmen weiterhin auf die Suche konzentriert. Als es jedoch um Funktionen in der neuesten Version von Android ging, fielen mir neue Funktionen für den persönlichen Assistenten von Google Now mit dem Namen "Now on Tap" auf.
Pichai sprach über Googles Investitionen in Deep Learning und maschinelles Lernen und erklärte, Google habe dazu beigetragen, die Wortfehlerquote bei der Spracherkennung im vergangenen Jahr von 23 Prozent auf 8 Prozent zu senken.
Google Now verfügt bereits über einige kontextbezogene Funktionen, z. B. weiß es, wo Sie sich befinden, sodass es die Zeit abschätzen kann, die Sie benötigen, um nach Hause zu gelangen, und es kann dies auf den verschiedenen "Karten" anzeigen, die zum Anzeigen von Informationen oder in Benachrichtigungen verwendet werden.
Aparna Chennapragada, Director von Google Now, sagte: "Wir haben uns die Frage gestellt, wie wir Ihnen schnelle Antworten auf schnelle Fragen geben können, ohne den Kontext zu verlassen. Wie können wir Ihnen dabei helfen, die Dinge in so wenigen Schritten wie möglich zu erledigen." Das Ergebnis, sagte sie, sei ein neuer Service, der Sie "im Moment" unterstützen könne, egal was Sie am Telefon taten. Dies ist Now On Tap und sie sagte, es kombiniert Googles Wissensdiagramm - sein Verständnis von mehr als 1 Milliarde Entitäten (wie Baseballteams und Tankstellen) - mit Kontext und Verbindungen mit anderen Anwendungen, um Ihnen proaktiv Informationen zu geben.
In der Demonstration, die sie zeigte, erhielt sie eine Nachricht in einer App, die ein Restaurant zum Abendessen vorschlug und sie bat, die chemische Reinigung abzuholen. Wenn Sie die Starttaste gedrückt halten, wird die Google Now-Karte aufgerufen, und mit der Funktion "Now on Tap" werden grundlegende Informationen zum Restaurant abgerufen, einschließlich Links zu Navigationskarten, Yelp und OpenTable. es wird auch an die chemische Reinigung erinnert. Durch Tippen auf den OpenTable-Link wurde die App geöffnet, eindrucksvoller jedoch direkt auf die Seite dieses Restaurants.
Die Idee ist, dass das Betriebssystem jetzt den Kontext versteht, in dem Sie sich befinden und was Sie auf dem Rest des Geräts getan haben. Ein anderes Beispiel ist, dass Sie, wenn Sie Musik hören, einfach die Home-Taste gedrückt halten und eine Frage zum Song stellen können. Google Now weiß, welcher Titel abgespielt wird, und kann dann Fragen dazu beantworten.
"Sie können sofort Informationen erhalten", sagte Chennapragada. "In all diesen Beispielen - dem Artikel, den Sie lesen, der Musik, die Sie hören, der Nachricht, auf die Sie antworten - ist der Schlüssel, den Kontext des Augenblicks zu verstehen. Sobald Sie dieses Verständnis haben, können Sie schnelle Antworten erhalten." Bei schnellen Fragen helfen Sie, Dinge zu erledigen, wo immer Sie gerade telefonieren."
Apple betont Intelligenz
Bei seiner WWDC-Keynote am Montag diskutierte Apple eine Reihe von Änderungen in iOS 9, führte jedoch das Konzept der "Intelligenz" ein.
Craig Federighi, Senior Vice President Software Engineering bei Apple, sprach darüber, Siri zu einem "proaktiven Assistenten" zu machen, der Sie an eine bestimmte Aufgabe oder einen bestimmten Link in einem Browser zu einem bestimmten Zeitpunkt oder zu einem bestimmten Zeitpunkt erinnern kann. Wenn Sie beispielsweise eine Textnachricht über ein bevorstehendes Ereignis erhalten, können Sie Siri anweisen, mich daran zu erinnern, und es wird verstanden, dass Sie sich auf das Ereignis beziehen und eine Erinnerung festlegen. Sie können beispielsweise automatisch Einladungen in eine Textnachricht zu Ihren Kalendern hinzufügen.
Es speichert die Apps, die Sie zu einer bestimmten Tageszeit verwenden, und präsentiert sie Ihnen in einem einfachen Symbol. Außerdem werden "Beschreibungskarten" hinzugefügt, mit denen Sie mehr Informationen über die Ergebnisse einer Suche erhalten (die vom Konzept her ähnlich aussahen) zu den Karten in Google Now).
Und es scheint sich im Allgemeinen nur gebessert zu haben. Laut Federighi hat Apple die Wortfehlerrate im letzten Jahr um 40 Prozent auf 5 Prozent gesenkt. Und es ist klüger, mit Dingen im System selbst umzugehen, da es jetzt in der Lage ist, auf Abfragen in natürlicher Sprache wie "Zeig mir Fotos aus Utah im letzten August" zu antworten.
Am interessantesten ist, dass es eine API für die Suche bietet, damit Inhalte in Apps gefunden werden können. Zum Beispiel sprach er davon, tief in die Airbnb-App einbinden zu können, um verfügbare Leihobjekte in einem bestimmten Gebiet zu finden. oder Informationen zu Rezepten in einer anderen Anwendung nachschlagen.
In einer Demo zeigte er einen neuen Suchbildschirm an, zu dem Sie gelangen, indem Sie direkt vom Startbildschirm aus wischen, und wie das System selbst Vorschläge macht, mit wem Sie sich möglicherweise in Verbindung setzen möchten, basierend auf Ihren häufigsten Kontakten und bevorstehenden Ereignissen. Er zeigte, wie es dann "Deep Link" in bestimmte Anwendungen kann, um Ihnen mehr Informationen zu bringen. Ähnliche Funktionen waren in Siri verfügbar.
Eine Sache, die Apple betonte, war die Privatsphäre. Federighi sagte: "Wir konnten die gesamte Erfahrung in iOS 9 aufklären, aber wir tun dies auf eine Weise, die Ihre Privatsphäre nicht beeinträchtigt." In einer Art Auseinandersetzung mit Googles werbebasiertem Modell sagte er, Apple habe Ihre Fotos, E-Mails, Fotos oder Cloud-Informationen nicht überprüft. Er sagte, dass alle Informationen auf dem Gerät gespeichert werden und unter Ihrer Kontrolle auf dem Gerät bleiben. Wenn das System Informationen an die Cloud senden muss, um nach Daten zu suchen oder nach Datenverkehr zu suchen, geschieht dies anonym, ohne dass Informationen an Dritte weitergegeben werden. "Sie haben die Kontrolle", sagte er.
Cortana Going Cross-Plattform
Sie können argumentieren, dass Microsoft einen Vorsprung bei der Bereitstellung vieler persönlicher Assistentenfunktionen mit seinem Cortana-Assistenten für Windows Phone hatte. Es war der erste der drei großen Telefonassistenten, der versuchte, sich wie ein echter Assistent zu verhalten, um Erinnerungen zu planen und sich tiefer in einige der Telefonanwendungen zu integrieren.
Cortana ist Teil von Windows 10 auf dem Desktop und auch auf dem Notebook. Kürzlich hat Microsoft angekündigt, dass eine Version von Cortana zusammen mit einer "Phone Companion" -App, die Ihren PC mit Cortana verbindet, auf iOS- und Android-Handys verfügbar sein wird, sodass Sie Aufgaben auf einem Gerät starten und auf einem anderen erledigen können.
Joe Belfiore von Microsoft beschrieb es so: "Cortana kann Sie daran erinnern, beim nächsten Besuch im Lebensmittelgeschäft Milch abzuholen, und dann wird Ihr Telefon aufgeweckt und Sie können eine Erinnerung verfolgen Verwenden Sie Cortana sowohl auf Ihrem Telefon als auch auf Ihrem PC, um die Updates auf dem Gerät abzurufen, auf dem Sie sich gerade befinden, damit Sie nichts verpassen."
Fazit
In vielerlei Hinsicht hören wir, dass alle drei Unternehmen zusammenarbeiten, insbesondere bei "proaktiven" Bemühungen. Google und Apple gaben an, dass ihre Tools "proaktiver" seien. Sie beschreiben damit, wie ihre persönlichen Assistenten zumindest so aussehen sollen, als könnten sie vorhersehen, wonach Sie suchen.
Alle drei konzentrieren sich auf eine bessere Verbindung mit den anderen Anwendungen auf Ihrem System, wobei Apple und Google einen Fokus auf "Deep Linking" ankündigen. Insbesondere möchten sie Verknüpfungen zu Dingen innerhalb einer App herstellen, z. B. zum korrekten Bildschirm in OpenTable, um eine Tabelle zu reservieren. Auf der I / O-Konferenz zeigte Dave Burke, Vice President Engineering für Android, wie Android M nun bessere Möglichkeiten bietet, um Links von E-Mail- oder Website-Links an die richtige Stelle in einer Anwendung zu verschieben, ohne den aktuellen "Begriffsklärungs" -Bildschirm.
Das Ergebnis all dessen ist eine Verwischung der Grenzen zwischen dem Betriebssystem und den darauf ausgeführten Apps, um ein nahtloseres Erlebnis und Systeme zu bieten, die wirklich viel mehr über Sie wissen.
All das sollte sehr nützlich sein. Aber aus einer Vielzahl von Gründen kann all dies auch beängstigend sein. Es ist nur allzu leicht vorstellbar, dass die Daten missbraucht werden, sei es nur für übereifriges Marketing oder für echte Eingriffe in die Privatsphäre. Ich bin gespannt, wie die einzelnen Unternehmen das angehen werden. Ich frage mich, ob einer der Gründe, warum Google seinen Service nicht als "persönlichen Assistenten" bezeichnet hat, darin besteht, dass er ein bisschen abstoßend von einem Unternehmen klingt, dessen primäres Geschäftsmodell darauf ausgerichtet ist, Daten über Personen zu sammeln und sie für bessere Ziele zu verwenden.
Es ist auch leicht, die Fähigkeiten dieser Systeme zu übertreiben. Das Konzept einer allwissenden, allsehenden Maschine kann beängstigend sein, aber ich mache mir keine Sorgen darüber, dass eines dieser Systeme eine "starke KI" im Sinne von The Terminator 's Skynet oder 2001: A Space Odyssey 's HAL entwickelt jederzeit in naher Zukunft. Wie ein Teilnehmer kürzlich auf einer Podiumsdiskussion sagte, sagte ich: "Denk an Jarvis, nicht an HAL" und sprach über die hilfreiche Intelligenz in Anzügen, die in den Iron Man-Filmen verwendet wird, im Gegensatz zu der Mordmaschine von 2001. In den nächsten Jahren Die Frage wird nicht sein, ob diese Systeme zu intelligent sind, sondern ob sie so intelligent sind, dass sie wirklich nützlich sind, oder ob wir sie lediglich als Frontends für die Websuche verwenden.
Natürlich steckt der Teufel im Detail, und wir werden nicht wirklich wissen, wie gut eines der Systeme funktioniert, bis die neuen Versionen ausgeliefert werden. Während sich die Spracherkennung verbessert, führt die Ausweitung auf neue Domänen zu größeren Herausforderungen. Und mir ist nicht klar, wie gut die Systeme es können, wenn Sie die Dienste auswählen, die Sie verwenden möchten, im Gegensatz zu Standarddiensten von Apple oder Google.
Aber das Gesamtkonzept ist klar und der Nutzen könnte großartig sein. Bei korrekter Bereitstellung sollten solche Dienste dazu beitragen, dass sich unsere Geräte einfacher, intelligenter und persönlicher anfühlen. Sie werden Herausforderungen haben und einige Bedenken aufwerfen, aber ich vermute, sie werden mehr daran ändern, wie wir mit unseren Geräten interagieren, als an irgendetwas anderem seit dem Touchscreen.