Zuhause Vorausdenken Google setzt auf Sprache und Kontexterkennung

Google setzt auf Sprache und Kontexterkennung

Video: Die App, die alle Sprachen übersetzt - funktioniert das? | Galileo | ProSieben (November 2024)

Video: Die App, die alle Sprachen übersetzt - funktioniert das? | Galileo | ProSieben (November 2024)
Anonim

Als ich gestern von Googles Plänen gehört habe, Android überall verfügbar zu machen, ist mir aufgefallen, wie sehr das Unternehmen auf Sprach- und Kontexterkennung setzt, um seine Produkte weiter zu entwickeln. Beides sind Themen, die Google und andere bereits besprochen haben, aber ich war beeindruckt von der Vielzahl spezifischer Verwendungsmöglichkeiten, die Google für diese Technologien jetzt und in naher Zukunft plant. Dies deutet darauf hin, dass das Unternehmen in beiden Bereichen große Fortschritte erzielt hat.

Spracherkennung gibt es schon seit Jahren und auf Smartphones ist sie ein wesentlicher Bestandteil der Erfahrung verschiedener persönlicher Assistenten, angefangen bei Apples Siri, über Google Now bis hin zu Microsoft Cortana.

"Wir bauen die fortschrittlichste Spracherkennungs-Engine der Welt", sagte Sundar Pichai, Senior Vice President für Android, Chrome und Apps bei seiner gestrigen Google I / O-Keynote. Und während andere anderer Meinung sein mögen, hat das Unternehmen in neuen Anwendungsfällen viele Demos von Voice in Aktion gezeigt.

Für Android Auto sprach das Unternehmen über Sprachfunktionen wie Navigation, Kommunikation und Musiksteuerung. Dies ist in einer Welt des abgelenkten Fahrens durchaus sinnvoll. Spracherkennung in Autos ist nicht neu - Microsoft und Ford haben das Ford Sync-System bereits 2007 eingeführt - aber Googles Implementierung sah ziemlich gut aus.

Darüber hinaus gehört die Spracherkennung auch zu Android Wear-Geräten, wie den kommenden Smartwatches LG G Watch und Samsung Gear Live. Zum Beispiel demonstrierte Google das Abspielen von Musik oder das Einstellen von Alarmen mithilfe von Sprachbefehlen. Google demonstrierte auf Android TV, wie mithilfe von Sprache nach Videos oder ähnlichen Inhalten gesucht werden kann. (Amazon hat eine ähnliche Funktion auch in seinem Fire TV angepriesen.)

In vielerlei Hinsicht war die kontextbezogene Botschaft jedoch noch interessanter.

"Wir machen alles kontextuell bewusst", sagte Pichai und sagte, dass Google verstehen möchte, wann Sie zu Hause, im Büro oder auf Reisen sind, da Ihre Informationsbedürfnisse an jedem Ort unterschiedlich sind. Zu Hause können Sie sich auf Unterhaltung konzentrieren, während Sie im Büro arbeitsbezogene Informationen wünschen. "Wir möchten Ihnen die richtigen Informationen zur richtigen Zeit übermitteln", sagte er.

Zum Beispiel sprach David Singleton, ein technischer Leiter für Android (unten), darüber, wie ein durchschnittlicher Smartphone-Benutzer sein Telefon 125 Mal am Tag überprüft und wie es besser wäre, wenn Android Wear-Uhren nur die Dinge zeigen könnten, die Sie interessieren, je nachdem auf Kontext. Insbesondere schlug eine Demo vor, den Benutzer daran zu erinnern, nach einem Paket zu suchen, wenn er zu Hause ankommt. und dann tat das System genau das und verstand, als er ankam. Insgesamt konzentrierte er sich viel auf kontextbezogene Informationen, zum Beispiel Flugstatus, Bordkarte und Wetter für einen Reisenden. Und er sagte den Entwicklern, dass sie mit dem neuen Android Wear SDK "übersichtliche, kontextbezogene Apps" für solche Geräte erstellen könnten.

Laut Singleton reagieren die am besten tragbaren Apps auf den Kontext des Benutzers. Beispielsweise zeigte er eine Demo der Eat 24-App auf einem Telefon, in der er sich daran erinnerte, wann Sie zuvor eine Pizza bestellt hatten, und schlug vor, die Bestellung eine Woche später zur selben Zeit zu wiederholen, wobei die App Ihre Privatadresse kannte.

Die Kombination der Konzepte von Sprachsteuerung, Kontext und einer nahtlosen Verbindung zwischen dem Telefon und einem Wearable kann einige interessante Szenarien ergeben. Laut Singleton hat Google einige Sprachbefehle zu Android Wear hinzugefügt und wird in den kommenden Monaten weitere hinzufügen. Zum Beispiel demonstrierte er die Lyft-Transportdienstanwendung auf einem Android Wear-Gerät, wobei Benutzer nur "Ruf mich an" sagen können, um eine Bestellung an Ihren genauen Standort zu senden.

Um diesen Kontext bereitzustellen, muss Google besser verstehen, wo Sie sich befinden und was Sie tun. Ein Großteil dieser Informationen befindet sich bereits auf unseren Smartphones. Die heutigen Telefone wissen dank GPS, wo Sie sich befinden. Wenn Sie Google Now verwenden, ist Google wahrscheinlich bereits über den Standort Ihres Zuhauses und Ihres Büros informiert, sodass Sie am besten über Wegbeschreibungen und Wetter informiert werden. (Das funktioniert heute nicht immer perfekt, aber es bewegt sich in die richtige Richtung.)

Aber Google will mehr wissen. Obwohl es gestern nicht aufgetaucht ist, haben die Nest Labs von Google (die intelligente Thermostate und Rauchmelder herstellen) kürzlich eine Entwicklerplattform angekündigt, die mehr Informationen in andere Produkte integrieren wird. Zum Beispiel sprach Nest darüber, wie ein Jawbone UP24-Band seinen Thermostaten anweisen könnte, einen Raum zu heizen oder zu kühlen, je nachdem, wann Sie aufwachen. oder wie Ihr Mercedes-Auto Ihrem Thermostat mitteilen könnte, dass Sie nach Hause fahren. Es ist nicht schwer vorstellbar, dies in Google Now zu integrieren, was bedeutet, dass Google besser überwachen kann, ob Sie zu Hause sind, und eine bessere Vorstellung von Ihrem Zeitplan erhalten kann. Nest hat auch gerade Dropcam gekauft, sodass die Idee, dass Google tatsächlich Kameras in Ihrem Haus haben wird, nicht mehr weit hergeholt ist.

Jetzt geschieht dies natürlich alles aus bestimmten Gründen und um Ihnen bestimmte Dienstleistungen zu bieten. Und Sie haben das Recht, einen Großteil der Informationssammlung abzulehnen, obwohl dies nur wenige von uns tun, weil uns die Dienste gefallen. Es ist jedoch nicht schwer vorstellbar, dass Google diese Informationen verwendet, um andere kontextsensitive Dienste bereitzustellen, und diese Informationen schließlich verwendet, um gezieltere Werbung zu verkaufen. So macht das Unternehmen schließlich den größten Teil seines Gewinns. Es ist daher leicht einzusehen, wie sich die Bedenken in Bezug auf den Datenschutz verschärfen, wenn Unternehmen versuchen, Ihren Kontext besser zu verstehen.

Und Google wird nicht der einzige sein, der versucht, diese Informationen zu sammeln. Microsoft hat lange darüber gesprochen, den Kontext besser verstehen zu wollen. und die Art und Weise, wie die Xbox One immer auf Befehle lauscht, war ebenfalls umstritten. Ich gehe davon aus, dass wir auch von Apple mehr darüber erfahren werden.

Aber ein besseres Verständnis von Kontext und Stimme war aus guten Gründen lange Zeit ein Ziel der Informatik, und es ist aufregend zu sehen, wie sich diese Technologien entwickeln. Obwohl wir uns um Datenschutzprobleme kümmern müssen, bieten diese Technologien ein enormes Potenzial für persönlichere, benutzerfreundlichere Anwendungen.

Google setzt auf Sprache und Kontexterkennung