Zuhause Vorausdenken Die Entwickler-Tools von Firebase und Android Studio stehlen die Show bei i / o

Die Entwickler-Tools von Firebase und Android Studio stehlen die Show bei i / o

Video: Firebase Создаем Базу Данных Для Android /Android Studio уроки (November 2024)

Video: Firebase Создаем Базу Данных Для Android /Android Studio уроки (November 2024)
Anonim

Auf der I / O-Entwicklerkonferenz des Unternehmens in Mountain View, die gestern eröffnet wurde, wurden in gewisser Weise zwei verschiedene Googles gezeigt. Eines davon war das selbstbewusste Google, das seinen Vorsprung bei Suchmaschinen und Mobilgeräten und seine Stärken beim maschinellen Lernen auf andere angrenzende Märkte ausbaute und Entwicklern beeindruckende neue Tools anbot. Das andere Problem war, dass Google den Markt für Gesprächsassistenten, Messaging-Anwendungen und virtuelle Realität nicht so gut einholte. Die meisten Schlagzeilen gingen in die letzte Kategorie, in der die Änderungen greifbarer sind. Für die meisten Entwickler haben die Erweiterungen und Änderungen an Android und den zugehörigen Entwicklungstools jedoch wahrscheinlich eine unmittelbarere Auswirkung.

( Sundar Pichai )

Maschinelles Lernen war das größte Thema der Konferenz. Sundar Pichai, CEO von Google, eröffnete die Keynote am Dienstag und sprach darüber, wie das Unternehmen die Suche weiterentwickelte, um seine langjährigen Investitionen in maschinelles Lernen und die Verarbeitung natürlicher Sprachen besser zu nutzen. Er sagte, Google habe enorme Fortschritte bei der Spracherkennung erzielt. Sprachanfragen machten mittlerweile 20 Prozent der Suchanfragen in den USA aus. bei der Bilderkennung sowohl in der Suchmaschine als auch in Fotos; und in der Übersetzung, die jetzt 100 verschiedene Sprachen unterstützt und 140 Milliarden Wörter pro Tag übersetzt. Insgesamt habe Google einen "Wissensgraphen" von 1 Milliarde Entitäten - Menschen, Orten und Dingen. Anschließend zeigte er eine Vielzahl neuer Produkte und Dienstleistungen, die dieses Wissen nutzen können.

Am augenfälligsten ist der neue Google-Assistent, der anscheinend mehr Konversationsfunktionen bietet als der Google Now-Dienst. Er soll einen bidirektionalen Dialog ermöglichen, in dem es darum geht, Aufgaben in der realen Welt zu erledigen und Inhalte und Zusammenhänge zu verstehen. Es gab eine Reihe interessanter Demos, in denen der Assistent Fragen beantworten und Ihnen dabei helfen konnte, einen Film zum Anschauen oder ein Restaurant zum Speisen auszuwählen und tatsächlich Reservierungen vorzunehmen.

Es sah ganz gut aus, aber konzeptionell scheint es anderen Gesprächsassistenten, die wir gesehen haben, wie Apples Siri, Microsofts Cortana und Amazons Alexa, sehr ähnlich zu sein. In der Tat erinnerten mich die Demos an die ersten Demos für Cortana.

Pichai warb für die Idee, dass sich die Suche ändert, und sagte: "Es ist nicht nur genug, ihnen die Links zu geben, wir müssen ihnen wirklich helfen, die Dinge in der realen Welt zu erledigen." Das hat mich an den Vorstoß hinter Google Now vor vier Jahren erinnert, der für das Unternehmen recht gut funktioniert hat.

( Mario Queiroz )

Diese Technologie wird Teil eines neuen Geräts namens Google Home sein, auf dem Pichai liebenswürdig auf das Amazon Echo zeigte, das anscheinend die Inspiration war. Wie Echo verfügt auch Home über einen Konversationsassistenten, mit dem Sie Musik abspielen, mehrere Geräte zu Hause steuern und Fragen beantworten können. Mario Queiroz, Vice President für Produktmanagement, zeigte einige interessante Neuerungen, wie die Integration in Chromecast, damit Sie Musik oder andere Medien auf andere Lautsprecher oder einen Fernsehbildschirm "übertragen" können.

Als nächstes zeigte der technische Direktor Erik Kay Allo, im Wesentlichen eine Chat-Plattform, mit dem eingebauten Google-Assistenten, damit Ihre Konversationen intelligenter werden. und Duo, eine 1: 1-Videoanruf-App mit einer interessanten Wendung, mit der Sie eine Vorschau des Videos der anrufenden Person anzeigen können, bevor Sie den Anruf entgegennehmen. Das Konzept der Chat-Bots innerhalb eines Messaging-Dienstes (auch als "Conversations as a Platform" bezeichnet) stand vor einigen Wochen im Mittelpunkt von Microsoft Build, und Facebook Messenger hat dieses Konzept seit einiger Zeit vorangetrieben. Google hat bereits verschiedene Versuche in den Bereichen Social Media und Messaging unternommen - in der Tat wurde gerade ein Tool mit dem Namen Spaces zum Verbinden bei Veranstaltungen eingeführt - und es ist noch kein großer Erfolg zu verzeichnen. Obwohl diese Tools in Demos auf der Bühne gut ausgesehen haben, ist nicht klar, ob es hier genug Neues gibt, um dies zu ändern.

Was mich an diesen Produkten und Diensten am meisten überrascht hat, ist, dass Google sie so früh bewirbt. Die meisten scheinen auf den Spätsommer ausgerichtet zu sein, aber ich war überrascht, dass Entwickler nicht mehr darüber diskutierten, wie sie ihre Dienste in den Assistenten einbinden können. Pichai sagte, dass sie in ein paar Monaten mehr haben würden, aber es scheint, dass Google hier ein bisschen hinterherhinkt und versucht, seine maschinellen Lern- und Suchfähigkeiten zu nutzen, um aufzuholen. Auf der anderen Seite gab Facebook auf seiner F8-Konferenz eine frühe Ankündigung ab, und es gibt nur sehr wenige Chatbots für diese Plattform. Die Bot-Plattform von Microsoft ist ebenfalls noch im Entstehen begriffen, sodass es sich wirklich um einen offenen Markt handelt.

( Ton Geschmack )

In Bezug auf die virtuelle Realität sieht Google etwas anders aus: Cardboard ist eine beliebte, aber kostengünstige Plattform. Google versucht nicht, mit den High-End-Lösungen wie Oculus Rift oder HTC Vive zu konkurrieren, sondern hat stattdessen eine VR-Plattform namens Daydream eingeführt, die Teil der kommenden Android N-Version sein wird.

Clay Bavor, Leiter des VR-Teams bei Google, sprach darüber, wie Android N eine höhere Leistung und eine geringere Latenzzeit unterstützt, sodass die Aktualisierung für "Motion to Photon" weniger als 20 ms beträgt und somit realistischer erscheint. Darüber hinaus verfügt es über einen VR-Modus mit einer eigenen Benutzeroberfläche, die Benachrichtigungen in der immersiven Umgebung korrekt verarbeitet. Als Teil dieser Version gibt es einen neuen Daydream-Startbildschirm zum Starten von VR-Inhalten, einschließlich Filmen und Spielen, sowie eine neue Version des Play Store für VR, die in der Daydream-Umgebung funktioniert. Andere Anwendungen umfassen eine neue Version von YouTube für VR-Inhalte, eine Version von Street View zum Navigieren an verschiedenen Orten und Fotos, um Lieblingsmomente neu zu erleben.

Ein Großteil der VR-Ankündigungen befasste sich mit Standards und Spezifikationen. Für Telefone kündigte Bavor eine Reihe von Spezifikationen an, die für bestimmte Sensoren, Displays und Prozessoren gelten müssen, um als "Daydream-ready" bezeichnet zu werden. Dies scheint nicht viel anders zu sein als die heutigen High-End-Telefone, aber es sollte deutlich machen, welche Telefone für Daydream bereit sind. Darüber hinaus zeigte er ein Referenzdesign für ein Headset mit hervorragender Optik, das sich leichter an- und abnehmen lässt, und vor allem einen neuen Controller mit nur wenigen Tasten und einem besonders eindrucksvollen Touchpanel. Bavor sagte, dass die ersten Geräte in diesem Herbst bei einer Reihe von Partnern erhältlich sein würden, wobei die Entwicklungstools jetzt verfügbar seien.

Neben den hochkarätigen Produktankündigungen gab es noch viele weitere Details zu Android N, der nächsten Version des mobilen Betriebssystems, die bereits in einer Beta-Version vorliegt und diesen Sommer fertiggestellt werden soll.

Dave Burke, Vice President of Engineering für Android, sagte, die Schwerpunkte dieser Version seien Leistung, Sicherheit und Produktivität. Auf der Leistungsseite betonte er die Einführung der Vulkan 3D-Grafik-API, die eine bessere Leistung bei geringerem CPU-Overhead verspricht, und einen neuen Runtime-Compiler, der viel schneller ist und zu schnelleren App-Installationen führen sollte. Aus Sicherheitsgründen sprach er über dateibasierte Verschlüsselung, Härten der Medien-Frameworks und nahtlose Updates. Dies bedeutet, dass Ihr Gerät automatisch aktualisiert wird, sodass Sie ein Update nicht manuell installieren müssen. (Die Menge schien davon sehr beeindruckt zu sein.) In Bezug auf die Produktivität sprach er über die neue Multi-Window-Unterstützung für den Split-Screen- und den Bild-in-Bild-Modus, was ein großer Fortschritt gegenüber den einzelnen Multi-Window-Funktionen von Unternehmen ist Samsung und LG haben zusätzlich zu den bestehenden Android-Versionen hinzugefügt. Er erwähnte auch kleinere Änderungen, wie bessere Benachrichtigungen und Unterstützung für Unicode-9-Emoji-Standards.

Android Wear, TV und Auto erhielten ein wenig Aufmerksamkeit - und jeder hatte seine eigenen Breakout-Sessions und Bereiche auf der Messe -, aber ein Großteil des Fokus lag auf Entwickler-Tools. Einige der neuen Funktionen für Entwickler haben mich am meisten beeindruckt. Jason Titus, Vice President of Developer Products, sprach über die Fortschritte im mobilen Web. Mehr als 1 Milliarde Menschen nutzten Chrome auf Mobilgeräten. Er unterstützte progressive Webseiten und jetzt Googles AMP-Programm (Accelerated Mobile Pages), um Websites zu beschleunigen.

( Stephanie Saad Cuthbertson )

Stephanie Saad Cuthbertson (oben), Director of Product Management für Android Studio, gab die Veröffentlichung einer Vorschau für Android Studio 2.2 bekannt, die sich auf schnellere Builds, intelligentere Tools zum Entwerfen und Debuggen von Anwendungen und eine breitere Plattformunterstützung konzentriert. Sie sagte, dass Android Studio jetzt von 95 Prozent der Top-125-Anwendungen verwendet wurde. Beachten Sie, dass Studio 2.0 erst Anfang dieses Jahres ausgeliefert wurde und Studio 2.1, das Android N unterstützt, mit der Preview-Version dieses Betriebssystems herauskam.

Die große Neuigkeit ist die Firebase-Back-End-Plattform, die vor 18 Monaten als NoSQL-Datenbank von Google erworben wurde. Mittlerweile ist sie zu einer Suite von 15 Entwicklertools herangewachsen, von der Datenbank über Cloud-Messaging und -Benachrichtigungen bis hin zur Remote-Konfiguration und zum Absturz Berichterstattung. Besonders interessant fand ich dynamische Links, bei denen eine URL je nach Tippen zu unterschiedlichen Ergebnissen führen kann. All dies ist verbunden mit kostenlosen Analysen und es sah aus wie eine sehr beeindruckende, gut integrierte Plattform, die sich für viele Entwickler mobiler Apps als attraktiv erweisen sollte. Firebase unterstützt Anwendungen für Android, iOS und das mobile Web. Daher bewarb Google diese für plattformübergreifende Anwendungen, nicht nur für Android.

Eine der interessantesten Demos war eine Vorschau von Android Instant Apps, mit der jede App sofort ausgeführt werden kann, selbst wenn sie nicht installiert wurde. Ellie Powers, Group Product Manager für Android, sagte, dies beinhaltete die Modularisierung bestehender Apps, so dass der Play Store nur die Teile herunterlädt, die für die Anzeige des spezifischen Inhalts erforderlich sind. Dies könnte eine große Sache sein - wenn ein Freund möchte, dass Sie an einer Unterhaltung in einer Messaging-App teilnehmen und Ihnen einen Link senden, können Sie die Unterhaltung einfach fortsetzen, anstatt die App installieren zu müssen. Dies könnte eine wesentliche Änderung darstellen und einen anderen Ansatz für die Unterscheidung zwischen mobilem Web und Apps darstellen. Instant Apps werden auf Mobiltelefonen ausgeführt, die bis zu Jelly Bean zurückreichen, und sollten später in diesem Jahr schrittweise eingeführt werden.

Pichai kehrte zurück, um mehr über maschinelles Lernen zu sprechen. Er diskutierte, wie das Unternehmen sein TensorFlow-Framework für maschinelles Lernen im vergangenen Jahr herausgebracht und letzte Woche eine Open-Source-Version seines Parsers für natürliche Sprachen herausgebracht hat. Es scheint klar zu sein, dass es ein Bereich sein wird, in dem Google seine Cloud-Plattform von anderen Anbietern unterscheiden möchte.

Eine faszinierende Entdeckung war, dass das AlphaGo-Programm, das Championship Level Go spielte, auf kundenspezifischer Hardware basierte, die Pichai als Tensor Processing Units (TPUs) bezeichnete. In späteren Sitzungen und Interviews erklärte Google, dass es seit mehr als einem Jahr Tausende dieser benutzerdefinierten ASICs (Application-Specific Integrated Circuits) verwendet, um viele Anwendungen zu beschleunigen, einschließlich Ranking-Suchergebnissen (RankBrain), Mapping und Navigation (Street View)., Fotoverarbeitung, Spracherkennung und Sprachübersetzung. Er sagte, dass der TPU "eine Größenordnung" bessere Leistung pro Watt für maschinelles Lernen lieferte. Dies liegt hauptsächlich daran, dass diese Art von Aufgaben mit reduzierter Präzision gut funktionieren. Dies ermöglicht Google, das Design zu vereinfachen und mehr Verarbeitungselemente auf einem einzigen Chip zu platzieren. Er sagte, dies sei "eine Größenordnung" besser als GPU-Lernplattformen.

Pichai sagte, Googles Arbeit im Bereich maschinelles Lernen könne sich auf eine breite Palette von Bereichen, einschließlich Robotik und Gesundheitswesen, beziehen, und wies auf die Erforschung der diabetischen Retinopathie hin. "Ich bin unglaublich aufgeregt über die Fortschritte, die wir mit maschinellem Lernen und KI erzielen", sagte er und fügte hinzu, dass es sich nicht um Maschinen oder Menschen handelte, sondern dass der eigentliche Test darin bestand, ob Menschen viel mehr erreichen können mit der Unterstützung von AI.

Insgesamt war maschinelles Lernen das große Thema, aber es war interessant, wie Google versucht, es als Brücke zu nutzen, um in mehr Märkten wie Messaging und Cloud-Diensten zu bestehen. Aber für die meisten Entwickler ist meine Vermutung, dass die Änderungen in Android N, Android Studio und den Firebase-Diensten in den kommenden Monaten die größte Aufmerksamkeit erhalten werden.

Die Entwickler-Tools von Firebase und Android Studio stehlen die Show bei i / o