Zuhause Vorausdenken Google Apps, Tools zur Demokratisierung von ai

Google Apps, Tools zur Demokratisierung von ai

Inhaltsverzeichnis:

Video: Eine Tüte AI zum Mitnehmen bitte (Julia Jauß) - KI Roundtable (November 2024)

Video: Eine Tüte AI zum Mitnehmen bitte (Julia Jauß) - KI Roundtable (November 2024)
Anonim

Für mich war das größte Thema der Google I / O-Konferenz in der vergangenen Woche "Demokratisierung der KI" - mit anderen Worten, die KI war sowohl für Endbenutzer durch die Verwendung in einer Vielzahl von Google-Diensten als auch für Entwickler durch neue Tools und Programme zugänglich und sogar Hardware, die auf dem TensorFlow AI-Framework von Google basiert.

Sundar Pichai, CEO von Google, leitete die Konferenz mit einer Grundsatzrede ein, in der er erneut betonte, dass das Unternehmen - ähnlich wie im vergangenen Jahr - von einem mobilen Ansatz zu einem AI-Ansatz übergeht.

Er sagte, Google habe "alle unsere Produkte überarbeitet und maschinelles Lernen und KI angewendet, um die Probleme der Nutzer zu lösen." Er sagte, dass Algorithmen für maschinelles Lernen bereits die Rangfolge der verschiedenen Suchergebnisse beeinflussen und wie Street View jetzt Zeichen automatisch erkennt. Andere Dienste würden aufgrund der KI immer intelligenter, wie beispielsweise die Unterstützung mehrerer Nutzer durch Google Home und die Einführung einer "intelligenten Antwort" -Funktion durch Google Mail, mit der Antworten auf E-Mails automatisch vorgeschlagen werden.

Zu diesem Zweck machte er eine Reihe von Ankündigungen von AI-Produkten, sowohl für Verbraucher als auch für Entwickler.

Objektiv, Assistent und Foto verwenden AI-Funktionen

Für Endbenutzer ist Google Lens am sichtbarsten. Hierbei handelt es sich um eine Reihe von visionären Computerfunktionen, mit denen Sie verstehen, was Sie sehen, und Maßnahmen ergreifen können, sowohl im Google-Assistenten als auch in Google Fotos.

Er zeigte zum Beispiel, wie Sie eine Blume fotografieren und wie Google Lens sie jetzt identifizieren kann. Genauer gesagt, es kann ein Bild eines Benutzernamens und eines Kennworts für Wi-Fi aufnehmen und dann automatisch erkennen, dass Sie eine Verbindung herstellen möchten, und dies für Sie tun. Weitere Beispiele sind das Aufnehmen eines Fotos von der Außenseite eines Restaurants, das Verstehen der Software und das Anzeigen von Benutzerkritiken und Menüs. Das ist nicht alles ganz neu, aber ich kann mir vorstellen, dass es sehr nützlich sein wird - die Art von Dingen, die wir in ein paar Jahren alle so ziemlich auswendig werden lassen. Google sagt, dass dies in ein paar Monaten eingeführt wird.

Google Assistant wird immer intelligenter und wird Google Lens einbinden. Die größte Neuigkeit ist jedoch, dass der Assistent jetzt für das iPhone verfügbar ist.

Die beliebte Google Fotos-App verfügt außerdem über eine Reihe weiterer neuer AI-gesteuerter Funktionen, darunter "Recommended Sharing" (empfohlene Freigabe), mit der automatisch die besten Bilder ausgewählt und vorgeschlagen werden, dass Sie sie für die Personen auf den Fotos freigeben. Google Fotos fügt außerdem eine Funktion hinzu, mit der Sie Ihre Fotos ganz oder teilweise freigeben können Bibliothek, Wenn Sie also Fotos von Ihren Kindern machen, werden diese automatisch auch Teil der Fotobibliothek Ihres Partners. Und es kann die besten Fotos für ein Fotobuch vorschlagen.

AI-First-Rechenzentren und neue Entwicklungstools

Auf der internen Seite sprach Pichai darüber, wie das Unternehmen seine Computerarchitektur "überarbeitet", um "AI-first-Rechenzentren" zu bauen. Er sagte, Google nutze seine aktuellen Tensor Processing Units (TPUs) für alle seine Dienste, von der einfachen Suche über die Spracherkennung bis hin zur AlphaGo-Konkurrenz.

Ich war besonders fasziniert von der Einführung einer neuen Version des TPU 2.0 durch das Unternehmen, die laut Pichai 180 Teraflops (180 Billionen Gleitkommaoperationen pro Sekunde) pro 4-Chip-Platine oder 11, 5 Petaflops in jedem "Pod" von erreichen kann 64 solcher Boards. Diese stehen Entwicklern jetzt als "Cloud-TPUs" in der Google Cloud Engine zur Verfügung. Das Unternehmen kündigte an, über seine neue TensorFlow Research Cloud 1000 Cloud-TPUs für maschinell lernende Forscher bereitzustellen.

Dies ist Teil einer zunehmenden Weiterentwicklung von TensorFlow, dem Open-Source-Framework für maschinelles Lernen für Entwickler des Unternehmens. Die Konferenz hatte verschiedene Sitzungen, um mehr Entwickler zur Verwendung dieses Frameworks zu bewegen. TensorFlow scheint das beliebteste Framework für maschinelles Lernen zu sein, es ist jedoch nur eine von mehreren Möglichkeiten. (Andere sind Caffe, das von Facebook gepusht wird, und MXNet, das von Amazon Web Services gepusht wird.)

Ich ging zu einer Sitzung über "TensorFlow for Non-Experts", um das Framework und das System zu evangelisieren Keras Deep Learning Library, und es war voll. Es ist faszinierend, aber nicht so vertraut wie die traditionelleren Entwicklungswerkzeuge. Alle großen Unternehmen geben an, Probleme damit zu haben, genügend Entwickler mit Erfahrung im Bereich maschinelles Lernen zu finden. Daher ist es nicht verwunderlich, dass sie alle ihre internen Rahmenbedingungen vorantreiben. Die Tools für diese Funktionen werden zwar immer besser, sie sind jedoch immer noch kompliziert. Das Aufrufen eines vorhandenen Modells ist natürlich viel einfacher, und sowohl die Google Cloud Platform als auch Microsoft und AWS verfügen über eine Vielzahl solcher ML-Services, die Entwickler verwenden können.

Da die Entwicklung solcher Dienste so schwierig ist, hat Pichai viel Zeit damit verbracht, über "AutoML" zu sprechen, einen Ansatz, bei dem neuronale Netze neue neuronale Netze entwerfen. Er sagte, dass Google hofft, dass AutoML eine Fähigkeit annehmen wird, die einige Doktoranden heute haben, und es Hunderttausenden von Entwicklern ermöglichen wird, neue neuronale Netze für ihre speziellen Bedürfnisse in drei bis fünf Jahren zu entwerfen.

Dies ist Teil einer größeren Anstrengung namens Google.ai, um mehr Menschen mit KI zu versorgen, wobei Pichai über eine Vielzahl von Initiativen zur Verwendung von KI zur Unterstützung der Gesundheitsfürsorge spricht. Er sprach über Pathologie und Krebserkennung, DNA-Sequenzierung und Molekülentdeckung.

Dave Burke, Leiter der Android-Entwicklung, kündigte als Fortsetzung des Themas eine neue Version von TensorFlow an, die für Mobiltelefone optimiert wurde und TensorFlow lite heißt. Mit der neuen Bibliothek können Entwickler schlankere Deep-Learning-Modelle für Android-Smartphones erstellen. Er sprach darüber, wie Entwickler von Mobilprozessoren an bestimmten Beschleunigern in ihren Prozessoren oder DSPs arbeiteten, die für die Inferenzbildung und sogar für das Training von neuronalen Netzen entwickelt wurden.

In der Entwickler-Keynote sagte Fei Fei Li, eine Stanford-Professorin, die die KI-Forschung von Google leitet, dass sie sich Google anschließt, "um sicherzustellen, dass jeder KI nutzen kann, um wettbewerbsfähig zu bleiben und die Probleme zu lösen, die für ihn am wichtigsten sind."

Sie sprach viel über "Demokratisierung von KI", einschließlich der verschiedenen Tools, die Google Entwicklern für bestimmte Anwendungen zur Verfügung stellt, z. B. Vision, Sprache, Übersetzung, natürliche Sprache und Video-Intelligenz, sowie Tools zum Erstellen eigener Modelle, z als TensorFlow, das mit höheren APIs einfacher zu verwenden ist.

Sie sprach darüber, wie Entwickler jetzt CPUs, GPUS oder TPUs in der Google Compute Engine verwenden können. Sie gab ein Beispiel für die Geschwindigkeitsverbesserung, die einige Modelle mit TPUs erzielen, und sagte, die Auswirkungen auf die Forschung seien signifikant.

In Anlehnung an Pichai lobte sie die neue TensorFlow-Forschungswolke und sagte, Studenten und Kaggle-Benutzer sollten sich dafür bewerben. Abschließend teilte das Unternehmen mit, dass sein Cloud-KI-Team KI-demokratisch machen, Sie mit den leistungsstärksten KI-Tools von Google vor Ort treffen und die Reise mit Ihnen teilen soll, während Sie diese nutzen.

Google Apps, Tools zur Demokratisierung von ai