Zuhause Vorausdenken Die Tensor-Verarbeitungseinheiten von Google ändern die Regeln für maschinelles Lernen

Die Tensor-Verarbeitungseinheiten von Google ändern die Regeln für maschinelles Lernen

Video: Learn With Me: Getting Started with Tensor Processing Units (TPUs) | Kaggle (November 2024)

Video: Learn With Me: Getting Started with Tensor Processing Units (TPUs) | Kaggle (November 2024)
Anonim

Eine der interessantesten - und unerwartetsten - Ankündigungen, die Google letzte Woche auf seiner I / O-Entwicklerkonferenz gemacht hat, war, dass es seine eigenen Chips für maschinelles Lernen entwickelt und implementiert hat. In seiner Keynote stellte Sundar Pichai, CEO von Google, die so genannten Tensor Processing Units (TPUs) vor. Das Unternehmen verwendete diese in seinen AlphaGo-Maschinen, die Go-Champion Lee Sedol besiegten.

"TPUs haben eine um ein Vielfaches höhere Leistung pro Watt als kommerzielle FPGAs und GPUs", sagte Pichai. Während er nicht viele Details gab, erklärte der ausgezeichnete Hardware-Ingenieur von Google, Norm Jouppi, in einem Blog-Beitrag, dass eine TPU ein kundenspezifischer ASIC (Application Specific Integrated Circuit) ist. Mit anderen Worten, es ist ein Chip, der speziell für das maschinelle Lernen entwickelt wurde und speziell auf TensorFlow, das maschinelle Lernframework von Google, zugeschnitten ist.

Bild

In der Post sagte Jouppi, es sei "toleranter" gegenüber reduzierter Rechengenauigkeit, was bedeutet, dass es weniger Transistoren pro Operation erfordert. Auf diese Weise kann Google mehr Vorgänge pro Sekunde ausführen, sodass Nutzer schneller Ergebnisse erzielen. Er sagte, eine Karte mit einer TPU passe in einen Festplattensteckplatz in ihren Rechenzentrums-Racks und zeigte ein Bild von Server-Racks, die mit TPUs gefüllt seien und in den AlphaGo-Maschinen des Unternehmens verwendet würden.

Darüber hinaus arbeiten TPUs laut Jouppi bereits an einer Reihe von Anwendungen bei Google, darunter RankBrain, um die Relevanz der Suchergebnisse zu verbessern, und Street View, um die Genauigkeit und Qualität von Karten und Navigation zu verbessern.

In einer Pressekonferenz bestätigte Googles VP für technische Infrastruktur Urs Hölzle, dass die TPU mit einer 8-Bit-Ganzzahl-Mathematik ausgeführt wird, anstelle der höherpräzisen Gleitkomma-Mathematik, für die die meisten modernen CPUs und GPUs ausgelegt sind. Die meisten Algorithmen für maschinelles Lernen kommen mit Daten mit niedrigerer Auflösung zurecht, was bedeutet, dass der Chip mehr Operationen in einem bestimmten Bereich ausführen und komplexere Modelle effizient angehen kann. Dies ist keine neue Idee: Das Nvidia Drive PX 2-Modul, das zu Beginn dieses Jahres auf der CES vorgestellt wurde, kann 8 Teraflops mit 32-Bit-Gleitkommapräzision ausführen, erreicht jedoch 24 tiefgehende "Teraops" (die Bezeichnung des Unternehmens für 8 -Bit Integer Math).

Obwohl Hölzle sich weigerte, auf Einzelheiten einzugehen, bestätigte er Berichten zufolge, dass Google heute sowohl TPUs als auch GPUs verwendet. Er sagte, dies werde noch einige Zeit so bleiben, schlug aber vor, dass Google die GPUs als zu allgemein ansähe und einen für maschinelles Lernen optimierten Chip vorziehe. Er sagte, das Unternehmen werde später ein Papier herausgeben, in dem die Vorteile des Chips beschrieben würden, machte jedoch deutlich, dass diese nur für den internen Gebrauch bestimmt sind und nicht für den Verkauf an andere Unternehmen. Eine andere Anwendung, die er beschrieb, verwendete die Chips, um einen Teil des Computing hinter der auf dem Android-Telefon verwendeten Spracherkennungs-Engine zu handhaben.

Die Wahl eines ASIC ist eine interessante Wette von Google. Die größten Fortschritte beim maschinellen Lernen in den letzten Jahren - die Technologie hinter dem großen Vorstoß für tiefe neuronale Netze - waren die GPUs, insbesondere die Nvidia Tesla-Linie, um diese Modelle zu trainieren. In jüngerer Zeit hat Intel Altera gekauft, einen führenden Hersteller von FPGAs (Field-Programmable Gate Arrays), die sich irgendwo in der Mitte befinden. Sie sind nicht so universell einsetzbar wie GPUs oder so speziell für TensorFlow entwickelt wie Googles Chip, können jedoch für eine Vielzahl von Aufgaben programmiert werden. Microsoft hat mit Altera-FPGAs experimentiert, um tiefes Lernen zu erlernen. IBM entwickelt seinen TrueNorth-Neurosynaptic-Chip, der speziell für neuronale Netze entwickelt wurde und seit kurzem in einer Vielzahl von Anwendungen eingesetzt wird. Cadence (Tensilica), Freescale und Synopsys treiben ihre DSPs (digitale Signalprozessoren) voran, um diese Modelle zu betreiben. Mobileye und NXP haben kürzlich Chips angekündigt, die speziell für ADAS und selbstfahrende Autos entwickelt wurden. und mehrere kleinere Unternehmen, darunter Movidius und Nervana, haben Pläne für Chips angekündigt, die speziell für KI entwickelt wurden.

Es ist noch zu früh, um zu wissen, welcher Ansatz auf lange Sicht am besten ist, aber wenn wir einige sehr unterschiedliche Optionen haben, werden wir wahrscheinlich in den nächsten Jahren einen interessanten Wettbewerb sehen.

Die Tensor-Verarbeitungseinheiten von Google ändern die Regeln für maschinelles Lernen