Zuhause Vorausdenken Nvidia zielt auf Grafik und 'Deep Learning'

Nvidia zielt auf Grafik und 'Deep Learning'

Video: Bessere Grafik und trotzdem mehr Frames per Second? | Nvidia DLSS 2.0 ausprobiert | (November 2024)

Video: Bessere Grafik und trotzdem mehr Frames per Second? | Nvidia DLSS 2.0 ausprobiert | (November 2024)
Anonim

Der neue Titan X-Grafikprozessor von Nvidia basiert auf dem GM200-Prozessor, einem riesigen Chip, der die Leistung von 8 Milliarden Transistoren, 3.072 Prozessorkernen und 12 GB integriertem GDDR5-Speicher für 7 Teraflops mit höchster Single-Precision-Leistung nutzt. Dieser Chip, der vor zwei Wochen auf der Game Developers Conference vorgestellt wurde, basiert auf denselben Maxwell-Kernen wie die aktuellen Prozessoren des Unternehmens und wird im selben 28-nm-Prozess hergestellt.

Nvidia gab diese Woche bekannt, dass seine neue Flaggschiff-GeForce-GPU die doppelte Leistung und die doppelte Energieeffizienz seines Vorgängers bieten würde. Es ist auch ein sehr großer Chip mit 601 mm2, ungefähr der derzeit größte Chip, der hergestellt wird, und wird 250 Watt Leistung verbrauchen. Und natürlich wird es der teuerste allgemeine Grafikchip mit einem empfohlenen Verkaufspreis von 999 US-Dollar sein.

Die meisten Bewertungen von Websites wie ExtremeTech, Anandtech und TechReport sind recht positiv. Natürlich sieht in der realen Welt niemand die Verdoppelung der Leistung, die der Anbieter behauptet, obwohl es einige nette Gewinne gibt. Im Allgemeinen scheint der Titan X andere Single-GPU-Karten deutlich zu schlagen und kann sich durchaus mit AMDs Dual-GPU Radeon R9 295X2 oder Nvidias Dual-GeForce GTX 980 SLI messen. In vielen Fällen ist eine Dual-GPU-Karte eines Herstellers schneller als eine Single-GPU-Karte, aber in vielen Spielen werden nicht beide Karten verwendet, und in anderen Fällen stottern die Dual-Card-Konfigurationen stärker. Insbesondere konzentrieren sich viele Bewertungen darauf, wie gut der Titan X bei 4K abschneidet.

Natürlich dürfte Nvidias Hauptkonkurrent in der hart umkämpften Welt der PC-Grafik nicht fest sitzen - AMD soll angeblich eine eigene neue Karte in den Startlöchern haben.

Was ich an der Einführung des Titan X auf der GPU Technology Conference (GTC) am Dienstag am interessantesten fand, war der Fokus auf die Verwendung des Chips in Deep-Learning-Anwendungen, wobei Jen-Hsun Huang, CEO von Nvidia, darüber sprach, wie Forscher vorgehen haben entdeckt, dass Deep-Learning-Techniken mit GPUs dramatisch beschleunigt werden können.

Huang sprach insbesondere über Anwendungen, die von der Bilderkennung mit automatisiertem Verfassen von Untertiteln über die medizinische Forschung bis hin zu autonomen Fahrzeugen reichen. Der Automobilmarkt stand bei Nvidia auf der CES im Vordergrund, als der Tegra X1-Chip und die Drive PX-Lösung für die Autoindustrie vorgestellt wurden. Die Idee ist, bestehende Fahrerassistenzsysteme (ADAS) so zu erweitern, dass sie mit der Zeit immer intelligenter werden. "Ich glaube, dass der Urknall selbstfahrender Autos in den nächsten Jahren kommen wird." Sagte Huang.

Später kam Elon Musk, CEO von Tesla Motors, zu Huang auf die GTC-Bühne, um zu sagen, dass die Entwicklung selbstfahrender Autos, die tatsächlich sicherer als Menschen sind, nicht so weit entfernt ist. Laut Musk sind die aktuellen Sensorsuiten in einem Tesla bereits mit Fahrerassistenzfunktionen ausgestattet. Für das Selbstfahren in einer städtischen Umgebung mit einer Geschwindigkeit von 10 bis 40 Meilen pro Stunde ist jedoch mehr Rechenleistung erforderlich. Der Übergang werde jedoch lange dauern, da der Fuhrpark auf der Straße so groß sei. "Es ist seltsam, dass wir dem Aufkommen der KI so nahe sind", sagte Musk. "Ich hoffe nur, dass wir Menschen noch etwas zu tun haben."

Maschinelles Lernen unterscheidet sich von den meisten HPC-Anwendungen (High Performance Computing), bei denen Nvidia seine Tesla-Beschleuniger eingeführt hat. Diese Anwendungen erfordern normalerweise Gleitkommazahlen mit doppelter Genauigkeit, während Deep-Learning-Anwendungen häufig nur eine einfache Genauigkeit erfordern. Die Titan X bietet nur Einzelgenauigkeit. Für Deep Learning-Anwendungen bietet Nvidia ein neues Framework mit dem Namen DIGITS, das Deep GPU Training Systems für Datenwissenschaftler, und eine neue Appliance mit dem Namen DIGITS DevBox für 15.000 US-Dollar an.

Mit Blick auf die Zukunft sagte Huang, dass die Pascal-GPU-Architektur, die nächstes Jahr eingeführt wird, Deep-Learning-Anwendungen zehnmal schneller machen wird als die Maxwell-Prozessoren der aktuellen Generation. Dies ist auf drei neue Funktionen zurückzuführen: gemischte Genauigkeit (mehr Verwendung von 16-Bit-Gleitkommazahlen); 2, 7-fache Speicherkapazität mit bis zu 32 GB bei Verwendung von gestapeltem 3D-Speicher mit dreifacher Speicherbandbreite und NV Link-Verbindung, die bis zu acht High-End-GPUs in einer DevBox oder einer ähnlichen Workstation ermöglicht (im Gegensatz zu den vier Titan X GPUs in einem Versand im Mai). Es wurde nicht gesagt, aber es ist wahrscheinlich, dass Chips, die auf dieser Architektur basieren, Prozesstechnologien der nächsten Generation verwenden. Immerhin wurden die ersten 28-nm-Chips im Jahr 2011 eingeführt und im Jahr 2012 verkauft. Bis zum nächsten Jahr bin ich zuversichtlich, dass es diskrete 16-nm- oder 14-nm-Grafikchips geben wird.

Nvidia zielt auf Grafik und 'Deep Learning'