Video: Laptop BGA Reballing (November 2024)
Bei der GPU-Technologiekonferenz von Nvidia in der vergangenen Woche war ich überrascht zu sehen, wie weit sich Grafik und GPU-Technologie auf dem Desktop und auf Mobilgeräten bewegen und wie sich die Art und Weise, wie Software geschrieben wird, ändern muss, um sie zu nutzen.
Die große Bewegung geht in Richtung heterogener Software, Programme, die sowohl die herkömmliche Mikroprozessor-CPU als auch die GPU gleichzeitig verwenden können. Dies ist kein neues Konzept - sowohl Nvidia als auch AMD haben eine Weile darüber gesprochen -, aber die beiden Seiten rücken näher zusammen.
AMDs Ansatz bestand darin, die so genannten "Accelerated Processing Units" zu fördern, die sowohl GPUs als auch CPUs auf einem einzigen Chip kombinieren, und die so genannte "heterogene Systemarchitektur". In den letzten Jahren förderte sie HSA und gründete im vergangenen Jahr zusammen mit 21 anderen Unternehmen die HSA Foundation, um offene Standards für heterogenes Computing zu entwickeln.
Nvidias Ansatz war sehr unterschiedlich und konzentrierte sich auf seine CUDA-Plattformen zum Schreiben von Software auf seinen GPUs und seiner Tesla-Version von GPUs, die jetzt in Supercomputern wie dem Titan-Supercomputer des Oak Ridge National Laboratory verwendet werden. In solchen Systemen verwaltet eine ziemlich komplexe Software, was auf der CPU und was auf der GPU funktioniert.
Zum Auftakt seiner Keynote sagte Nvidia-CEO Jen-Hsun Huang: "Visual Computing ist ein leistungsstarkes und einzigartiges Medium. In den letzten 20 Jahren hat dieses Medium den PC von einem Computer für Information und Produktivität zu einem Medium für Kreativität, Ausdruck und Entdeckung gemacht. " Die nächsten Jahre sollten zeigen, ob dieser Übergang ein Plateau erreicht oder ob er tatsächlich gerade erst beginnt."
Wie erwartet, hat Huang in seiner Keynote viel darüber gesprochen, wie das auf CUDA basierende GPU-Computing wächst. Das Unternehmen hat 430 Millionen CUDA-fähige GPUs und 1, 6 Millionen CUDA-Programmierkit-Downloads ausgeliefert. Nvidia-GPUs werden mittlerweile in 50 Supercomputern weltweit eingesetzt. Zum Beispiel, sagte er, hat Titan kürzlich die weltgrößte mechanische Festkörpersimulation durchgeführt, wobei 40 Millionen CUDA-Prozessoren verwendet wurden, um 10 Petaflops mit anhaltender Leistung zu liefern. Er sagte auch, dass GPU-Computing in "Big Data" -Anwendungen viel Potenzial habe.
Huang sprach mit einem Vertreter aus Shazam darüber, wie das Unternehmen mithilfe von GPUs Musik und Audio einer großen Anzahl von Benutzern zusammenbringt. Huang erwähnte dann, dass eine Firma namens Cortexica eine ähnliche Technologie für die visuelle Suche einsetzt.
Vor allem zeigte das Unternehmen eine neue Roadmap für die GPU-Engine, die sowohl in den GeForce-Gaming-Produkten als auch in der Tesla-Linie zum Einsatz kommt. Die aktuelle GPU-Architektur heißt "Kepler" und wurde letztes Jahr ausgeliefert. Die nächste Version, bekannt als "Maxwell", ist nächstes Jahr fällig. Es ist ein großer Schritt in Richtung heterogenes Computing, indem eine "einheitliche virtuelle Speicher" -Architektur hinzugefügt wird, sodass CPU und GPU den gesamten Systemspeicher sehen können.
Dies ist wichtig, da einer der großen Engpässe beim GPU-Computing das Verschieben von Daten zwischen Hauptspeichersystemen und Grafikspeicher war und das Schreiben von Software, die beide Prozessortypen verwendet, schwierig war. (AMD hat eine ähnliche Funktion für seinen Kaveri-Prozessor angekündigt, die Ende dieses Jahres verfügbar sein soll. Ich bin mir nicht sicher, wie dies ohne direkte Unterstützung durch die CPU-Hersteller funktioniert, aber es ist sicherlich ein Ansatz, von dem wir mehr sehen werden vorwärts gehen.)
Für 2015 versprach Huang eine weitere Version namens "Volta", die den Grafikspeicher direkt auf die GPU stapelt und so die Speicherbandbreite drastisch auf etwa ein Terabyte pro Sekunde erhöht. Zum Vergleich: Die maximale Gesamtbandbreite von Kepler liegt bei 192 Gigabyte pro Sekunde.
Eine Reihe von Firmen, einschließlich Intel, haben darüber gesprochen, Speicher auf einen Prozessor zu stapeln, aber die Verkabelung zum Verbinden des Speichers und des Prozessors, die eine als Durchkontaktierung bekannte Technik verwendet, war komplex. Soweit ich weiß, ist Volta der erste relativ Mainstream-Prozessor, der diese Funktion anbietet.
Die mobile Roadmap bietet einige der gleichen Funktionen. Das Unternehmen hat kürzlich seine Prozessoren Tegra 4 (Codename "Wayne") und Tegra 4i (Codename "Gray") angekündigt. "Logan", das 2014 in Produktion gehen soll, erweitert die Tegra-Linie um die ersten CUDA-fähigen Grafiken. 2015 folgt "Parker", der die Maxwell-GPU-Technologie mit dem ersten einzigartigen CPU-Core-Design des Unternehmens, einem 64-Bit-ARM-Prozessor namens Project Denver, kombiniert. (Beachten Sie, dass während die beiden Prozessoren das GPU-Design gemeinsam haben, die Anzahl der tatsächlichen Grafikkerne in einem mobilen Prozessor wahrscheinlich viel geringer ist als in einer Desktop-Version.)
Dies dürfte sowohl wegen der einheitlichen Speicherarchitektur als auch wegen der geplanten Herstellung mit 3D-FinFET-Transistoren interessant sein. Intel verwendet diese Technik bei seinen 22-nm-Prozessoren. Sowohl der langjährige Nvidia-Fertigungspartner Taiwan Semiconductor Manufacturing Corp. als auch der Konkurrent Globalfoundries haben angekündigt, dass sie nächstes Jahr FinFETS einsetzen werden. Die Massenproduktion wird voraussichtlich im Jahr 2015 beginnen.
"In fünf Jahren werden wir die Leistung von Tegra um das 100-fache steigern", versprach Huang.
Die große Frage ist natürlich, wofür wir die Computerleistung verwenden. Ich kann die Hochleistungs-Computing- und "Big Data" -Anwendungen leicht erkennen - diese werden immer größer und können problemlos die Parallel-Computing-Funktionen von GPUs nutzen. Nvidia wird diese Funktionen auf verschiedene Arten anbieten, unter anderem über seine Tesla-Karten für Workstations und Supercomputer. die GRID-CPU-Server-Virtualisierungstechnologie für Unternehmensserver; und eine neue GRID Virtual Computing Appliance (VCA), ein 4U-Gehäuse mit Xeon-Prozessoren, Kepler-basierten GPUs und Speicher für Abteilungen.
Und natürlich werden Spiele mehr Grafiken verwenden und mit jeder Generation realistischer werden. Die Größe und Auflösung der Displays nimmt zu und die Leute wollen mehr Grafiken. Huang zeigte die neue High-End-Desktop-Grafikkarte des Unternehmens namens Titan, auf der eine Echtzeit-Ozean-Simulation von Waveworks ausgeführt wurde. Es wurde auch Faceworks vorgeführt, ein 3D-Sprechkopf namens Ira (oben), der mit dem Institute for Creative Technology am USC erstellt wurde.
Besonders interessant ist es, all diese Funktionen auf Mobilgeräte zu übertragen. Ich bin mir nicht ganz sicher, ob ich wirklich die Leistung einer High-End-Desktop-GPU in einem mobilen Gerät brauche - auf einem Fünf-Zoll-Bildschirm scheinen 1.980 mal 1.080 zu reichen -, aber ich habe keinen Zweifel daran Die Leute werden Gebrauch dafür finden. Eine Sorge ist, dass es zu viel Energie verbrauchen würde, aber Huang sagte, Logan wäre "nicht größer als ein Cent". Auf jeden Fall bin ich gespannt, was die Leute mit so viel Leistung anfangen werden.
Insgesamt setzt Nvidia wie AMD auf kontinuierliche Grafikverbesserungen, einheitlichen Speicher und einen heterogenen Ansatz bei der Programmierung von CPU und GPU. AMD würde sagen, dass es mit offenen Standards arbeitet, während Nvidia auf die Erfolge von CUDA hinweist, insbesondere im Hochleistungsbereich. Und natürlich gibt es Intel, dessen Grafik heute sowohl AMD als auch Nvidia nacheilt, aber immer noch den PC-CPU-Bereich dominiert. Es hat auch einen eigenen Satz von Software-Tools. Die verschiedenen Ansätze sollten dies zu einem faszinierenden Beobachtungsgebiet machen.