Video: Wie funktioniert ein Prozessor (CPU)? Erklärvideo von BYTEthinks (November 2024)
In dieser Runde überraschender Entwicklungen in der Prozessortechnologie haben wir erfahren, dass Nvidia und IBM beschließen, ihre Prozessorkerne - Kepler-GPU- und Power-CPU-Kerne - zu lizenzieren, damit andere Unternehmen diese Kerne in ihre eigenen Produkte aufnehmen können.
Das ist eine große Veränderung. Wenn Sie bisher eine GeForce-GPU wollten, mussten Sie diese bei Nvidia kaufen, und wenn Sie eine Power-CPU wollten, mussten Sie sie bei IBM kaufen. Jetzt können andere Prozessoranbieter oder sogar Endkunden diese Kerne in ihre eigenen kundenspezifischen oder halbkundenspezifischen Produkte aufnehmen.
Die Lizenzierung von geistigem Eigentum in Form von Kernen für Prozessoren oder Grafiken ist nichts Neues. ARM hat aus dem Verkauf von CPU-Kernen und -Architekturen ein riesiges Geschäft gemacht, und Imagination Technologies baute sein Geschäft durch den Verkauf von Grafikkernen und -technologien auf. In jüngerer Zeit ist jeder in das andere Geschäft eingestiegen. Zu den CPU-Lizenznehmern von ARM gehören fast alle Hersteller von Mobilprozessoren (Apple, Qualcomm, Samsung, Nvidia, Mediatek und mehr), im Grunde alle außer Intel. Die Power-VR-Grafik von Imagination ist für Apple, Intel und viele andere lizenziert, wobei Imagination, ARMs Mali und Vivantes Grafik für die meisten Mobilprozessoren (mit Ausnahme derer von Unternehmen, die über eigene Grafik verfügen) ausschlaggebend sind. Aufgrund der einfach zu lizenzierenden Kerne für CPUs und Grafiken haben wir eine Vielzahl fertiger Prozessoren mit einem angemessenen Maß an Kompatibilität gesehen.
Nvidia ist ARM-Lizenznehmer und kombiniert die CPU-Technologie von ARM mit seiner eigenen Grafiktechnologie, um die Tegra-Reihe mobiler Prozessoren zu entwickeln. Vor einigen Wochen hat Nvidia gezeigt, dass es seine Kepler-GPU-Architektur so portiert hat, dass sie in Systemen mit ARM-CPUs funktioniert. (Das Unternehmen hat in Tegra weniger leistungsfähige Grafiken verwendet. Das Update wird Teil der kommenden "Logan" -Version seiner Produktreihe sein und wird der erste mobile Prozessor sein, der die CUDA-GPGPU-Verarbeitungsfunktionen unterstützt.) Es würde nun den GPU-Kern sowie die Rechte an seinem geistigen Eigentum für visuelles Computing lizenzieren, sodass Kunden ihre eigenen GPUs erstellen können.
Klingt bekannt? Das liegt daran, dass Nvidia einen früheren GPU-Kern für die PlayStation 3 an Sony lizenziert hatte und eine Patentlizenz mit Intel besitzt (was bei großen Anbietern üblich ist). Die neuen Lizenzpläne scheinen sich jedoch in erster Linie an andere Anbieter von Mobilprozessoren und den wachsenden Embedded-Markt zu richten. Nvidia konzentriert sich darauf, wie Kepler jetzt mit nur einem halben Watt Leistung arbeiten kann. Nvidia hatte bereits angekündigt, einen Serverchip zu entwickeln, der seine GPUs mit ARM-CPUs kombiniert. Dies würde theoretisch anderen Unternehmen ermöglichen, ähnliche Dinge zu tun.
Diese Woche hat IBM angekündigt, die Power-Technologie, die das Unternehmen normalerweise in seinen Chips für High-End-Server und Mainframes einsetzt, für die Entwicklung anzubieten. IBM sagte, es bilde zusammen mit Google, Mellanox, Nvidia und Tyan das OpenPower-Konsortium, um die Power-Architektur und Server-, Netzwerkspeicher- und Grafiktechnologie zu erweitern und Lösungen für sehr große Rechenzentren zu schaffen.
Die erste Power-Architektur, die IBM lizenzieren wird, ist Power 8, die das Unternehmen auf der Hot-Chips-Konferenz im Laufe dieses Monats ankündigen will, und die ab 2014 erhältlich sein wird Die von IBM angegebene Schnittstelle (CAPI) erleichtert das Kombinieren von Power Cores mit anderen Systemkomponenten für heterogenes Computing.
Die Idee ist, Unternehmen zunächst die Möglichkeit zu geben, mehrere Power CPUs einfacher mit Nvidia-GPUs zu verbinden, und zwar auf eine Weise, die für skalierbare "Web 2.0" -Rechenzentren sinnvoll ist, und schließlich spezialisierte Prozessoren zuzulassen, die eine Alternative zu Standard-Intel-Servern darstellen könnten. Denken Sie daran, dass auf dem heutigen Servermarkt Intel-basierte Server rund 90 Prozent der Einheiten ausmachen (obwohl nur etwa zwei Drittel des Umsatzes erzielt werden, da es sich bei den Nicht-x86-Servern zumeist um viel hochwertigere und teurere Produkte handelt). Die proprietären Power-basierten Server von IBM werden immer mehr zu einem Nischenspieler, und das Unternehmen muss mehr Benutzer für die Power-Architektur gewinnen, um die Relevanz zu erhalten und die fortgesetzten Investitionen in die Architektur zu rechtfertigen.
Es ist besonders interessant, IBM und Nvidia zusammen zu sehen. Man kann sich vorstellen, dass die Power-CPU mit CUDA-Grafiken kombiniert wird, um Serverprodukte zu erstellen, die auf dem Markt für Hochleistungs-Computing (HPC) oder Supercomputing sinnvoll sind, auf dem jedes Unternehmen bereits ein bedeutender Akteur ist. Und die Erfahrung von Mellanox im Bereich Interconnect würde auch auf diesem Markt helfen.
Der Schwerpunkt liegt jedoch eher auf dem großen skalierbaren Rechenzentrum, in dem sich die Technologie schnell entwickelt und das in letzter Zeit zu einem großen und schnell wachsenden Markt geworden ist. Die Idee ist, dass Unternehmen theoretisch SoC-Designs (System-on-Chip) entwickeln könnten, die auf diese Art von Anwendungen zugeschnitten sind.
Zum Teil ist dies einfacher, weil die großen Kunden häufig ihre eigene Software schreiben. Google, Facebook oder Microsoft könnten einen Teil der Software für ihre sehr großen Cloud-Rechenzentren, z. B. den Webserver oder den Datenbankserver, einfacher auf eine andere Architektur umschreiben als ein typisches Unternehmen mit seinem breiten Spektrum an Anbietern und internen Anwendungen. Das gleiche Konzept steckt natürlich hinter den jüngsten Ankündigungen einer Reihe von ARM-basierten Serverchips, die in erster Linie darauf ausgelegt sind, den Stromverbrauch in solchen Umgebungen drastisch zu senken.
Besonders faszinierend ist die Beteiligung von Google am OpenPower-Konsortium. Das Unternehmen hat sein Rechenzentrum größtenteils sehr geheim behandelt und baut vermutlich eigene Server. Es ist groß genug und verwendet genügend Server, damit es sich leisten kann, einen auf eine bestimmte Anwendung zugeschnittenen Serverchip wie die Websuche zu erstellen oder erstellen zu lassen.
Dies wäre auch eine Ergänzung zu anderen Maßnahmen, die den Markt für Rechenzentrumserver aufrütteln sollen, wie beispielsweise das OpenCompute-Projekt.
Der Umzug von IBM hier ist nicht völlig neu. Ich erinnere mich, als IBM, Apple und Motorola vereinbart hatten, die Power-Architektur zu übernehmen und den PowerPC zu entwickeln, der einige Jahre lang florierte, aber größtenteils zusammenbrach, als Apple seine Mac-Notebooks auf die Intel-Architektur umstellte. Und es gibt schon seit langem Power.org, eine Organisation, die die Power-Architektur auf den breiteren Markt bringen soll, einschließlich des eingebetteten Speicherplatzes. Die Stromversorgung hat in den letzten Jahren an Boden verloren, und IBM hofft, dass das neue Lizenzmodell dazu beitragen kann, dies zu ändern, insbesondere auf dem Markt für Rechenzentren.
Mehr Wettbewerb führt in der Regel zu neuen Innovationen, und ein Markt, in dem ein Anbieter 90 Prozent der Einheiten anbietet, klingt wettbewerbsfähig.
Bis zu einem gewissen Grad stehen die etablierten x86-Serverhersteller natürlich auch nicht still. AMD, das Intel auf dem Servermarkt weit voraus ist, hat angekündigt, sowohl ARM-basierte als auch x86-basierte Server zu entwickeln. Und es hat die Idee, dass die Zukunft in der Entwicklung von "semi-custom" -Chips liegt, die ihre Kerne entnehmen und andere IP-Adressen hinzufügen, um maßgeschneiderte Lösungen für große Kunden zu entwickeln, mit Nachdruck vorangetrieben. Die ersten Erfolge waren bei Spielekonsolen zu verzeichnen, aber auf dem Servermarkt ist dies kaum vorstellbar.
Bei der Ankündigung der nächsten Generation von Rechenzentrums-Chips sprach Intel darüber, wie es für einige große Kunden semi-benutzerdefinierte Versionen seiner Xeon-Serverchips mit Funktionen wie bestimmten Beschleunigern für bestimmte Funktionen erstellt. Das Unternehmen nannte Facebook und eBay als Kunden.
Auch hier können Sie sich vorstellen, wo dies für die größten und technisch anspruchsvollsten Kunden Sinn macht, für die die Kosten für das Umschreiben und Testen von Software auf neuen Plattformen viel geringer sind als die Kosten für den tatsächlichen Betrieb des Rechenzentrums. Aber ich frage mich, wie viel Markt das ist. Jeder kundenspezifische Chip, auch wenn er mit herkömmlichen Kernen und Grafiken erstellt wird, benötigt noch einige Entwicklungszeit, ganz zu schweigen von Masken, Wafern und Tests. Die Herstellung sollte daher teurer sein als bei Chips für den Massenmarkt, die über viel verfügen größere Skaleneffekte.
Ich nehme an, Sie können sich das als einen weiteren Schritt beim Abbau der Industrie vorstellen. Es war einmal eine Zeit, in der die Prozessorindustrie von integrierten Designherstellern (Integrated Design Manufacturers, IDMs) dominiert wurde, die ihre eigenen Core-IPs erstellten, vollständige Chips entwarfen, sie in ihren eigenen Fabriken bauten und sie dann an Kunden verkauften. Heute sind nur noch Intel und in geringerem Maße Samsung und TI in diesem Geschäft tätig. In der nächsten Phase wurden Chipdesigner eingesetzt, die das wichtigere IP- und Chipdesign überwachten, die Herstellung jedoch anderen überließen. Das dominierende Modell von heute sind fabless Halbleiterunternehmen und Chipgießereien. Vielleicht besteht die nächste Phase darin, dass die Kunden selbst das von anderen entworfene IP übernehmen, es von außen fest nach ihren Wünschen zusammensetzen und es dann von einer Gießerei herstellen lassen, wodurch der größte Teil des Chipdesigns gänzlich wegfällt. In einem solchen Modell wären die großen Gewinner die IP-Designer und die großen Verlierer die mittelständischen Unternehmen, die Chips zusammengestellt haben, die sie dann zu etwas anderen Zwecken an viele verschiedene Kunden verkauft haben.
Andererseits denke ich, dass es immer einen Markt für relativ wenige Chips geben wird, die die meisten Menschen gut genug bedienen und aufgrund ihres riesigen Volumens billiger sein können.
Bewegungen wie die, die wir kürzlich von Nvidia und IBM gesehen haben, sowie eine viel größere Offenheit für Anpassungen durch Unternehmen wie AMD und Intel dürften jedoch zu mehr Vielfalt und damit mehr Auswahl in der Prozessorwelt führen. Und das wiederum kann nur für Innovationen gut sein.