Video: Dual Intel Xeon, 48Gb BEAST for under $700! (With Benchmarks) (November 2024)
Ein Blick auf einige der Ankündigungen der letzten Woche, insbesondere auf dem Open Compute Summit in der vergangenen Woche, zeigt, dass Rechen- und Speichersysteme in einem sehr schnellen Tempo immer dichter werden.
Im Vorfeld der Konferenz stellte Intel seinen für Mikroserver konzipierten Xeon D-Prozessor mit 4- und 8-Core-Versionen vor. Insbesondere ist die Quad-Core-Version für den Betrieb bei einem thermischen Designpunkt nahe 20 Watt ausgelegt, was viel weniger ist als bei Standard-Xeon-Prozessoren, während der 8-Core etwa 45 Watt verbraucht. Intel hat bereits 64-Bit-SoC-Designs (System-on-Chip) als Teil seiner Atom-Familie (bekannt als Avoton mit dem aktuellen Produkt C2750) angeboten und im vergangenen Herbst eine Vorschau auf den Xeon D veröffentlicht. Dies ist jedoch der erste Intel-Chip für Mikroserver, der Xeon-Kerne verwendet. Laut Intel bietet er eine bis zu 3, 4-mal schnellere Leistung und eine bis zu 1, 7-mal bessere Leistung pro Watt im Vergleich zum Atom-Kern. Xeon D kann bis zu 128 GB Arbeitsspeicher adressieren und wird voraussichtlich in der zweiten Jahreshälfte allgemein verfügbar sein.
Dies scheint in erster Linie auf sehr rechenintensive Workloads für Cloud-, Telekommunikations- und Hosting-Anbieter ausgerichtet zu sein, die auf Situationen abzielen, in denen viele Rechenkerne so wenig Strom wie möglich verbrauchen sollen. und sieht eindeutig aus wie ein Konkurrent für alle angekündigten ARM-basierten Serverchips. Verschiedene Unternehmen haben 64-Bit-ARM-Server angekündigt, aber nur Cavium mit seinem ThunderX, Applied Micro mit seinem X-Gene und AMD mit dem Opteron A1100, auch als "Seattle" bekannt, haben Designs in oder in der Nähe der Produktion.
Intel hat ein Design entwickelt, bei dem im Vergleich zu seiner traditionellen Xeon E-Familie interner Cache und externe Speicherkapazität zugunsten der Rechendichte geopfert werden. Durch die 14-nm-Fertigung wurde der Chip kleiner und energieeffizienter. (Beachten Sie, dass es sich technisch gesehen möglicherweise nicht um einen SoC handelt, da der Plattform-Controller-Hub tatsächlich ein anderer Chip im selben Paket ist, aber das sollte im Systemdesign eigentlich keine Rolle spielen.)
Auf dem Gipfel beschrieb Open Compute Project-Gründer Facebook ein neues modulares Systemgehäuse mit dem Namen "Yosemite", das vier Serverkarten mit jeweils einem Prozessor und bis zu 65 Watt Leistung sowie den Wedge-Top-of-Rack-Netzwerkswitch von Facebook enthält OpenBMC-Software (Baseboard Management Controller), die Serververwaltungsfunktionen wie die Überwachung der Temperatur, die Steuerung der Lüfter und die Fehlerprotokollierung bereitstellt. Mit der OpenRack-Spezifikation können Sie bis zu 192 Serverkarten in ein einzelnes Rack einbauen. Bei Facebook ging es insbesondere darum, Boards mit der Bezeichnung "Mono Lake" mit einer 2, 0-GHz-Version des Intel Xeon D mit acht Kernen und 16 Threads in diesem System zu verwenden, die bis zu 1.536 CPU-Kerne pro Rack ermöglichen.
Alles in allem ist dies ein großer Vorstoß von Facebook und dem Open Compute-Projekt hin zu offeneren Standards im Rack- und Server-Design.
Eine weitere wichtige Ankündigung in diesem Sinne stammte von HP, das Cloudline vorstellte, eine neue Familie von Rack-Servern, die die Open-Compute-Spezifikationen verwenden und in Zusammenarbeit mit Foxconn erstellt wurden. Die Cloudline CL sind 1U- und 2U-Rack-Server und -Schlitten mit zwei Intel Xeon E5-2600 v3 (Haswell) -Prozessoren. Die Produktlinie umfasst komplette Rackscale-Systeme für große Cloud-Rechenzentren. dichte Server mit mehreren Knoten für Hosting-Unternehmen; und kostengünstige, bare-Iron-Rack-Server für umfangreiche Bereitstellungen.
Für Unternehmenskunden sind diese so konzipiert, dass sie die HP Helion-Version der OpenStack-Software ausführen, während die großen Cloud-Anbieter häufig ihre eigenen Software-Stacks verwenden. HP hatte bereits angekündigt, Altoline Open Network-Switches einzusetzen, und dies scheint eine große Änderung in der Art und Weise zu sein, wie das Unternehmen die größten Computerinstallationen betreibt.
In der Zwischenzeit haben wir auch Anstrengungen zur Erhöhung der Dichte auf der Speicherseite gesehen. Das InfiniFlash-All-Flash-Array von SanDisk hat mich beeindruckt, insbesondere die Konfiguration, die bis zu 512 TB Raw-Speicher in einem 3U-Gehäuse ermöglicht. Das ist viel schneller Speicherplatz auf kleinem Raum. Das Unternehmen gibt an, dass es die fünffache Dichte eines festplattenbasierten Systems mit der 50-fachen Leistung bietet. Die Preise für Flash-Speicher sinken - laut SanDisk werden nach der Komprimierung weniger als 1 USD pro GB oder weniger als 2 USD pro GB ohne Komprimierung oder Deduplizierung berechnet. SanDisk verkauft hauptsächlich an OEM-Kunden, nicht an Unternehmen. Dies wird jedoch Cloud-Anbietern angeboten.
Auch die Festplatten stehen nicht still. HGST hat in der vergangenen Woche eine 10-TB-Version im 3, 5-Zoll-Format eingeführt, die auf kühlen Speicher für Cloud-Speicher und aktive Archivierung abzielt. (Mit anderen Worten, es ist nicht als primärer Speicher gedacht, aber es ist immer noch eine Menge Kapazität.) Und ich war interessiert zu sehen, dass Toshiba jetzt ein 6-TB-Desktop-Laufwerk mit 3, 5 Zoll anbietet. In der Zwischenzeit hat Sony einen Prototyp eines Kältespeichergeräts mit 1, 5 P Petabyte Speicher (15.000 Blu-ray-Discs mit jeweils 100 GB) und einer Zugriffszeit von etwa 30 Sekunden vorgeführt. Panasonic zeigte das mit Sony bearbeitete 300 GB-Archiv-Disc-Format sagte sollte bis Ende des Jahres zur Verfügung stehen.
Mehr Rechenleistung und mehr Speicher sind ein großer Trend beim Rechnen. Aber es muss noch alles geschafft werden, und das ist die nächste Herausforderung.