Video: OCPSummit19 - Concept Introduction for OCP Next Generation Rack and Chassis - Tai Chi (November 2024)
Der Open Compute Summit der vergangenen Woche ist zwar viel weniger bekannt als andere Ereignisse der jüngeren Vergangenheit, enthält jedoch möglicherweise mehr Informationen zur Ausrichtung großer Computer als die Ankündigung einzelner Anbieter.
Facebook organisierte zunächst das Open-Compute-Projekt, und dies war der vierte derartige Gipfel der Gruppe in den letzten 18 Monaten. Eine Reihe von großen Rechenzentren - von Hosting-Unternehmen bis hin zu großen Finanzunternehmen - sind inzwischen Mitglieder, und ein Großteil der Branche zeigt sich nun, um auszustellen und Unterstützung anzubieten. Die Idee besteht darin, den modernen Server - zunächst für die Datenverarbeitung, möglicherweise aber auch für die Speicherung - so neu zu gestalten, dass er den Anforderungen der größten Rechenzentren nach besserer Skalierbarkeit und weniger proprietären Lösungen gerecht wird.
Der erste Schritt ist ein neues Design für Racks, das als Open Rack-Spezifikation bezeichnet wird. Hierbei werden Rack-Einheiten verwendet, die breiter und etwas höher sind als bei vorhandenen Servern. Eine Standard-Rack-Einheit (ein 1U-Server) ist heute 19 Zoll breit. Bei Open Rack wäre ein einzelnes Rack 21 Zoll breit. Die neue Größe ist für drei nebeneinander angeordnete Motherboards oder fünf 3, 5-Zoll-Laufwerke ausgelegt und geht in Richtung noch dichterer Server. Beachten Sie, dass Server im Open Rack-Plan keine eigenen Netzteile haben. Stattdessen verfügt das Rack über mehrere Netzteile, die jeden Server mit Strom versorgen.
Das Konzept unterscheidet sich nicht wesentlich von den heute von Cisco, Dell, HP und IBM angebotenen Blade-Servern. Dies ist jedoch eine offene Spezifikation, während die heutigen Lösungen in der Regel proprietär sind. Dies dürfte zu mehr Kostenwettbewerb führen. (Beachten Sie auch, dass der Rackrahmen oder das Gehäuse immer noch eine Breite von 24 Zoll aufweist, sodass Open Rack-Produkte in vorhandene Rechenzentren passen sollten.) HP und Dell haben unter anderem bereits Produkte gezeigt, die in ein Open Rack-Design passen.
Innerhalb des Open Rack besteht die Idee darin, irgendwann unterschiedliche "Schlitten" zu haben - ein Rechenmodul mit zwei Prozessoren und einer geringen Menge an Speicher und Speicher, ein DRAM-Modul, ein Speichermodul und ein Flash-Speichermodul - die alle miteinander verbunden sind bei sehr hohen Geschwindigkeiten. Diese Module sollten gemischt und aufeinander abgestimmt werden können. und was noch wichtiger ist, jeder kann nach einem anderen Zeitplan ersetzt werden. (Flash-Speicher nutzt sich normalerweise schneller ab als Festplattenlaufwerke. Die CPUs werden häufig alle zwei Jahre oder so aktualisiert, da die Rechenanforderungen das Moore-Gesetz wirklich ausnutzen. Andere Komponenten können jedoch in einem Fünf- bis Sechsjahreszyklus aktualisiert werden.)
Eine neue Spezifikation heißt Open Common Slot für Prozessoren. Basierend auf PCI-Express sollte dies Prozessoren aller Hersteller ermöglichen, die dies unterstützen, auf einen Open-Rack-Server zuzugreifen. Sowohl Intel als auch AMD, die traditionellen x86-Serverhersteller, als auch Applied Micro und Calxeda, die ihre ARM-basierten Server mit geringem Stromverbrauch zeigten, gaben Unterstützung an. Außerdem haben AMD und Intel Open Rack-Motherboards entwickelt: AMDs Roadrunner und Intels Decathlete.
Bei den Interconnects für solche Server sind offenbar große Fortschritte zu verzeichnen. Laut Intel werden Muster eines 100-Gbit / s-Silizium-Photonikmoduls ausgeliefert, und es werden Spezifikationen für die Verwendung der Verbindung für CPU-, Speicher- und Netzwerkkarten in einem Rack entwickelt. In der Zwischenzeit zeigte Mellanox ein neues System mit Controllern und einem Top-of-Rack-Switch, mit dem Infiniband mit bis zu 56 Gbit / s betrieben werden kann.
Andere Teile des OCP arbeiten am Open Vault-Speicherprojekt (bekannt als Knox), das bis zu 30 Laufwerke in einem 2U Open Rack-Gehäuse zulässt. Einige der großen Namen im Speicher unterstützen zumindest Teile davon, darunter EMC, Fusion-io, Hitachi Global Storage und SanDisk. Fusion-io zeigt eine ioScale-Karte mit bis zu 3, 2 TB Flash-Speicher.
Anfänglich lag der Schwerpunkt von Open Compute auf Facebook, das das Projekt startete, um mit den enormen Datenmengen umzugehen, die täglich gespeichert, verschoben und berechnet werden müssen. Auf dem Gipfel wiederholte Facebook einige seiner Nutzungsstatistiken: - Eine Milliarde Nutzer laden täglich etwa 4, 2 Milliarden Likes, Posts und Kommentare sowie etwa 350 Millionen Fotos hoch. Aus diesem Grund benötigt Facebook zusätzliche 7 Petabyte pro Monat (und wächst), um Fotos zu speichern.
Facebook sprach auch darüber, wie 40 wichtige und 200 kleinere Dienste ausgeführt werden, hat diese nun jedoch so aufgeteilt, dass sie jeweils auf einem der fünf Standardservertypen ausgeführt werden: Web, Datenbank, Hadoop, Heuhaufen (Fotos) und Feed (viele) CPU und Speicher). Das Konzept von Open Compute besteht darin, die Anpassung der Server für jeden Dienst zu vereinfachen und das problemlose Ein- und Auslagern von Komponenten verschiedener Hersteller und nach unterschiedlichen Zeitplänen zu ermöglichen, um so flexibler und kosteneffizienter zu sein.
Natürlich haben diejenigen von uns, die Rechenzentren für Unternehmen betreiben, die gleichen allgemeinen Ziele, obwohl die meisten von uns nicht annähernd die gleiche Größenordnung haben. Ich gehe vorerst davon aus, dass die großen Nutzer der Open-Compute-Konzepte die größten Rechenzentren sein werden, ähnlich wie die großen Cloud-Anbieter den Anstoß für die OpenStack-Cloud-Plattform gegeben haben. In der Tat gibt es sicherlich Überschneidungen im Denken zwischen diesen Gruppen, aber im Laufe der Zeit sollten die Konzepte zum Mainstream werden. Es würde mich nicht überraschen, wenn Unternehmen jeder Größe Open Rack-Server bestellen und so die versprochenen Kosten- und Agilitätsverbesserungen erzielen könnten. Es wird ein paar Jahre dauern, aber die Idee ist vielversprechend.