Zuhause Vorausdenken Open Compute Summit zeigt enorme Hardware-Innovationen

Open Compute Summit zeigt enorme Hardware-Innovationen

Video: OCPSummit19 - Keynote - Hardware Innovations for Data Growth Challenges at Cloud-scale (November 2024)

Video: OCPSummit19 - Keynote - Hardware Innovations for Data Growth Challenges at Cloud-scale (November 2024)
Anonim

Der derzeit vielleicht interessanteste Trend bei Computerhardware ist das Open-Compute-Projekt und die Bemühungen, gemeinsame, effiziente Standards für Rechenzentrumsgeräte zu schaffen, und nicht die proprietäre Hardware und Software, die wir heute haben. Als wir zum ersten Mal von Open Compute hörten, schien es für Hyper-Scale-Webfirmen eine gute Möglichkeit zu sein, energieeffizientere und leichter zu wartende Server zu entwerfen. Seitdem ist Open Compute jedoch auf viele andere Arten von Hardware angewachsen - vom Speicher bis zum Netzwerk - und wird nicht nur für Cloud-Software-Unternehmen, sondern auch für Enterprise-Computing-Unternehmen anwendbar.

All dies wurde auf dem Open Compute Project Summit in der vergangenen Woche deutlich, auf dem eine Vielzahl von Unternehmen neue Hardware vorstellte, die für die Arbeit mit der Open Compute-Hardware und -Spezifikationen von Servern bis zu Netzwerken ausgelegt war.

"Bereits 2011 haben wir ein paar Samen gepflanzt", sagte Frank Frankovsky von Facebook, Vorsitzender der OCP Foundation, bei der Eröffnung des Gipfels. "Was würde passieren, wenn wir Open-Source-Prinzipien auf den Hardwarebereich anwenden? Die Arbeit, die wir gemeinsam leisten, verändert die Branche grundlegend."

Neue Chips und Spezifikationen Push ARM-basierte Server

Einige Dinge, die während der Woche angekündigt wurden, stachen heraus. Die große Mehrheit der Server in der realen Welt und im Open Compute-Projekt basiert auf den Xeon-Prozessoren von Intel und der x86-Architektur. Dies dürfte sich zwar nicht so schnell ändern, aber Wettbewerber wie ARM und AMD hatten einige interessante Alternativen.

AMD kündigte seine erste 64-Bit-ARM-basierte Server-CPU an, die 28-nm-Opteron-A1100-Serie (mit dem Codenamen Seattle), die Andrew Feldman, General Manager und Corporate Vice President, den Kunden "innerhalb weniger Wochen" vorlegen wird wird voraussichtlich erst gegen Ende des Jahres allgemein verfügbar sein. Der A1100 umfasst 4- oder 8-Kern-ARM Cortex-A57-Prozessoren, bis zu 4 MB gemeinsam genutzten L2- und 8 MB gemeinsam genutzten L3-Cache, zwei DDR3- oder DDR4-Speicherkanäle mit ECC, ARM TrustZone für die Sicherheit und Co-Prozessoren für Verschlüsselung und Daten Kompression.

Feldman sprach über ein A Series Development Kit mit dem A1100-Prozessor und sagte, das Unternehmen habe eng mit der Linaro Enterprise Group und Softwareanbietern zusammengearbeitet, um ein kompatibles Linux-Betriebssystem zu entwickeln, das auf Fedora von Red Hat, einem optimierten LAMP-Stack, Java-Unterstützung und anderem basiert Software einschließlich Anwendungen, Hypervisoren, Compilern und Simulatoren. Feldman hielt ein kleines Mikroserver-Design hoch, das die AMD Opteron A-Serie und die gemeinsame Steckplatzspezifikation des Open Compute-Projekts für Motherboards, die als "Group Hug" bekannt ist, verwendete, und gab bekannt, dass das Unternehmen einen Beitrag zum Projekt leistete, damit Hardware-Unternehmen dies können Starten Sie den Aufbau von darauf basierenden Servern.

Während Feldman sagte, dass AMD sich für x86 und ARM einsetzt, schlug er nachdrücklich vor, dass die Zukunft des Rechenzentrums auf ARM-basierte Server ausgerichtet sei. "In der Geschichte der Computer haben immer kleinere, kostengünstigere und volumenstärkere CPUs gewonnen", sagte Feldman. "Es gibt keine Ausnahme." Er stellte fest, dass im vergangenen Jahr 8 Milliarden ARM-CPUs im Vergleich zu 13 Millionen x86-Server-CPUs ausgeliefert wurden. (Dies scheint ein alberner Vergleich zu sein, da es ARM-CPUs enthält, die in allen Arten von Nicht-Rechenzentrumsanwendungen verwendet werden, aber x86s, die nur in Servern verwendet werden, ausschließt.) Feldman sagte voraus, dass ARM bis 2019 ein Viertel des Servermarktes und der benutzerdefinierten Server beherrschen wird ARM-SoCs werden die Norm für große Rechenzentren sein, während kleinere, effizientere x86-CPUs den x86-Servermarkt dominieren werden.

Auch auf der Chip-Seite gab Applied Micro bekannt, dass das X-Gene 2 in diesem Frühjahr mit der ersten ARMv8-Implementierung, die für Server entwickelt wurde, ein Sampling durchführen wird. Feldman sagte auch, dass im nächsten Jahr ein X-Gene 3 mit 16 oder mehr ARM-Kernen auf einem FinFET-Prozessor folgen wird.

Ein Problem, das einige Leute mit ARM-basierten Servern hatten, ist die Fragmentierung. Um dem entgegenzuwirken, kündigte Ian Drew, Executive Vice President Business Development und Chief Marketing Officer von ARM, eine neue Server Base System Architecture an. Die Idee ist, eine grundlegende Hardwarespezifikation für Betriebssystem- und Firmware-Entwickler und ein einziges Betriebssystem-Image für alle ARMv8-A-basierten Server bereitzustellen. "Es ist eine Hardware-Spezifikation, die von Hardware- und Software-Entwicklern zusammen geschrieben wurde", sagte Drew. Er merkte an, dass dies keine Standardisierung ist, bei der jeder monolithisch sein wird, sondern so konzipiert ist, dass die Differenzierung zur richtigen Zeit auf der richtigen Ebene erfolgt.

Laut Drew möchte ARM sicherstellen, dass alle mit an Bord sind, sodass es auf der ARM-Website öffentlich zugänglich ist. Es wird von den OEMs und einer Reihe von Halbleiterpartnern unterstützt, darunter AMD, Applied Micro, Broadcom und Cavium.

Microsoft tritt OCP bei

Microsoft teilte mit, dass es sich OCP anschließt und einen vollständigen Satz von Spezifikationen für die Server beisteuert, auf denen Office 365, Windows Azure und Bing ausgeführt werden. Bill Laing, Corporate Vice President, sagte, das Unternehmen wolle Innovationen in Cloud-Rechenzentren vorantreiben. Dieses anfängliche Design unterscheidet sich stark von dem standardmäßigen 21-Zoll-Rack, das ursprünglich von Facebook beigesteuert wurde und das bisher viele Open Compute-Server definiert hat. Stattdessen handelt es sich um ein 12-HE-Gehäuse, das in ein Standardrack mit einem Computing Blade, einem Storage Blade, einer gemeinsam genutzten Rückwandplatine, einer gemeinsam genutzten Stromversorgung und Kühlung sowie einem Verwaltungsknoten passt.

Laing sagte, dass diese Designs vormontiert werden können und eine minimale Integration vor Ort haben, da komplette Tabletts entfernt und ersetzt werden können. Im Vergleich zu einem herkömmlichen Unternehmensserver ließe sich durch dieses Design eine Kostenersparnis von bis zu 40 Prozent, eine Steigerung der Energieeffizienz um bis zu 15 Prozent und eine Verbesserung der Bereitstellungs- und Servicezeiten um 50 Prozent erzielen. Die Idee ist, Kunden die gleichen Vorteile zu bieten und "das Cloud-Computing voranzutreiben, so wie wir das Rechenzentrums-Computing von Unternehmen transformiert haben".

Microsoft betreibt weltweit mehr als 200 Cloud-Dienste, bedient über 1 Milliarde Kunden und mehr als 20 Millionen Unternehmen in über 90 Märkten und stellt derzeit über 1 Million Server in seinen Rechenzentren bereit, so Laing.

Öffnen Sie Compute Adds Networking

Ein neues Projekt ist die Vernetzung, die im vergangenen Mai offiziell gestartet wurde. "Es ist seltsam, dass Open Source diese außerordentlich positiven Auswirkungen auf Software, Server, Rechenzentren und Speicher hatte. Wir haben diese liebevoll gestalteten Inseln der Open Source-Technologie, aber was diese Inseln miteinander verbindet, ist immer noch eine proprietäre Black Box." Frankovsky sagte. "Deshalb haben wir beschlossen, diese Black Box aufzubrechen und den Kunden Flexibilität und Auswahlmöglichkeiten in ihrem Netzwerk und Transparenz zu bieten. Die gleichen Dinge, die die Menschen für Open-Source-Software begeistern, ziehen uns auch für Open-Source-Hardware an. Es ist die natürliche menschliche Neugierde, wie sie funktioniert." diese Arbeit und wie würde es anders funktionieren, wenn ich sie zerlegen und wieder so zusammenbauen würde, wie ich es wieder zusammenbauen möchte?"

Innerhalb weniger Monate habe die OCP Beiträge von Broadcom, Intel, Mellanox, Big Switch und Cumulus Networks erhalten.

Während eine Reihe von Unternehmen über herstellerunabhängige Top-of-Rack-Switches gesprochen haben, war ich neugierig, als Dell einen Vertrag mit Cumulus Networks ankündigte, wonach das Hardware-Unternehmen die Linux-basierte Netzwerksoftware von Cumulus zusätzlich zu einem OCP-kompatiblen Netzwerk weiterverkaufen würde Hardware.

Zu den weiteren interessanten Hardware-Neuigkeiten auf der Messe gehörte die Ankündigung von Seagate, seine Kinetic-Speicherplattform für OCP bereitzustellen, mit der Anwendungen eine direkte Verbindung zum Speicher über Ethernet herstellen können, anstatt herkömmliche Speicherserver zu verwenden.

Facebooks Full-Stack-Infrastrukturoptimierung

Angesichts seiner Schlüsselrolle bei der Einführung von Open Compute ist es nicht verwunderlich, dass Facebook bei der Übernahme der meisten Technologien führend ist. Jay Parikh, Vice President of Infrastructure bei Facebook, hielt einen Vortrag zum Thema "Warum all das, was Facebook mit Infrastruktur macht, wirklich wichtig ist". Anfangs habe sich das Facebook-Infrastruktur-Team nur darauf konzentriert, die Dinge am Laufen zu halten, sagte Parikh. Mit zunehmendem Wachstum stieß das Team jedoch schnell an die Grenzen der Hard- und Software. Sie hatten einige "spektakuläre Misserfolge", sagte er, lernten dabei jedoch eine grundlegende Sache: Auf der Skala werden alle Ihre Probleme vergrößert.

Dabei haben sie ein neues Serverdesign entwickelt, das kostengünstiger und energieeffizienter ist und die Verwaltung und Reparatur von Servern erleichtert. Heute verfügt Facebook über ein benutzerdefiniertes Rechenzentrum mit benutzerdefinierten Racks, Rechen- und Speicherservern sowie Netzwerken.

"Mit der Zeit mussten wir die Kontrolle über jeden Teil des Stapels übernehmen, weil wir mit dem Wachstum Schritt halten mussten", sagte Parikh. Er sprach über das Konzept der "Full-Stack-Infrastrukturoptimierung", einschließlich Software, Netzwerk, Server und Speicher. Derzeit verwendet das Unternehmen nur Open Compute Project-Hardware. "Wir sparen tatsächlich eine Menge Geld", sagte er. In den letzten drei Jahren hat die Full-Stack-Optimierung Facebook über 1, 2 Milliarden US-Dollar erspart.

Daraufhin gab Parikh ein Update zum Kühlhaus von Facebook. Er sagte, dass das erste neue Kühlhaus des Unternehmens mit einer Kapazität von 30 Petabyte in Betrieb genommen wurde und ein zweites in Kürze online gehen wird. Die Gesamtspeicherkapazität werde in den nächsten Monaten "weit über 100 Petabyte" betragen. Jede Einrichtung ist für die Speicherung von maximal drei Exabytes ausgelegt, sodass viel Platz für Wachstum bleibt.

Zum ersten Mal zeigte Parikh einen Prototyp des Facebook-Speicherservers mit Blu-ray-Discs (eine Idee, über die das Unternehmen auf dem letztjährigen Gipfel sprach). Der Schrankserver verfügt über 10.000 Blu-ray-Discs für insgesamt 1 Petabyte Speicherplatz, und Facebook plant, die Dichte schließlich auf 5 Petabyte pro Rack zu erhöhen. Verglichen mit dem derzeitigen festplattenbasierten Kühlsystem könnten die Blu-ray-Server die Kosten halbieren und den Energieverbrauch um 80 Prozent senken, sagte Parikh. Facebook plant, noch in diesem Jahr ein Produktionssystem zu testen und die Blu-ray-Server für die kalte Speicherung von Benutzerfotos und -videos zu verwenden, auf die selten zugegriffen wird.

Open Compute und kleinere Unternehmen

Eines der Dinge, die mich vom Gipfel am meisten faszinierten, war der Hinweis, dass sich nicht nur Cloud-Unternehmen wie Facebook, Rackspace und Microsoft für das Konzept interessierten. Stattdessen wies Frankovsky auf große Unternehmenskunden wie Bloomberg, Fidelity und Goldman Sachs hin, die gerade Open Compute bereitstellen.

Es ist interessant, dass es jetzt mehr Möglichkeiten gibt, Standard-19-Zoll-Rack-Komponenten mit einem 21-Zoll-Open-Rack-Container zu verwenden und umgekehrt. Frankovsky wies zum Beispiel darauf hin, dass Fidelity mit einem Open Bridge Rack zu einem Standard EIA Rack in ein Open Rack kam. Hyve Solutions nahm einige Open Compute-Systemplatinen und verpackte sie erneut in Standard-19-Zoll-Fächer und trug das Design wieder zur Gründung bei.

In einer Podiumsdiskussion diskutierten Marc Andreessen, Mitbegründer und Komplementär bei Andreessen Horowitz, und Andy Bechtolsheim, Gründer, Chief Development Officer und Vorsitzender von Arista Networks, darüber, wie der Trend zu günstigeren Rechenzentren die Unternehmen verändert.

Laut Andreessen gibt es jetzt eine radikale Möglichkeit, Open-Source-Software und Open-Source-Hardware in großem Umfang zu kombinieren, um die Systemkosten erheblich zu senken und Cloud-basierte Dienste in Bereichen wie Gesundheitswesen und Bildung bereitzustellen. Neue Unternehmen können fast ausschließlich über die Cloud betrieben werden. Infolgedessen kaufen 500.000 US-Dollar für die Einführung eines Produkts ein Startup mit einer Laufzeit von zwei Jahren. Während Facebook (Andreessen ist im Vorstand) jetzt ein großes Kapitalbudget hat, sagte er, wenn es 1999 existiert hätte, hätte es ein 50- bis 100-mal größeres Kapitalbudget erforderlich gemacht, vielleicht würden 100 Milliarden Dollar pro Jahr für Kapital ausgegeben Ausrüstung, die unmöglich ist. Die Entwicklung von kostengünstigerer Hardware mit höherem Volumen ermöglicht Dienste wie Facebook oder Google. Wenn Sie weitere 10 Jahre projizieren, werden die Dienstleistungen, die möglich sein werden, umwerfend sein.

"Das gesamte Wachstum findet in der Cloud statt", sagte Bechtolsheim. Die traditionellen IT-Ausgaben blieben unverändert oder gingen zurück. Arista Networks entwickelt Netzwerkgeräte, die die Anforderungen dieser Rechenzentren im Cloud-Maßstab erfüllen. Es sei sehr sinnvoll, die Netzwerkhardware zu standardisieren. Bis zur Einführung des Open-Compute-Projekts, so Bechtolsheim, hatte die Branche noch nie ein Forum für offene, kollaborative Hardware-Innovationen. Es gibt zwar immer noch einige Unternehmen, die ihre eigenen Chips herstellen, und er glaubt, dass dies ein altes Modell ist. Das Problem beim Networking ist, dass Sie einen Software-Stack benötigen, der tatsächlich funktioniert. Hardware ist einfach, Software ist schwer, sagte er, weshalb Arista ein viel größeres Software-Team hat.

Laut Bechtolsheim werden 64-Bit-Computing- und ARM-SoCs mit höheren Frequenzen (mindestens 2 GHz) ARM im Rechenzentrum rentabel machen. Es wird wahrscheinlich passieren, wenn es Sinn macht, sagte er. Er sagte auch, "in der Verteidigung von Intel" hat es bemerkenswerte Arbeit geleistet, indem es seine Prozesstechnologie nutzte, um energieeffizientere, kostengünstigere Serverprozessoren zu liefern. Intel sei hier ein hervorragender Konkurrent, und man brauche Wettbewerbe, um Innovationen voranzutreiben, sagte er. Bei dem derzeitigen Fortschritt kostet das Rechenzentrum, das heute 1 Milliarde US-Dollar kostet, in einem Jahrzehnt nur 10.000 US-Dollar. Das wird die nächste Generation von Anwendungen ermöglichen.

Um die Akzeptanz von Open-Compute-Produkten zu verbessern, kündigte Frankovsky eine andere Art von Technologielizenzierung an, die eher der GPL ähnelt, sodass alle abgeleiteten Werke an die Stiftung zurückgegeben werden, sowie die Open-Compute-Hardwarezertifizierung in neuen Labors in Taiwan und am Universität von Texas in San Antonio.

Open Compute Summit zeigt enorme Hardware-Innovationen