Zuhause Geschäft Wie diese massive Struktur in der Wüste von Oregon Facebook am Laufen hält

Wie diese massive Struktur in der Wüste von Oregon Facebook am Laufen hält

Video: Inside Facebook's Oregon data center (CNET News) (November 2024)

Video: Inside Facebook's Oregon data center (CNET News) (November 2024)
Anonim

PRINEVILLE, Erz. - Es gibt viele Möglichkeiten, um sicherzustellen, dass Sie über ein schnelles Internet verfügen. Sie könnten in eine Google Fibre-Stadt umziehen. Sie können einen unserer schnellsten ISPs auswählen. Oder Sie können Ihr Haus neben einem Facebook-Rechenzentrum errichten.

Nehmen wir zum Beispiel das erste Facebook-Rechenzentrum. Es wurde 2011 in Prineville, Ore, eröffnet und diente als Vorbild für jedes Rechenzentrum, das der Social-Media-Riese seitdem von Schweden bis Iowa gebaut hat. Es verbraucht so viel Bandbreite, dass mehrere ISPs in der Region erforderlich sind, um ihre Netzwerke zu stärken und die Anwohner mitzunehmen.

Sie können sich das Prineville-Rechenzentrum zusammen mit den anderen Einrichtungen von Facebook als das kollektive Herz des weltweit größten sozialen Netzwerks vorstellen: Sie erhalten eine Flut von Anfragen nach Fotos, Statusaktualisierungen und Newsfeeds von 1, 65 Milliarden aktiven Nutzern und reagieren so schnell wie möglich, ähnlich wie ein Herz, das Sauerstoff in den Blutkreislauf pumpt.

Das Werk in Prineville steht kurz vor dem fünften Jahrestag und bearbeitet Datenanfragen für Dinge, von denen Mark Zuckerberg wahrscheinlich keine Ahnung hatte, dass Facebook sie durchführen würde, als er sich in seinem Harvard-Schlafsaal die Idee für das Unternehmen ausgedacht hat.

Diese Woche besuchte PCMag eine Tour.

Natürlich speichert Prineville immer noch Fotos und Statusaktualisierungen, aber es verfügt jetzt auch über Tausende von Nvidia-GPUs, die die Erforschung der künstlichen Intelligenz von Facebook unterstützen, sowie über 2.000 iOS- und Android-Telefone, die 24 Stunden am Tag Tests durchführen. Dies hilft den Ingenieuren des Unternehmens, die Energieeffizienz seiner Apps zu steigern, zu denen neben Facebook auch Instagram, Messenger und WhatsApp gehören.

Facebook-Daten sind "belastbar, nicht redundant"

Das Erste, was Sie an der Anlage in Prineville bemerken, ist ihre Größe. Eine dreistündige Fahrt von Portland entfernt erhebt sich aus der baumbestandenen Hochwüste von Zentraloregon. Es handelt sich nicht um ein einzelnes, sondern um ein viertes Gebäude (und das enthält kein weiteres großes Rechenzentrum, das Apple vor kurzem über die Straße gebaut hat und das den treffenden Namen Connect Way trägt). Eines der Facebook-Gebäude bietet Platz für zwei Walmarts und ist etwa 30 Meter länger als ein Flugzeugträger der Nimitz-Klasse.

Im Inneren befinden sich Server mit mehreren Petabyte Speicherplatz, die die Facebook-Ingenieure durch den Austausch von Komponenten ständig aktualisieren. Von den 165 Mitarbeitern, die Vollzeit im Rechenzentrum arbeiten, sind 30 pro Gebäude nur für die Wartung oder den Austausch von Netzteilen, Prozessoren, Speicher und anderen Komponenten zuständig.

Das Markenzeichen fast aller im Internet tätigen Unternehmen, von Amazon bis Charles Schwab, ist Redundanz: Mehrere Server, auf denen mehrere Kopien von Daten gespeichert sind. Dies ist in Prineville weniger der Fall, wo Ken Patchett, Facebooks Director of Western Data Operations, sich stattdessen auf Ausfallsicherheit konzentriert - grob definiert als die Fähigkeit, jederzeit und überall auf der Welt bereit zu sein, wenn sich jemand bei Facebook anmeldet.

Die Konzentration auf "Ausfallsicherheit, nicht Redundanz", wie Patchett es ausdrückt, ist möglich, da Facebook den Luxus hat, mehrere Kopien von Daten an seinen anderen Standorten auf der ganzen Welt zu speichern, von Lulea (Schweden) bis Altoona (Iowa). Anstatt zwei oder mehr von allem zu haben, kann der Schwerpunkt auf dem Erwerb strategischer Ausrüstungsgegenstände an jedem Standort liegen, z. B. auf einem Notstromgenerator für sechs Hauptgeneratoren.

"Sie müssen steuerlich verantwortlich sein, wenn Sie belastbar sein wollen", erklärte Patchett. Er ist einer der Gründerväter von Hightech-Rechenzentren in der Wüste von Oregon. Bevor er bei Facebook ankam, half er Google, ein Rechenzentrum in The Dalles, Ore. Einzurichten, eines der ersten Internetunternehmen, das von der billigen Wasserkraft und dem kühlen, trockenen Wetter profitierte, die den weiten östlichen Teil von Amerikas neuntgrößtem kennzeichnen Zustand.

Für den Betrieb von Facebook ist natürlich eine ausreichende Leistung von entscheidender Bedeutung. Die Servertemperatur wird durch eine Kombination aus Wasserkühlmittel und riesigen Lüftern reguliert, die trockene Wüstenluft (unten) ansaugen, anstatt Strom und Geld zu verschlingen. Der Zieltemperaturbereich liegt zwischen 60 und 82 Grad Fahrenheit. Patchetts Team hat dieses Ziel so gut erreicht, dass Prineville jetzt einen Wirkungsgrad von 1, 07 aufweist. Dies bedeutet, dass die Kühlgeräte, Lampen und Heizungen - alles, was kein Computergerät ist - nur 7 Prozent des gesamten Energieverbrauchs der Einrichtung verbrauchen.

32 iPhones in einer Box

Der größte Teil der Kühlung und des Stroms wird zur Erfüllung der Anforderungen von Servern verwendet, einige werden jedoch in einen vergleichsweise kleinen Raum für App-Tests umgeleitet, was Auswirkungen auf die Reduzierung des Stromverbrauchs nicht nur in Prineville, sondern auf jedem Telefon mit einer Facebook-App hat.

Es ist kein Geheimnis, dass die Facebook-App mit der Energieverwaltung zu kämpfen hat. Der Guardian gab Anfang des Jahres an, dass die App die Akkulaufzeit auf iPhones um 15 Prozent verkürzt. Um die App zu optimieren und den Batterieverbrauch zu senken, brachte das Unternehmen ungefähr 2.000 iOS- und Android-Telefone nach Prineville, wo sie in Gruppen von 32 Stück in Kartons installiert wurden.

Jede Box verfügt über ein eigenes Wi-Fi-Netzwerk, das von isolierten Wänden und Kupferbändern umgeben ist, mit denen die Ingenieure in der Zentrale im Silicon Valley eine Reihe von Tests durchführen. Sie suchen nach "Regressionen" bei der Akkunutzung und Leistung, die durch Aktualisierungen der Facebook-, Instagram-, Messenger- und WhatsApp-Apps verursacht werden. Wenn sie einen in Facebooks eigenem Code finden, reparieren sie ihn. Wenn die Ineffizienz von einem Entwickler eingeführt wurde, benachrichtigt das System den Täter automatisch per E-Mail.

Die Boxen enthalten nicht nur die neuesten iPhone 6s oder Galaxy S7. Auf der iOS-Seite sind viele Modelle ab iPhone 4 enthalten. Auf der Android-Seite, wer weiß? Es genügt zu sagen, dass es einen Mann gibt, der die Aufgabe hat, obskure Android-Geräte zu finden und sie nach Prineville zu bringen.

"Wir müssen Telefone von überall beziehen", sagte Antoine Reversat, ein Ingenieur, der an der Entwicklung der Testinfrastruktur und -software mitwirkte. Sein letztendliches Ziel ist es, die Kapazität der Racks zu verdoppeln, um jeweils bis zu 62 Telefone aufnehmen zu können, und einen Weg zu finden, um die manuelle Prozedur in 20 Schritten zu reduzieren, die erforderlich ist, um das Telefon zum Testen in einem Schritt zu konfigurieren. Das sollte jeden trösten, der jemals sein Telefon sterben ließ, während er seinen Newsfeed auffrischte.

Big Sur: Facebooks KI-Gehirn

Als nächstes standen die Server für künstliche Intelligenz von Big Sur auf unserer Tour, die wie die kalifornische Küste, nach der sie benannt sind, wohl den landschaftlich schönsten Teil des Rechenzentrums ausmachen. Wir sprechen natürlich nicht von einer atemberaubenden Aussicht auf den Pazifik, sondern von einem Computerbildschirm, auf dem eine Gruppe von Gemälden zu sehen war, die von Ian Buck, Nvidias Vizepräsident für beschleunigtes Computing, bemannt wurden.

"Wir haben ein neuronales Netzwerk trainiert, um Bilder zu erkennen", erklärte Buck. "Nach ungefähr einer halben Stunde Betrachten der Bilder kann es beginnen, seine eigenen zu generieren."

Die ausgestellten Werke ähnelten dem französischen Impressionismus des 19. Jahrhunderts, hatten jedoch eine gewisse Wendung. Wenn Sie eine Kombination aus Obststillleben und Flusslandschaft wünschen, malt Big Sur diese für Sie, indem Sie die 40 Petaflops Verarbeitungsleistung pro Server biegen. Es ist eines von mehreren KI-Systemen, die Nvidia-GPUs verwenden - in diesem Fall PCI.e-basierte Tesla M40-Prozessoren -, um komplexe Probleme beim maschinellen Lernen zu lösen. Das DeepMind-Gesundheitsprojekt von Google verwendet auch Nvidias Prozessoren.

Facebook verwendet Big Sur unter anderem, um Geschichten zu lesen, Gesichter in Fotos zu identifizieren, Fragen zu Szenen zu beantworten, Spiele zu spielen und Routinen zu lernen. Es ist auch Open-Sourcing der Software und bietet anderen Entwicklern eine Anleitung zum Einrichten einer eigenen AI-spezifischen Infrastruktur. Die Hardware umfasst acht Tesla M40-GPU-Boards mit jeweils bis zu 33 Watt. Alle Komponenten sind in einer Serverschublade leicht zugänglich, um Upgrades zu vereinfachen. Dies wird mit Sicherheit der Fall sein, wenn Nvidia neue PCI.e-Versionen seiner Tesla-GPUs, einschließlich des Flaggschiffs P100, herausbringt.

Kühlraum für vergessene Fotos

Da Prineville das erste Rechenzentrum von Facebook ist, testen Ingenieure hier häufig Ideen, um die Server von Facebook effizienter zu machen. Eine der neuesten Ideen ist Cold Storage oder dedizierte Server, auf denen alles auf Facebook gespeichert ist, was nicht sehr häufig angezeigt wird - beispielsweise Ihre Abschlussballfotos oder die Dutzende von Statusaktualisierungen, die Sie anlässlich des Todes von Michael Jackson im Jahr 2009 veröffentlicht haben.

Das Erfolgsgeheimnis von Kühlhäusern sind die verschiedenen Ebenen. Die erste Ebene besteht aus leistungsstarker Unternehmenshardware, während niedrigere Ebenen billigere Komponenten verwenden, und in einigen Fällen - möglicherweise für Fotos von Ihnen mit geschweiften Klammern, von denen Sie hoffen, dass sie niemand sieht - Sicherungsbibliotheken sichern. Das Endergebnis ist, dass jedes Kältespeicher-Server-Rack 2 Petabyte Speicherplatz aufnehmen kann, oder das Äquivalent von 4.000 Penny-Stapeln, die bis zum Mond reichen.

Bauen für die Zukunft

Obwohl Facebook Prineville schnellere Internet- und andere Vorteile gebracht hat, darunter mehr als 1 Million US-Dollar an Spenden an lokale Schulen und Wohltätigkeitsorganisationen, ist seine Präsenz nicht unumstritten. Oregon gibt eine Menge Geld für Steuervergünstigungen an das Unternehmen auf, zu einer Zeit, in der die lokale Wirtschaft, die immer noch von der Immobilienblase von 2008 zittert, hinter dem nationalen Durchschnitt zurückbleibt.

Dennoch hätten 1, 65 Milliarden Menschen ohne diesen Wüstenaußenposten und seine Schwester-Datenzentren keinen Zugang zu Facebook. Und auch wenn das vierte Prineville-Gebäude fertiggestellt wird, ist das Unternehmen auf dem besten Weg, ein fünftes Zentrum in Texas fertigzustellen. Aber wenn Sie sich dadurch schuldig fühlen, welche Energie Ihr Facebook-Browsing verbraucht, sollte dies nicht der Fall sein. Laut Patchett verbraucht ein einzelner Nutzer, der ein ganzes Jahr lang auf Facebook surft, weniger Energie, als für die Herstellung einer Latte erforderlich ist. Mit anderen Worten, Sie können auf nur eine Reise nach Starbucks verzichten und nach Herzenslust durch Ihren Newsfeed scrollen.

Wie diese massive Struktur in der Wüste von Oregon Facebook am Laufen hält