Zuhause Eigenschaften Wenn die Cloud überflutet ist, ist es Edge-Computing, zur Rettung

Wenn die Cloud überflutet ist, ist es Edge-Computing, zur Rettung

Inhaltsverzeichnis:

Video: Будущее Edge Computing (November 2024)

Video: Будущее Edge Computing (November 2024)
Anonim

Entlang der Küste des australischen Bundesstaates New South Wales (NSW) schwebt eine Flotte von Drohnen, um die Gewässer zu schützen. Anfang dieses Jahres halfen die Drohnen den Rettungsschwimmern an der fernen Nordküste des Bundesstaates, zwei Teenager zu retten, die in starker Brandung zu kämpfen hatten.

Die Drohnen werden durch künstliche Intelligenz (KI) und Bildverarbeitungsalgorithmen angetrieben, die ihre Videofeeds ständig analysieren und Objekte hervorheben, die Aufmerksamkeit erfordern, z. B. Haie oder Streuschwimmer. Diese Technologie ermöglicht es Google Fotos, Bilder zu sortieren, eine Überwachungskamera für Privatanwender, um Fremde zu erkennen, und einen intelligenten Kühlschrank, um Sie zu warnen, wenn das Verfallsdatum Ihrer verderblichen Güter fast erreicht ist.

Während diese Dienste und Geräte für ihre KI-Funktionen eine ständige Verbindung zur Cloud benötigen, können die NSW-Drohnen ihre Bilderkennungsaufgaben mit oder ohne feste Internetverbindung ausführen, dank neuronaler Rechenchips, mit denen sie vor Ort tiefgreifende Berechnungen durchführen können.

Diese Chips sind Teil eines wachsenden Trends von Edge-Computing-Innovationen, die es unseren softwarebasierten Geräten ermöglichen, zumindest einige wichtige Funktionen ohne ständige Verbindung zur Cloud auszuführen. Der Aufstieg des Edge-Computing hilft dabei, alte und neue Probleme zu lösen und den Weg für die nächste Generation intelligenter Geräte zu ebnen.

Entlastung der Cloud

In den letzten zwei Jahrzehnten hat sich die Cloud aus gutem Grund zum unverzichtbaren Hosting von Anwendungen entwickelt.

"Was die Cloud so attraktiv macht, ist, dass die Kosten für das Starten von Aktivitäten, die Sie ausführen möchten, tendenziell wegfallen", sagt Rob High, CTO von IBM Watson. "Die Cloud… ermöglicht es den Menschen,… echte Probleme heute zu lösen, ohne die Kosten für die Schaffung einer Infrastruktur in Kauf nehmen zu müssen."

Mit der allgegenwärtigen Internetverbindung und nahezu unzähligen Cloud-Anwendungen, -Diensten und -Entwicklungsplattformen haben sich die Hindernisse für die Erstellung und Bereitstellung von Anwendungen erheblich verringert. Die enormen Ressourcen von Cloud-Anbietern wie IBM, Google und Amazon haben die Entwicklung nicht nur von einfachen Geschäftsanwendungen, sondern auch von komplexer Software vorangetrieben, die einen enormen Rechen- und Speicheraufwand erfordert - KI- und maschinelle Lernalgorithmen sowie Streaming und AR (Augmented Reality) -Anwendungen.

Diese Fortschritte haben jedoch auch zu einer Herausforderung geführt: Die meisten von uns verwendeten Anwendungen funktionieren nur, wenn sie mit der Cloud verbunden sind. Dies umfasst die meisten Anwendungen, die auf Computern und Telefonen ausgeführt werden, sowie die Software in Kühlschränken, Thermostaten, Türschlössern, Überwachungskameras, Autos, Drohnen, Wettersensoren usw.

Mit dem Aufkommen des Internets der Dinge (Internet of Things, IoT) führen immer mehr Geräte Software aus und generieren Daten. Die meisten von ihnen benötigen eine Verbindung zur Cloud, um diese Daten zu speichern und zu verarbeiten. Die Menge an Energie und Bandbreite, die erforderlich ist, um diese Daten in die Cloud zu senden, ist immens, und der zum Speichern der Daten erforderliche Speicherplatz wird die Ressourcen selbst der mächtigsten Cloud-Giganten herausfordern.

"Wir sammeln in diesen Systemen eine Menge Daten, sei es am Rande oder als IoT-Gerät oder an einem anderen Ort, für den man sich fast entscheiden könnte, sich nicht darum zu kümmern", sagt High. Wenn jedoch jede Entscheidung in der Cloud getroffen werden muss, müssen alle diese Daten über das Netzwerk an Cloud-Server gesendet werden, um gesäubert und gefiltert zu werden.

High Names moderne Flugzeuge, die Hunderte von Sensoren enthalten, die Düsentriebwerke überwachen und während jedes Fluges Hunderte von Gigabyte an Status- und Leistungsdaten erfassen. "Wie viel von diesen Daten ist wirklich wichtig, wenn Sie sie über ein Aggregat analysieren möchten? Wahrscheinlich nur einen Bruchteil davon", sagt High. "Warum nicht einfach an der Quelle loswerden, wenn es für nichts anderes nötig ist, was du tust?"

Das zu tun, was High außerhalb der Cloud vermuten lässt, war bisher so gut wie unmöglich. Fortschritte bei stromsparenden, kostengünstigen System-on-Chip-Prozessoren (SoC) haben Edge-Geräten jedoch mehr Rechenleistung verliehen und sie einen Teil der Rechenlast ihrer Geräte auf sich nehmen lassen Ökosysteme, z. B. Durchführung von Echtzeitanalysen oder Filtern von Daten.

"Die Edge-Umgebung enthält so viele Daten, dass es sinnvoll ist, einige der Cloud-Computing-Funktionen in die Rechenkapazität des Edge-Geräts einzubeziehen", so High.

Datenschutzbedenken

Die Vorteile von Edge-Computing beschränken sich nicht nur auf die Freigabe von Cloud-Ressourcen.

Remi El-Ouazzane, New Technology Group und General Manager bei Movidius (Intel), nennt kommerzielle Sicherheitskameras als ein weiteres Beispiel dafür, wann Edge-Computing einen großen Unterschied machen kann. Sie sehen diese Kameras an Ampeln, auf Flughäfen und am Eingang von Gebäuden, die rund um die Uhr hochwertige Videos über das Netzwerk aufzeichnen und streamen.

"Je weniger Daten Sie in einen Server oder ein Rechenzentrum zurückholen müssen, desto mehr Scrubbing und Finessen können Sie vor Ort durchführen, desto besser sind Ihre Gesamtbetriebskosten aus Sicht der Speicherung und Übertragung", sagt El-Ouazzane.

Dies bedeutet, dass Kameras die Möglichkeit haben, ihre eigenen Video-Feeds zu analysieren, zu bestimmen, welche Frames oder Längen von Videos beachtet werden müssen, und nur diese Daten an den Server zu senden.

Wenn diese Kameras bei Ihnen zu Hause, in Ihrem Büro oder an einem privaten Ort installiert sind, wird die Verbindung zur Cloud ebenfalls zu einem potenziellen Sicherheitsrisiko. Hacker und Sicherheitsforscher konnten die Verbindung zwischen Haushaltsgeräten und ihren Cloud-Servern gefährden, um sensible Video-Feeds abzufangen. Durch das lokale Parsen der Daten muss kein Video-Conduit zwischen Ihrem Zuhause, Ihrem Privatleben und einem Dienstanbieter eingerichtet werden.

Movidius, das 2016 von Intel übernommen wurde, ist eines von mehreren Start-ups, die Computerchips für KI-Aufgaben wie Spracherkennung und Computer Vision spezialisieren. Das Unternehmen stellt Vision Processing Units (VPUs) her - Prozessoren mit geringem Stromverbrauch, die mit neuronalen Netzen arbeiten und den Kontext digitaler Bilder analysieren und "verstehen", ohne sie in die Cloud zurücksenden zu müssen.

Der Movidius Myriad 2 ist ein ständiger Bildverarbeitungsprozessor für Umgebungen mit eingeschränkter Stromversorgung.

"Wenn die Kamera die Semantik dessen versteht, worauf es ankommt, wird es sehr einfach, Regeln aufzustellen, was die Kamera kann oder nicht", sagt El-Ouazzane. "Sie müssen die nächsten 12 Stunden nicht wirklich Ihr Wohnzimmer einfangen, nur um zu wissen, dass Ihr Hund zu einem bestimmten Zeitpunkt den Teppich vor dem Sofa überquert hat."

Andere Unternehmen untersuchen die Verwendung von speziellem AI-gestütztem Edge-Computing, um die Privatsphäre der Benutzer zu schützen. Das Apple iPhone X wird zum Beispiel vom A11 Bionic-Chip mit Strom versorgt, mit dem KI-Aufgaben lokal ausgeführt werden können, sodass eine komplizierte Gesichtserkennung durchgeführt werden kann, ohne dass der Fahndungsfoto des Benutzers in die Cloud gesendet wird.

Mehr KI-Verarbeitung am Rande kann den Weg für eine dezentrale künstliche Intelligenz ebnen, bei der Benutzer weniger Daten mit großen Unternehmen teilen müssen, um KI-Anwendungen zu verwenden.

Latenz reduzieren

Ein weiteres Problem bei großen Cloud-Anbietern besteht darin, dass sich ihre Rechenzentren außerhalb von Großstädten befinden und sich Hunderte und Tausende von Kilometern von den Personen und Geräten entfernt befinden, die ihre Anwendungen verwenden.

In vielen Fällen kann die Latenz aufgrund von Daten, die in die und aus der Cloud übertragen werden, zu einer schlechten Leistung oder zu schwerwiegenden Ergebnissen führen. Dies kann eine Drohne sein, die versucht, Kollisionen zu vermeiden oder auf unebenem Boden zu landen, oder ein selbstfahrendes Auto, das versucht, zu entscheiden, ob es auf ein Hindernis oder einen Fußgänger stößt.

Movidius 'leichte Implementierung von tiefen neuronalen Netzen und Computer Vision macht seine Chips für mobile Edge-Geräte wie Drohnen geeignet, für die stromverbrauchende Hardware wie GPUs nicht machbar sind. Drohnen sind eine besonders interessante Studie, da sie einen Zugriff auf KI-Berechnungen mit geringer Latenzzeit benötigen und in Offline-Einstellungen weiterhin funktionieren müssen.

Die Gestenerkennung ist ein weiterer Bereich, in dem Edge-Computing zur Verbesserung des Drohnenerlebnisses beiträgt. "Das Ziel ist es, Drohnen für viele Menschen zugänglich zu machen, und Gesten scheinen für die Menschen eine gute Möglichkeit zu sein, sie zu verwenden. Die Latenz ist wichtig, wenn Sie die Drohne dazu bringen, eine Aufgabe auszuführen", sagt El-Ouazzane.

Für Startups wie Skylift Global, das Rettungskräften und Ersthelfern Drohnen-Dienste im Schwergewicht anbietet, kann der Zugriff auf KI- und Rechenressourcen mit geringer Latenz Geld und Leben sparen. "Dadurch werden die Kosten für die Datenaufnahme erheblich gesenkt, die Netzwerklatenz verringert, die Sicherheit erhöht und das Streaming von Daten in Entscheidungen in Echtzeit umgewandelt", sagt Amir Emadi, CEO und Gründer von Skylift.

Die Versorgung der Ersthelfer erfordert Entscheidungen in Sekundenbruchteilen. "Je mehr Zeit vergeht, zum Beispiel bei der Bekämpfung eines Waldbrands, desto kostspieliger wird es, die Situation zu verbessern. Da unsere Drohnen in der Lage sind, am Rande Entscheidungen in Echtzeit zu treffen, auch wenn sie die Konnektivität verlieren, können wir mehr sparen." Leben, Geld und Zeit ", sagt Emadi.

Andere Bereiche, die eine Echtzeitberechnung erfordern, sind Augmented- und Virtual-Reality-Anwendungen und autonome Fahrzeuge. "Dies sind alles erfahrungsbasierte Computerumgebungen. Sie werden sich um die Menschen drehen", sagt Zachary Smith, CEO von Packet, einem in New York ansässigen Startup, das den Entwicklern den Zugriff auf hochgradig verteilte Hardware ermöglicht.

Eine AR- oder VR-Anwendung, die mit den Bewegungen des Benutzers nicht Schritt halten kann, verursacht entweder Schwindel oder verhindert, dass die Erfahrung eindringlich und real wird. Und die Latenz wird ein noch größeres Problem sein, wenn selbstfahrende Autos, die stark auf Computer Vision und Algorithmen für maschinelles Lernen angewiesen sind, zum Mainstream werden.

"Eine Wartezeit von 30 Millisekunden ist für das Laden Ihrer Webseite nicht wichtig, aber es ist wirklich wichtig, dass ein Auto mit 60 Meilen pro Stunde entscheidet, ob es nach links oder rechts abbiegt, um nicht gegen ein kleines Mädchen zu stoßen", sagt Smith.

Den Herausforderungen der Kante begegnen

Trotz der Notwendigkeit, das Rechnen näher an den Rand zu bringen, ist der Einbau spezialisierter Hardware in jedes Gerät möglicherweise nicht die endgültige Antwort, räumt Smith ein. "Warum nicht einfach alle Computer ins Auto stecken? Ich denke, das hängt wirklich mit der Entwicklung zusammen, wie schnell man den Lebenszyklus davon steuern kann", sagt er.

"Wenn Sie Hardware in die Welt setzen, bleibt sie in der Regel fünf bis zehn Jahre lang dort", sagt Smith, während sich die Technologie für diese erfahrungsbasierten Anwendungsfälle alle sechs bis zwölf Monate weiterentwickelt.

Selbst sehr große Unternehmen mit komplizierten Lieferketten haben oft Probleme, ihre Hardware zu aktualisieren. Im Jahr 2015 musste Fiat Chrysler 1, 4 Millionen Fahrzeuge zurückrufen, um eine Sicherheitslücke zu schließen, die vor fünf Jahren aufgedeckt worden war. Und der riesige Chiphersteller Intel ist immer noch bemüht, sich mit einem Designfehler auseinanderzusetzen, der Hacker auf Hunderte Millionen von Geräten aufmerksam macht.

Movidius 'El-Ouazzane erkennt diese Herausforderungen an. "Wir wissen, dass wir jedes Jahr eine Reihe von Produkten ändern müssen, weil wir jedes Jahr mehr Informationen an den Rand bringen und unsere Kunden um ein Upgrade bitten", sagt er.

Um ständige Rückrufe zu vermeiden und Kunden die Möglichkeit zu geben, ihre Edge-Hardware langfristig zu nutzen, bietet Movidius seinen Prozessoren zusätzliche Ressourcen und Kapazitäten. "Wir brauchen die Fähigkeit für die nächsten Jahre, Upgrades an diesen Produkten durchzuführen", sagt El-Ouazzane.

Packet, Smiths Unternehmen, verfolgt einen anderen Ansatz: Es werden Mikrodatenzentren erstellt, die in Städten und näher an den Benutzern bereitgestellt werden können. Das Unternehmen kann Entwicklern dann Rechenressourcen mit sehr geringer Latenz zur Verfügung stellen - so nah wie möglich an den Benutzern, ohne dass die tatsächliche Hardware an den Rand gedrängt wird.

"Wir glauben, dass ein Mechanismus für die Bereitstellung von Infrastrukturen erforderlich sein wird, um Hardware bereitzustellen, auf die Entwickler in jeder Stadt der Welt zugreifen können", sagt Smith. Das Unternehmen ist bereits an 15 Standorten tätig und plant eine Expansion in Hunderte von Städten.

Die Ambitionen von Packet gehen jedoch über die Schaffung von Miniaturversionen der weitläufigen Einrichtungen von Google und Amazon hinaus. Wie Smith erklärt, ist die Bereitstellung und Aktualisierung spezialisierter Hardware mit der öffentlichen Cloud nicht möglich. Im Geschäftsmodell von Packet setzen Hersteller und Entwickler spezielle Hardware in den Edge-Rechenzentren des Unternehmens ein, um diese bei Bedarf schnell zu aktualisieren und zu aktualisieren und gleichzeitig sicherzustellen, dass ihre Benutzer superschnellen Zugriff auf Computerressourcen erhalten.

Hatch, einer der Kunden von Packet, ist ein Spin-off von Rovio, dem Unternehmen für mobile Spiele, das Angry Birds gegründet hat. Das Unternehmen führt Android auf Edge-Computing-Servern aus, um Benutzern mit Low-End-Android-Geräten Streaming-Dienste für Multiplayer-Spiele mit geringer Latenz bereitzustellen.

"Er benötigt in all diesen Märkten auf der ganzen Welt ziemlich spezialisierte ARM-Server", sagt Smith. "Sie haben angepasste Konfigurationen unseres Server-Angebots und wir verteilen es auf acht globale Märkte in ganz Europa. Bald werden es 20 oder 25 Märkte sein. Für sie fühlt es sich wie Amazon an, aber sie können angepasste Hardware in jedem Markt in Europa betreiben."

Theoretisch könnte Hatch in der Public Cloud dasselbe tun, aber die Kosten würden es zu einem ineffizienten Geschäft machen. "Der Unterschied besteht darin, dass 100 Benutzer pro CPU und 10.000 Benutzer pro CPU eingesetzt werden", sagt Smith.

Smith glaubt, dass dieses Modell die Entwicklergeneration ansprechen wird, die die nächsten Software-Innovationen vorantreiben wird. "Wir konzentrieren uns darauf, wie wir die Softwaregeneration, die in der Cloud aufgewachsen ist, mit speziellen Hardwareprimitiven verbinden können", sagt Smith. "Wir sprechen über Benutzer, die nicht einmal ihr MacBook öffnen können, um hineinzuschauen, und das ist die Person, die Innovationen auf dem Hardware- / Software-Stack vornehmen wird."

Werden sich die Wolken auflösen?

Befindet sich die Zukunft der Cloud in Gefahr, da Edge-Geräte in der Lage sind, komplizierte Rechenaufgaben auszuführen?

"Für mich ist Edge-Computing eine natürliche und logische Weiterentwicklung des Cloud-Computing", sagt IBM Watsons High.

Tatsächlich hat IBM 2016 eine Reihe von Tools eingeführt, mit denen Entwickler Aufgaben nahtlos zwischen Edge und Cloud verteilen können, insbesondere in IoT-Ökosystemen, in denen Edge-Geräte bereits viele Daten über ihre unmittelbare Umgebung sammeln. Ende 2016 kündigte Amazon Web Services, eine weitere wichtige Cloud-Entwicklungsplattform, Greengrass an, einen Dienst, mit dem IoT-Entwickler Teile ihrer Cloud-Anwendungen auf ihren Edge-Geräten ausführen können.

Nichts davon bedeutet, dass die Wolke verschwindet. "Es gibt nur eine Menge Dinge, die in der Cloud besser erledigt werden können, auch wenn noch viel am Rande gearbeitet wird", sagt High. Dies umfasst Aufgaben wie das Aggregieren von Daten aus vielen verschiedenen Quellen und das Ausführen umfangreicher Analysen mit großen Datenmengen.

"Wenn wir Modelle in den KI-Algorithmen erstellen müssen, die wir in diesen Edge-Geräten verwenden, ist das Erstellen und Trainieren dieser Modelle immer noch ein sehr umfangreiches rechenintensives Problem und erfordert häufig Rechenleistung, die die auf diesen Edge-Geräten verfügbaren Kapazitäten bei weitem übersteigt." sagt.

El-Ouzzane stimmt zu. "Die Möglichkeit, KI-Modelle vor Ort zu trainieren, ist äußerst begrenzt", sagt er. "Vom Standpunkt des tiefen Lernens aus hat das Training nur einen Platz und befindet sich in der Cloud, wo Sie genügend Rechenressourcen und ausreichend Speicherplatz erhalten, um mit großen Datenmengen umgehen zu können."

El-Ouazzane stellt auch Anwendungsfälle bereit, in denen Edge-Geräte mit geschäftskritischen und zeitkritischen Aufgaben belegt werden, während die Cloud die fortschrittlicheren Inferenzen verwaltet, die nicht von der Latenz abhängig sind. "Wir leben in einer Welt der Kontinuität zwischen Wolke und Rand."

"Es gibt eine sehr symbiotische und synergetische Beziehung zwischen Edge-Computing und Cloud-Computing", sagt High.

Wenn die Cloud überflutet ist, ist es Edge-Computing, zur Rettung