Was ist verteiltes Cloud-Computing?

Verteiltes Cloud-Computing ist die Verteilung von Public-Cloud-Services über mehrere geografische Standorte hinweg. In verteilten Clouds bleiben der Betrieb und die Governance— sowie Updates — weiterhin im Zuständigkeitsbereich des primären Public-Cloud-Anbieters.

Diagramm für verteiltes Cloud-Computing

Beim verteilten Computing ist die Rechenlast auf mehrere verbundene Server verteilt. Verteiltes Cloud-Computing verwendet das Cloud-Computing-Modell und verteilt es an verschiedene geografische Standorte im Netzwerk. Es wird eine Ausführungsumgebung geschaffen, in der Anwendungskomponenten bestimmte geografische Standorte betrachten, die auf der Grundlage der Anwendungsanforderungen ausgewählt werden. Einige Anwendungsvoraussetzungen sind:

Standort: Verbesserung der Reaktionsfähigkeit und Leistung bei der Bereitstellung von Anwendungen, insbesondere bei Anwendungen, bei denen die Latenz kritisch ist und sich die Übertragung von Massendaten in eine einzige Cloud als teure Angelegenheit erweist.

Regulatorisch: Es gibt einige Länder, in denen Vorschriften vorschreiben, dass Daten das Land nicht verlassen dürfen. Verteiltes Cloud-Computing hilft in solchen Fällen.

Sicherheit und Kontrolle von Daten: Zur Sicherstellung, dass ein Unternehmen bestimmte, in seiner Private Cloud vorhandenen Daten und Prozesse in seiner integrierten Public Cloud zu speichern.

Redundanz: Bereitstellung von Redundanz, die über die lokale, regionale und nationale Redundanz hinausgeht und zur Minderung umfangreicher Ausfälle beiträgt.

Beachten Sie, dass unabhängig vom Anwendungsfall ein verteiltes Modell impliziert, dass Anwendungen über mehrere Computerregionen und Domänen hinweg miteinander verbunden werden müssen. Daher muss die Integration eine Schlüsselkomponente einer Strategie für verteiltes Rechnen sein.

Software zum verteilten Cloud-Computing
Testen Sie TIBCO Cloud Integration - Kostenlose Testversion
Mit TIBCO Cloud Integration können Sie Ihr Unternehmen durch eine einfachere und schnellere API-geführte Integration stärken. Das ist Integration — ganz einfach.

Ähnliche Computersysteme

Fog- und Edge Computing können als Erweiterungen des verteilten Cloud-Computing verstanden werden.

Mit Edge Computing werden Daten in der Nähe des Generierungspunkts erhoben und verarbeitet. Dies geschieht mit Edge-Geräten (Geräten, die als Einstiegspunkt in Unternehmensnetzwerke dienen). Anwendungen, die eine geringe Latenz und einen hohen Durchsatz erfordern, profitieren stark von Edge Computing.

Fog Computing ist eine Form der Informationstechnologie-Architektur, die Edge-Geräte für Berechnung, Speicherung und Kommunikation nutzt — alles lokal und über das Internet.

Sowohl Edge- als auch Fog-Computing können als Erweiterungen des verteilten Cloud Computing betrachtet werden. Die beiden Formen fungieren als Miniatur-Rechenzentren, werden als Speicher verwendet und können zur Verbindung mit größeren Cloud-Rechenzentren für Big-Data-Analysen und -Speicher verwendet werden.

So funktioniert verteiltes Cloud-Computing

Im Grunde sind Cloud Computing und verteiltes Cloud-Computing dasselbe. Verteiltes Cloud-Computing erweitert Cloud Computing jedoch über alle Regionen hinweg. Verteiltes Cloud-Computing teilt eine Aufgabe auf mehrere Computer an verschiedenen Standorten auf, die alle miteinander vernetzt sind. Jeder Computer erledigt einen Aspekt der Aufgabe, sodass die Aufgabe schneller abgeschlossen werden kann.

Cloud-Computing kann dabei helfen, indem es Remote-Netzwerkzugriff auf Hardware und Software ermöglicht. Das bietet Vorteile wie gemeinsame Nutzung von Ressourcen, Skalierbarkeit, Kostensenkungen und Plattformunabhängigkeit. Verteiltes Cloud-Computing ist jedoch ein Netzwerk, in dem mehrere Computer zusammenarbeiten, um ein Endziel zu erreichen. Jeder Computer in diesem Netzwerk führt einen Teil der Gesamtaufgabe aus.

Beim Cloud-Computing wird auf alle notwendigen Ressourcen zugegriffen, die über das Internet bereitgestellt werden. Das verteilte Cloud-Computing nutzt die Ressourcen mehrerer Systeme gemeinsam über ein Netzwerk. Beide Rechenmodelle bieten eine Reihe einzigartiger Vorteile.

Benutzer von verteiltem Cloud-Computing können zusätzliche Funktionen nutzen, die sie erwerben können. Zu diesen Funktionen können Einrichtungen gehören, mit denen Daten in einer bestimmten Region verbleiben, oder die Festlegung von Leistungszielen für Latenz und Durchsatz. Die Verantwortung für die Bereitstellung der für diese Funktion erforderlichen Infrastruktur liegt beim Serviceprovider. Die meisten großen Anbieter von verteilten Cloud-Services verfügen über Technologien, die sie entwickelt haben, um bei spezifischen Kundenanfragen behilflich zu sein und dabei Transparenz zu gewährleisten.

Verteiltes Cloud-Computing ist ein Trend, der hauptsächlich darauf abzielt, die Funktionsweise von Unternehmen zu verbessern. Einfach ausgedrückt: Verteiltes Cloud-Computing ist der Weg in die Zukunft.

Anwendungsfälle für verteiltes Cloud-Computing

Intelligenter Transport

Autonom angetriebene Langstrecken-Lkw können Daten verarbeiten, die sie vom Armaturenbrett und den Straßensensoren erhalten. Diese Informationen werden verarbeitet, um dem Fahrzeug zu helfen, die Reisegeschwindigkeit beizubehalten und sichere Abstände zwischen anderen Fahrzeugen auf der Straße zu gewährleisten. Gleichzeitig sendet das Fahrzeug Informationen zu Leistung und Motordaten an die Haupt-Cloud zurück. Die Route des Fahrzeugs kann von jeder Flottenmanagement-Anwendung überwacht werden, die in der Cloud bestimmter geografischer Standorte platziert wird.

Intelligentes Caching

Ein bestimmter Over-the-Top-Videodienstanbieter (OTT) verwendet eine zentrale Cloud, um Videos für die Verwendung auf einer Reihe von Geräten über mehrere Netzwerke zu transkodieren und zu formatieren. Der gesamte Inhalt wird in verschiedenen Formaten zwischengespeichert. Wenn zu erwarten ist, dass eine hohe Anzahl Nutzer eine Folge oder Staffel abrufen wird, platziert das System die Serie in einem Cache, der dem Endbenutzer am nächsten ist. Ein Beispiel hierfür wäre die Erhöhung des Speichers auf Servern in Wohngebieten oder an 5G-Stationen in dicht besiedelten urbanen Zentren, um die das Streaming nahtlos zu gestalten.

Vorteile von verteiltem Computing

Hier sehen Sie die Vorteile der Verteilung von Cloud-Computing:

Ideal für Skalierbarkeit und modulares Wachstum

Da verteiltes Cloud-Computing auf mehreren Maschinen funktioniert, kann es horizontal skaliert werden. Anstatt ein System mehrmals zu aktualisieren, um höhere Lasten zu bewältigen, kann einfach eine andere Maschine hinzugefügt werden, um die Belastung zu verringern. Es gibt keine Begrenzung, wie oft diese Ergänzung durchgeführt werden kann. Bei hohen Lasten können alle angeschlossenen Maschinen mit voller Kapazität arbeiten, und wenn die Last reduziert wird, können Maschinen, die nicht benötigt werden, offline geschaltet werden.

Höhere Fehlertoleranz und bessere Zuverlässigkeit

Verteilte Systeme sind von Natur aus viel fehlertoleranter als einzelne Maschinen. Wenn ein Unternehmen mit 20 Maschinen an fünf Standorten betrieben wird, wird die Arbeit nicht ins Stocken geraten, wenn einer oder sogar zwei der Standorte mit Ausfallzeiten konfrontiert sind. Die Zuverlässigkeit ist daher viel höher. Wenn ein Standort mit Ausfallzeiten konfrontiert ist, steigt der Leistungsbedarf der anderen Zentren automatisch an, sodass kein Einbruch auftritt.

Niedrige Latenz

Benutzer des verteilten Cloud-Computing-Netzwerks werden feststellen, dass ihr Datenverkehr den Standortknoten erreicht, der dem Punkt der Datengenerierung am nächsten ist. Dies führt zu einer geringeren Latenz und einer verbesserten Leistung. Der einzige Nachteil dabei ist, dass das System so konzipiert sein muss, dass es auf mehreren Knoten gleichzeitig ausgeführt werden kann. Diese Funktion ist komplex und erhöht die Kosten des Services für das Unternehmen erheblich.

Wirtschaftlichkeit

Die Investition in verteiltes Cloud-Computing ist viel höher als bei der Einrichtung eigenständiger Systeme. Dies gilt jedoch nur für einen bestimmten Punkt, anschließend wandelt es zu einem Service, der auf Skaleneffekten basiert. Langfristig sind sie viel budgetfreundlicher als große zentralisierte Systeme.

Effizienz

Das verteilte Cloud-System übernimmt große komplexe Daten oder Probleme und teilt sie in kleinere Stücke auf, wodurch die Verarbeitung parallel auf mehrere Computer verteilt wird. Dies reduziert den Zeitaufwand für die Erledigung der anstehenden Aufgabe und erhöht die Effizienz.

Nachteile von verteiltem Cloud-Computing

Jedes System hat Vor- und Nachteile. Hier ist ein Blick auf die Nachteile von verteiltem Cloud-Computing:

Komplexe Implementierung

In Anbetracht der Art der Arbeit, die sie leisten, sind verteilte Rechensysteme im Vergleich zu zentralisierteren Systemen komplex in der Bereitstellung sowie Wartung und Fehlerbehebung. Diese erhöhte Komplexität hängt nicht nur mit der Hardware zusammen, sondern auch mit der Software, die für Sicherheitsaspekte und Kommunikation benötigt wird.

Höhere Investition

Wie bereits erwähnt, können Investitionen in ein verteiltes Cloud-Computing-System anfänglich relativ hoch sein. Das Hinzufügen von Services und Kapazitäten für eine erhöhte Verarbeitung bei Bedarf und für die Abwicklung der Datenübertragung kann die Anfangskosten erheblich erhöhen.

Whitepaper zum verteilten Cloud-Computing
10 Gründe, warum TIBCO bei der Verbindung moderner Anwendungsarchitekturen führend ist
Ihre Anwendungsarchitektur muss sich weiterentwickeln. Hier finden Sie 10 wichtige Gründe, sich für TIBCO zu entscheiden, um Hife zu erhalten.

Sicherheitsbedenken

Die Sicherheit von Daten in zentralisierten Systemen ist weitaus einfacher als bei verteilten Systemen. Das gesamte Netzwerk muss gesichert werden, und die Benutzer müssen außerdem die vollständige Kontrolle über replizierte Daten an verschiedenen Standorten haben.

Wenn es um Großprojekte geht, verbessert die verteilte Datenverarbeitung die Leistung und bringt die Leistungsfähigkeit mehrerer Maschinen mit sich. Sie ist ein skalierbares Modell und wächst entsprechend den Anforderungen der Arbeitslast, die sie übernimmt. Sie mag einige Nachteile haben, aber Skalierbarkeit, bessere Leistung und höhere Zuverlässigkeit geben den Ausschlag, wenn es um große Workloads und Big Data geht.