Was ist Data Fabric?

Data Fabric ist eine durchgängige Lösung der Datenintegration und des Datenmanagements, die aus Architektur, Software für das Datenmanagement, Integrationssoftware und gemeinsam genutzten Daten besteht, mit der Unternehmen ihre Daten verwalten können. Eine Data Fabric bietet eine einheitliche, konsistente Benutzererfahrung und Datenzugriff für jedes Mitglied eines Unternehmens weltweit und in Echtzeit.

Data-Fabric-Diagramm

Data Fabric wurde entwickelt, um Unternehmen bei der Lösung komplexer Datenprobleme und Anwendungsfälle zu unterstützen, indem sie ihre Daten unabhängig von den verschiedenen Arten von Anwendungen, Plattformen und Standorten, an denen die Daten gespeichert sind, verwalten. Data Fabric ermöglicht einen reibungslosen Zugriff und Datenaustausch in einer verteilten Datenumgebung.

Warum eine Data Fabric verwenden?

Jedes datenorientierte Unternehmen benötigt einen ganzheitlichen Ansatz, der die Hürden von Zeit, Raum, verschiedenen Softwaretypen und Datenstandorten überwindet. Die Daten müssen für die Benutzer, die sie benötigen, zugänglich sein und dürfen nicht hinter Firewalls oder an verschiedenen Orten verstreut liegen. Unternehmen benötigen eine sichere, effiziente, einheitliche Umgebung und eine zukunftssichere Datenlösung, um erfolgreich zu sein. Eine Data Fabric bietet das alles.

Die traditionelle Datenintegration erfüllt die modernen Geschäftsanforderungen an Echtzeitkonnektivität, Self-Service, Automatisierung und universelle Transformationen nicht mehr. Obwohl die Erhebung von Daten aus verschiedenen Quellen normalerweise kein Problem darstellt, können sie viele Unternehmen Daten nicht in andere Quellen integrieren, verarbeiten, kuratieren und transformieren. Dieser entscheidende Teil des Datenmanagementprozesses muss stattfinden, um einen umfassenden Überblick über Kunden, Partner und Produkte zu erhalten. Er verschafft Unternehmen einen Wettbewerbsvorteil und ermöglicht ihnen, die Anforderungen ihrer Kunden besser zu erfüllen, ihre Systeme zu modernisieren und die Leistungsfähigkeit des Cloud Computing zu nutzen.

Data Fabric kann als Stoff visualisiert werden, der auf der ganzen Welt ausgebreitet ist, wo auch immer sich die Benutzer des Unternehmens befinden. Der Benutzer kann sich an jedem Ort in dieser Fabric befinden und trotzdem ohne Einschränkungen in Echtzeit auf Daten an jedem anderen Ort zugreifen.

Data-Fabric-Ressource
Suchen Sie nach einer Lösung für Ihre Datenherausforderungen? Entwickeln Sie eine Data Fabric!
Erfahren Sie im neuesten E-Book von O'Reilly, wie Sie alle Ihre Daten vereinheitlichen, die IT an Ihr Geschäft anpassen sowie Fern- und mobile Mitarbeiter unterstützen können!

Data Fabric ist mehr als nur ein Netzwerk

Das Internet wurde geschaffen, um Menschen auf der ganzen Welt miteinander zu verbinden und ihnen die Möglichkeit zu geben, die Hürden von Zeit und Entfernung zu vergessen. Anfangs wurden nur die Menschen miteinander verbunden, die Übertragung quantifizierter Daten war minimal. Heute haben die Aktivitäten auf digitalen Plattformen die ursprünglichen Prognosen übertroffen und Daten sind zu einer eigenen Welt geworden. Jede Aktivität, die entweder online oder im realen Leben quantitativ ist, kann als Datenbereitstellung eingestuft werden. Da diese Daten sprunghaft wachsen, ist eine geeignete Infrastruktur für ihr Management erforderlich.

Zuvor bestand das Ziel darin, Daten zu verwalten und als Bonus Erkenntnisse daraus zu gewinnen. Im Laufe der Zeit verlagerte sich der Schwerpunkt von der einfachen Verwaltung der Daten zur Gewinnung von Erkenntnissen aus diesen Daten. Mit einer Data Fabric verlagert sich der Schwerpunkt von der einfachen Verwaltung der Daten zur Verbesserung der Qualität der Daten selbst, der Verfügbarkeit der Informationen und der daraus abgeleiteten automatisierten Erkenntnisse.

Warum eine Data Fabric verwenden?

Weltweit steigt die Zahl der Interessengruppen, die in die vernetzte Umgebung eintreten. Alle sind mit dem Internet verbunden und alle Plattformen sind zu einer Datenquelle geworden. Die Maximierung des Datenwerts hat sich als komplexes Problem erwiesen. Zu den Herausforderungen der heutigen Daten gehören:

  • Sie befinden sich an mehreren lokalen und Cloud-Standorten
  • Sie sind strukturiert und unstrukturiert
  • Es handelt sich um verschiedene Datentypen
  • Die Plattform-Landschaften sind uneinheitlich
  • Sie werden auf verschiedenen Dateisystemen, Datenbanken und SaaS-Anwendungen verwaltet

Die Daten wachsen exponentiell, diese Probleme vervielfachen sich also.

Zusammengenommen machen diese Probleme und Variationen den einfachen Zugriff auf oder die Verwendung von Daten komplex. Und wenn Unternehmen KI und ML produzieren oder operationalisieren möchten, müssen ihre Daten gesammelt, transformiert und verarbeitet werden.

Heute neigen die meisten Unternehmen dazu, das Problem in Silos zu lösen und intern viele verschiedene Möglichkeiten zur Verwaltung der Daten zu schaffen. Obwohl diese Lösung die Daten bestimmten Gruppen zur Verfügung stellt, wird der unternehmensweite Zugriff darauf nahezu unmöglich, sodass die Daten häufig inaktiv und ungenutzt bleiben.

Mangelnder umfassender Datenzugang und mangelnde Datennutzung führen zu einer geringen Rentabilität der Investitionen in die Infrastruktur, zur Nichtverfügbarkeit der Daten zur Erstellung nützlicher Prognosen und zu einer geringeren Produktivität. Hier kann Data Fabric die Rettung sein.

Data Fabric verglichen mit dem Status quo

Aktuell verwenden viele Organisationen Data Lakes und Data Warehouses für die Datenverwaltung. Bei näherer Betrachtung sind diese Ansätze jedoch eher technologieintensiv als datenorientiert. Bei Data Lakes und Data Warehouses liegt der Schwerpunkt darauf, die Rohdaten zu sammeln oder zu extrahieren, zu speichern und zu verwenden, wenn Erkenntnisse abgeleitet werden. Diese Lösungen wurden nicht mit Blick auf die heutigen Probleme entwickelt und erschweren eine einheitliche Sicht auf die Daten. Diese Techniken führen jedoch häufig zu Latenzen und steigenden Kosten. Angesichts der wachsenden Datenmenge und der zeitlichen Einschränkungen, mit denen die Entscheidungsträger einer Organisation arbeiten, sind Verzögerungen beim Datenzugriff und der Datenverarbeitung nicht erwünscht. In solchen Szenarien bietet Data Fabric den Vorteil, Daten am Quellpunkt in Echtzeit zu speichern, zu extrahieren und zu verarbeiten, sodass Entscheidungsträger unterwegs Erkenntnisse ableiten können.

Data Fabric im Vergleich zur Datenvirtualisierung

Data Fabric wird oft mit Datenvirtualisierung verwechselt. Bei der Datenvirtualisierung wird eine Datenabstraktionsschicht erstellt und häufig verwendet, wenn Sie Daten schnell integrieren müssen. Sie verbindet, sammelt und transformiert Daten aus vielen verschiedenen Quellen, ob lokal oder in der Cloud, für agile, Self-Service- und Echtzeiteinblicke. Andererseits bezieht sich Data Fabric auf eine übergreifende durchgehende Datenverwaltungsarchitektur, die für breitere Anwendungsfälle wie Kundenintelligenz und IoT-Analytik verwendet wird, einschließlich eines größeren Satzes von Stack-Komponenten. Analysten empfehlen, die Datenvirtualisierung als ein Tool einzusetzen, das zu Ihrer Data-Fabric-Architektur beiträgt. Wenn Sie immer mehr Datenintegrationstools verwenden, können Sie Ihre Lösung zu einer Data Fabric ausbauen, die speziell auf die Ziele Ihres Unternehmens zugeschnitten ist.

Implementierung von Data Fabric

Data Fabric beginnt mit Konzepten der Online-Transaktionsverarbeitung (OLTP). Bei der Online-Transaktionsverarbeitung werden detaillierte Informationen zu allen Transaktionen eingefügt, aktualisiert und in eine Datenbank hochgeladen. Die Daten werden strukturiert, bereinigt und in Silos in einem Zentrum zur weiteren Verwendung gespeichert. Jeder Benutzer der Daten kann an jedem Punkt der Struktur die Rohdaten verwenden, um mehrere Ergebnisse abzuleiten, sodass Unternehmen ihre Daten für Wachstum, Anpassung und Verbesserung nutzen können.

Eine erfolgreiche Implementierung von Data Fabric erfordert:

  • Anwendung und Services: Wo die notwendige Infrastruktur für die Datenerfassung aufgebaut ist. Dazu gehört die Entwicklung von Apps und grafischen Benutzerschnittstellen (GUIs), über die der Kunde mit dem Unternehmen interagieren kann.
  • Entwicklung und Integration von Ökosystemen: Schaffung des notwendigen Ökosystems zur Erfassung, Verwaltung und Speicherung der Daten. Die Daten vom Kunden müssen ohne Datenverlust an den Datenmanager und die Speichersysteme übertragen werden.
  • Sicherheit: Die aus allen Quellen gesammelten Daten müssen mit angemessener Sicherheit verwaltet werden.
  • Speichermanagement: Die Daten werden auf zugängliche und effiziente Weise gespeichert und können bei Bedarf skaliert werden.
  • Transport: Aufbau der erforderlichen Infrastruktur für den Zugriff auf die Daten von jedem Punkt an den geografischen Standorten des Unternehmens.
  • Endpunkte: Entwicklung der softwaredefinierten Infrastruktur an den Speicher- und Zugriffspunkten, um Erkenntnisse in Echtzeit zu ermöglichen.
Zehn Dinge, die Sie über Daten-Virtualisierung wissen müssen
Zehn Dinge, die Sie über Daten-Virtualisierung wissen müssen
Lernen Sie die Kernwahrheiten der Datenvirtualisierung kennen, damit Sie Datenengpässe überwinden und bessere Ergebnisse erzielen können

Wie funktioniert künstliche Intelligenz oder maschinelles Lernen mit Data Fabric?

In den Anfangsphasen der Datenspeicherung versuchten Dateningenieure und Data Scientists, die Punkte in Daten zu verbinden, um Muster zu finden. Sie stellten fest, dass sie mit traditionellen Datenintegrationstechniken die meiste Zeit in der Datenlogistik verbrachten, anstatt etwas über die Daten zu lernen. Das ist nicht nachhaltig, wenn Erkenntnisse schneller bereitgestellt werden sollen.

Eine Data Fabric ist im Wesentlichen eine Datenbetriebsebene, die nicht nur alle Daten zusammenführt, sondern sie mithilfe von maschinellem Lernen transformiert und verarbeitet, um Muster zu erkennen und Erkenntnisse bereitzustellen. Ohne eine Data Fabric muss all dies in jeder einzelnen Anwendung und zu Lasten der Nachhaltigkeit der Lösung geschehen.

Eine Data Fabric kann Daten automatisch und auf nachhaltigem Niveau aufbereiten, um die Anforderungen von KI und ML zu erfüllen. Maschinelles Lernen kann die Daten und Erkenntnisse proaktiv liefern und Entscheidungsträgern helfen, bessere Erkenntnisse und aktuellere Informationen zu erhalten. Die wünschenswerten Ergebnisse liegen darin, verborgene Fakten in den Daten zu erkennen, ohne sie speziell zu suchen oder anzufordern, wenn Lösungen für Probleme oder geschäftliche Erkenntnisse gefunden werden.

Risiken der Data Fabric

Ein zunehmendes Problem für Unternehmen ist die Bedrohung der Datensicherheit, wenn sie in der Data Fabric von einem Punkt zum anderen transportiert wird. Es ist zwingend erforderlich, dass die Infrastruktur für den Transport von Daten Sicherheitsfirewalls und -protokolle einbettet, um den Schutz vor Sicherheitsverletzungen zu gewährleisten. Angesichts der zunehmenden Anzahl von Cyberangriffen auf Unternehmen ist die Sicherheit der Daten an allen Punkten des Datenzyklus von größter Bedeutung.

Vorteile der Data Fabric

Data Fabric eignet sich hervorragend für über mehrere geografische Standorte verteilte Unternehmen, die über mehrere Datenquellen verfügen und mit komplexen Datenproblemen oder Anwendungsfällen konfrontiert sind. Denken Sie daran, dass eine Datenstruktur keine schnelle Antwort für die Integration und Verarbeitung Ihrer Daten ist. Dafür können Sie die Datenvirtualisierung nutzen.

Mit der kontinuierlichen Weiterentwicklung der Hardwarefunktionen weitet sich die Globalisierung auf zuvor nicht verbundene Regionen aus. Angesichts steigender Verbindungsgeschwindigkeiten können Unternehmen mit den Daten von Geräten und Services überfordert sein. Während Daten seit geraumer Zeit für Erkenntnisse verwendet werden, bietet Data Fabric eine Lösung, die Folgendes umfasst:

  • ein agiles Modell, das Änderungen an Systemen ermöglicht, sich nach Bedarf anpasst und bei allen Betriebs- und Speichersysteme funktioniert
  • Skalierbarkeit mit minimalen Störungen, keine Investition in massiv teure Hardware oder hochqualifiziertes und teures Personal
  • maximale Integrität und Einhaltung von Vorschriften bei gleichzeitiger Wahrung der Zugänglichkeit und des Informationsflusses in Echtzeit

Die riesigen Datenmengen, auf die Unternehmen zugreifen können, müssen genutzt werden, um einzigartige Erkenntnisse abzuleiten. Faktoren wie Prognosen, Vertriebs- und Lieferkettenoptimierung, Marketing und Verbraucherverhalten verschaffen dem Unternehmen einen Wettbewerbsvorteil und Datenführerschaft in seinem Bereich. Durch die Ableitung von Erkenntnissen in Echtzeit kann sich das Unternehmen von den anderen abheben.