Consulting
Lesezeit

Datenintegration: So führen Sie Ihr Projekt in 5 Schritten zum Erfolg

datenintegration-planen_header.jpg

Unser Tool für Datenintegration verbindet Funktionen aus dem Bereich Datenqualität und Data Integration zu einer umfassenden Lösung für Datenmigrations-, Data Warehousing, Master Data Management und Datenqualitätsprojekte.


Uniserv Datenintegration bietet Ihnen zahlreiche Konnektoren für den direkten lesenden und schreibenden Zugriff auf Datenbanken, Applikationen und Dateien sowie einen benutzerfreundlichen grafischen Editor für die Definition Ihrer Datenflüsse, Transformationsfunktionen und Konnektoren zu den bewährten Uniserv Datenqualitätswerkzeugen. Das Ganze integrieren Sie einfach per Drag & Drop in Ihre Prozesse. Damit implementieren Sie spielend leicht komplexe Abläufe in Ihren Projekten in den Bereichen Datenmigration, Datenintegration sowie Data Quality.
 

Automatisierte Abläufe für die Datenintegration durch integrierte Workbench


Zentraler Bestandteil des Tools zur Datenintegration ist eine integrierte Workbench, die den Benutzer ideal bei der Definition von automatisierten Abläufen im Bereich Data Management unterstützt. Mit Hilfe der grafischen Oberfläche:
 

  • Extrahieren Sie die beschreibenden Metadaten aus den Quell- und Zielsystemen.
  • Fügen Sie mittels Drag & Drop die einzelnen Verarbeitungsschritte in den Ablauf ein und verknüpfen diese.
  • Definieren Sie, wo immer erforderlich, Transformationen der Datenstrukturen und -formate.
  • Speichern Sie die Ablaufdefinition im zentralen Repository.
  • Testen und analysieren Sie Ihre Ablaufdefinition, eliminieren eventuell auftretende Fehler und optimieren den Ablauf.
  • Bringen Sie schließlich den Job zur Ausführung.


Ablaufbeschreibungen, die mit der grafischen Oberfläche des Werkzeugs für die Datenintegration erstellt wurden, können sowohl manuell (ad hoc) als auch über die integrierte Scheduling-Funktionalität zu jedem gewünschten Zeitpunkt, regelmäßig wiederkehrend (z. B. einmal pro Woche oder einmal pro Monat) oder abhängig von einem Ereignis (z. B. Kopieren einer Datei in Verzeichnis) automatisch ausgeführt werden. Der Job kann aber auch als ausführbares JAR File exportiert und die Ausführung somit problemlos in eigene IT-gestützte Prozesssysteme integriert werden.

 

Flexibler Einsatz des Tools für Datenintegration


Natürlich ist das Werkzeug für den lokalen Einsatz an einem Arbeitsplatz genauso geeignet wie für das unternehmensweite Handling Ihrer Data-Management-Aufgaben. Dazu können in der Client-/Server-Variante beim Scheduler registrierte Jobs auf jedem Server in Ihrem Unternehmensnetzwerk, auf dem eine Runtime-Umgebung für das Datenintegrationstool installiert ist, ausgeführt werden. Der integrierte Load Balancer verteilt neue Jobs automatisch auf freie Server-Knoten und startet bei Ausfall eines Server-Knotens den entsprechenden Job auf einem anderen Server neu.

Mit dem Werkzeug für Datenintegration stellen wir Ihnen ein zeitgemäßes System zur Seite, das Ihnen hilft, Ihre Data-Management-Prozesse umfassend zu organisieren.

 

Leistungen des Uniserv Tools die Integration von Daten


Die folgenden Eigenschaften machen das Datenintegrationstool zu einem unverzichtbaren Werkzeug in all Ihren Projekten im Umfeld von Data WarehousingDatenmigration und Master Data Management
 

  • Benutzerfreundlicher grafischer Editor zur Erstellung von Ablaufbeschreibungen.
  • Ein zentrales Repository, in dem Ihre Ablaufbeschreibungen versioniert und sicher für den Zugriff mehrerer Anwender zur Verfügung stehen.
  • Zugriffskomponenten für eine Vielzahl von Datenbanken, Applikationen und Dateiformaten.
  • Leichte Integrierbarkeit der erstellten Jobs in bestehende automatisierte Abläufe.
  • Eine breite Palette von Datenqualitäts- und Transformationsfunktionen, die direkt per Drag & Drop in Ihre Ablaufbeschreibungen integriert werden können.
  • Eine reichhaltige Sammlung von Steuerungselementen für das Design komplexer Abläufe.
  • Hochperformante Ausführung durch Generierung von Java Code.
  • Integriertes Load Balancing und Failover-Mechanismen in der Client-/Server-Variante.

Die 5 Phasen der Datenintegration


Die Zusammenführung aller relevanten Daten in eine zentrales Data Warehouse oder eine andere Business-Applikation bietet die Möglichkeit wichtige Erkenntnisse für die erfolgreiche Unternehmenssteuerung zu gewinnen. Zudem ist die Integration aller entscheidenden Informationen zu einem Geschäftspartner ein Garant für effektives und zielgerichtetes Arbeiten im operativen Business. Wir stellen Ihnen in fünf Schritten vor, wie die Integration im Kundenstammdatenbereich erfolgreich realisiert werden kann.

1. Initialisierung


In einem groben Projektplan wird festgelegt, wo genau und von wem die zu integrierenden Daten später genutzt werden. Zudem werden die Rollen der Stakeholder definiert und mit den involvierten Geschäftsbereichen ein erster Überblick über die zu integrierenden Daten und die Datenhaltungssysteme erstellt.
 

2. Konzept


Hier wird die detaillierte Vorgehensweise während der verschiedenen Projektphasen festgelegt. Für jedes der zu integrierenden Datensysteme sollte ein Steckbrief über das Datenvolumen, die technische Spezifikationen, inhaltliche Aussagen über die Daten erstellt sowie Data Owner benannt werden. Zudem werden erste Datenqualitätskriterien erarbeitet, die erfüllt sein müssen, damit die Datenintegration erfolgreich verlaufen kann.
 

3. Data Cleansing Stream


Es wird geprüft, inwieweit die Datenqualität der Quellsysteme den Anforderungen des Business entspricht. Dazu werden die Daten aus den Quellsystemen extrahiert und in einer initialen Staging Area qualitativ aufbereitet und zwischengespeichert.

4. Integration Stream


Spätestens zu Beginn des Integration-Streams muss feststehen, wie das Design der Zielapplikation aussieht und welche Informationen genau wiedergegeben werden sollen. Es müssen alle Quellsysteme miteinander harmonisiert, Struktur- und Werte-Mappings erstellt und die komplexen Transformationsregeln konkretisiert werden. Ziel: der „single view of customer“.
 

5. Build, Test, Go Live


Bei der technischen Umsetzung der Datenintegration werden die Daten aus den Quellsystemen ausgelesen, in eine Staging Area geladen und über verschiedene Transformationsbausteine den qualitativen Anforderungen der Geschäftsbereiche angepasst. Schließlich werden sie in das Zielsystem überführt.
 

Monitoring

Damit alle Phasen der Datenintegration überwacht werden können, empfiehlt sich die Einrichtung eines Monitorings. Das Monitoring überwacht dabei folgende Bereiche: die Datenextraktion, die Einhaltung der Datenqualitäts-, Transformations- und Matching-Regeln und das Laden der Daten in die Zielapplikation.

Data Quality Firewall – die nachhaltige Datenqualitätssicherung


Damit beim kontinuierlichen Prozess der Datenintegration eine hohe Datenqualität gewährleistet ist, empfiehlt sich zudem die Implementierung einer Data Quality Firewall am Quellsystem, dem „point of entry“.

First Time Right – Hohe Datenqualität von Anfang an

 

Kundendaten sind ein wertvolles Gut. Viel wird investiert, um sie auf Stand zu bringen. Und dann? Passiert oft nichts mehr. Daten von schlechter Qualität breiten sich mehr und mehr im Unternehmen aus und behindern den gesamten Geschäftsbetrieb. 

Implementieren Sie Ihre Data Quality Firewall – Aktualität, Vollständigkeit und Richtigkeit schon bei der Dateneingabe. Laden Sie sich jetzt kostenlos das Uniserv Whitepaper zu First Time Right herunter. Direkt perfekte Daten von hoher Qualität!


Jetzt Paper downloaden

Fazit


Eine erfolgreich durchgeführte Integration liefert eine einheitliche, qualitativ hochwertige Datenbasis, die Unternehmen in die Lage versetzt, Daten schnell zu analysieren, um so beispielsweise rechtzeitig auf Markttendenzen zu reagieren.

Artikel teilen:

Das könnte Sie auch interessieren:

Datenmigration
Überführen Sie die Daten aus Ihren Altsystemen konsolidiert und aufbereitet für Ihr Zieldatenmodell in Ihr neues System, für vollständige, korrekte und verlässliche Daten in allen Fachbereichen, nach Abschluss Ihres Migrationsprojektes.
Data Quality
Qualitativ optimierte Daten sind eine zentrale Voraussetzung für den Erfolg Ihres Unternehmens. Verstehen, pflegen, schützen und überwachen Sie daher Ihre Daten über alle Phasen ihres Lebenszyklus.
Master Data Management
Widmen Sie Ihren Kundenstammdaten von Anfang an die nötige Sorgfalt und Pflege: aktuell, korrekt, vollständig, eindeutig und zentral verfügbar! Denn die Qualität entscheidet über die Effizienz der Kundendatenprozesse.