Posts mit dem Label Master Data Management werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Master Data Management werden angezeigt. Alle Posts anzeigen

Montag, 14. Mai 2012

Tool für Daten-Transparenz: InfoDyn


InfoDyn hat sich auf das im Bereich des Informationsmanagements zunehmend an Bedeutung gewinnende Feld der Nachvollziehbarkeit von Datenursprüngen und der Interaktion von Daten fokussiert. Die von InfoDyn entwickelte Software stellt applikationsunabhängig Informationsmodelle zur Verfügung, die von Fachabteilungsanwendern bedient werden können und nicht die IT-Abteilung benötigt, um Licht in das Datendunkel zu bringen.
Damit setzt InfoDyn an einem wunden Punkt der Unternehmen an, denn die Qualität und Verlässlichkeit der verwendeten Daten ist der Hauptkritikpunkt der Anwender in ihrer täglichen Arbeit, wie die globale i2s ERP-Zufriedenheitsstudie gezeigt hat.
Die Browser-basierte Information Context Suite ( IC ) von InfoDyn bildet die Datenflüsse zwischen den unterschiedlichen Anwendungen grafisch ab und gibt einen Überblick über den Informations- und Datenfluss im Unternehmen. Der IC Environment Manager (ICEM) erlaubt die Synchronisation und das Deployment von unterschiedlichen Datenintegrationsumgebungen (Entwicklung, Testing, Integration, etc.) Alle diese Umgebungen können durch ICEM synchron gehalten werden und jederzeit auf Veränderungen und Abweichungen überprüft werden.
Durch die Rückverfolgbarkeit der Datenquellen können Unternehmen sehr schnell Fehlerquellen aufspüren und beheben. Damit liefert InfoDyn eine sinnvolle Ergänzung zum Informatica PowerCenter und fast allen am Markt befindlichen ETL/ELT Tools in Bezug auf Entwicklung, Deployment, Analyse, Reporting, Wartung und Betrieb.

Datenfluss wird transparent
Durch die enorm hohe Komplexität der IT insbesondere in Großunternehmen, bedingt durch eine Vielzahl unterschiedlicher Anwendungen und Orte der Datenspeicherung, verlieren Unternehmen leicht den Überblick über den Ursprung der Daten, wie diese zusammenhängen und interagieren. InfoDyn liefert mit der Information Context Suite eine zentrale Anwendung für das gesamte Daten- und Informations-Management eines Unternehmens. 

Dabei ergeben sich für Unternehmen unter anderem folgende geschäftlich relevante Vorteile:
  • Datenqualität und Governance werden durch strukturierte Prozesse nachvollziehbar, standardisiert und transparent.
  • Das Datenmanagement folgt standardisierten Prozessen und stellt damit die regulatorischen Anforderungen wie z. Bsp. von Sarbbanes Oxley Act (SOX), DIN oder ISO sicher.
  • Durch die permanente Überwachung und Protokollierung der Datenflüsse und relevanter Vorgänge schützen sich Unternehmen vor datenbezogenen Betrugsfällen.


Modularer Aufbau erleichtert Einführung
Der modulare Aufbau der Anwendung ist die Grundlage für eine individuelle Lösung auf Basis eines zentralen Repositories, in dem alle wertvollen Informationen über Prozesse und zusammenhängende technologische Details sowie alle operationalen und archivierten Informationen gesichert sind. Zusätzlich ermöglichen die unterschiedlichen Parser-Komponenten die flexible Anbindung weiterer Fremd-Repositories sowie Anwendungen.
Mit dem Modul "IC flow viewer" lassen sich die Datenflüsse zwischen auswählbaren Applikationen darstellen. Damit kann ein Unternehmen beispielsweise einem Wirtschaftsprüfer im Browser mittels einer verständlichen grafischen Darstellung zeigen, wie die Daten von einem System in ein anderes fließen und welchen Änderungen die Daten unterliegen. Dabei ist es möglich, auf Feldebene nachzuvollziehen, aus welchen Quelltabellen Daten in welche Zieltabellen geschrieben werden und welche Workflows, Sessions und Mappings involviert sind.
Durch die gewonnene Transparenz über Datenflüsse reduzieren Unternehmen die Abhängigkeit von einzelnen Mitarbeitern, da das Herrschaftswissen über Datenursprünge und Zusammenhänge minimiert werden kann. Dies stellt IC dadurch sicher, dass Personen, die für verschiedene Aufgaben vorgesehen sind, an definierbare Rollen gebunden werden. Dabei wird eine Rolle einzelnen Bereichen der Abläufe und Prozesse zugewiesen. Einzelne Mitarbeiter wiederum lassen sich diesen Rollen zuordnen. Für das Unternehmen ist sichergestellt, dass die Zuordnung von Mitarbeitern zu den einzelnen Rollen jederzeit geändert werden kann. Somit können neue Mitarbeiter schnell in Prozesse eingegliedert und ausgebildet werden. Die Abhängigkeit von einzelnen Mitarbeitern wird auf ein Minimum reduziert. Die Einhaltung von Regularien der Corporate Governance wie Sarbbanes Oxley Act kann durch externe Auditoren bestätigt und genehmigt werden.

Bottom Line
Für die Unternehmen entsteht durch zunehmende regulatorische Anforderungen und von den Anteilseignern geforderte Transparenz ein immer größerer Druck, mit eineindeutigen Zahlen und nachvollziehbaren Daten zu arbeiten. Dabei liefert die IC Suite ein tiefgehendes Verständnis über und entsprechende Transparenz in die Datenbeziehungen und Datenströme. Die Abhängigkeit von einzelnen Wissensträgern, die über Herkunft und Beziehungen von Daten untereinander Bescheid wissen, kann signifikant verringert werden.
Hinzu kommen direkt realisierbare monetäre Einsparungen in signifikanter Höhe. So könnte durch den Einsatz der IC Suite die notwendige Zeit für das Deployment von rund 45 Minuten auf ein bis zwei Minuten nach der zwanzigminütigen Ersteinrichtung reduzieren. Bei einem typischen Mittelstand z. Bsp. sinken die Kosten für das Deployment von ca. 100.000 Euro auf 20.000 Euro pro Jahr.
Manager in Unternehmen, die für den Bereich Enterprise Information Management und entsprechende Governance und Compliance Abteilungen verantwortlich sind, müssen sich mit dem Thema der Datennachvollziehbarkeit auseinandersetzen. Der resultierende Mehrwert von IC für die Anwender liegt neben der signifikanten Zeit- und Geldersparnis, die durch eine schnell einzuführende und einfach zu bedienende Lösung zu erwarten sind, vor allem in dem guten Gefühl, immer gesetzeskonform und revisionssicher zu arbeiten. 

Autor: Frank Naujoks

Sonntag, 13. September 2009

Kernkompetenz Stammdatenpflege

ERP-Systeme sind zu einem Gebrauchsgegenstand in Unternehmen geworden. Wie wichtig ein ERP-System ist, merkt man in der Regel dann, wenn das System einmal nicht läuft. In der Vergangenheit waren hier vor allem Programmfehler oder auch Probleme mit der Hardware Schuld. Solche Probleme gehören heute in aller Regel der Vergangenheit an: ERP-Systeme sind technisch stabil und robust. Dennoch kommt es laufend vor, dass das System „nicht will“.
Der alleinige Hauptgrund für ein „bockiges Systemverhalten“ sind fehlende oder schlecht gepflegte Stammdaten. Dabei kann man noch von Glück reden, wenn das System sich bockig verhält und eine nervende Fehlermeldung von sich gibt.
In aller Regel arbeiten Systeme auch mit schlecht gepflegten Daten relativ gut. Die operativen Prozesse können mit ein paar Tricks am Leben erhalten werden, im Controlling sammeln sich in vielen Fällen ein wahrer „Datenschrott“ zusammen, auf dem dann unternehmenswichtige Entscheide gefällt werden.
Für ein Anwenderunternehmen ist es notwendig, im Bereich Stammdatenpflege in Zukunft Kompetenz aufzubauen, Methoden zu entwickeln und die geeigneten Werkzeuge einzusetzen. Das ERP-System an sich zwingt zwar zur Pflege einzelner Datenfelder, es gibt den Pflegeprozess aber nicht vor.
Hier liegt bereits die erste Krux: Stammdatenpflegeprozesse werden in den meisten Prozessdarstellungen von vornherein vergessen oder unterschlagen. Darüber hinaus ist es notwendig, sich mit der gesamten Organisation der Stammdatenpflege intensiv auseinanderzusetzen.
Um es kurz zu machen: Der Bereich Stammdatenpflege ist komplex und für einfach Pauschallösungen, etwa nach dem Motto „zentral versus dezentral“ ungeeignet. Der Startpunkt ist klar: Wenn die Frage nach der Stammdatenqualität nicht als Führungsaufgabe eines jeden Managers verstanden wird, wird sich eine dauerhafte Excellence nicht einstellen. Der Führung folgt die Organisation und hier stehen v.a. Rollen und Verantwortlichkeiten im Mittelpunkt. Erst dann stellt sich die Frage nach der EDV-technischen Unterstützung. Hier gewinnen Workflow-Funktionen, integrierte Plausibilitätschecks, Hilfsmittel zur Massendatenmutation und eine statistische Qualitätskontrolle an Bedeutung.
Autor: Dr. Eric Scherer, i2s GmbH, Zürich