solvatio® BLOG
Ein Blog über Lösungen für Kundenservice und technischen Support, künstliche Intelligenz und Automation im Service.

Datenintegration heißt, Daten zu vergolden

Veröffentlicht von Nils Güntner auf 3. Januar 2020 13:31:58 MEZ
Nils Güntner

DatenintegrationV3_770x425px

Daten sind nicht nur für Telekommunikationsunternehmen wertvoll. Ihr wahres Potenzial zeigen sie jedoch erst in der Datenverarbeitung – dann, wenn aus vielen Daten eine Erkenntnis wird. Ohne die Datenintegration wäre das nicht möglich: Sie vergoldet Daten.

Inhaltsverzeichnis

  1. Datenflut und Datenintegration
  2. Use Cases zu Datenintegration bei Telko-Unternehmen
  3. Herausforderungen
  4. Fazit: Viel Aufwand, noch mehr Nutzen

1. Datenflut und die Datenintegration

Die Macht der Daten verkennt heute niemand mehr: Unternehmen sind datengetrieben, Entscheidungen werden auf Basis von Daten getroffen, in manchen Ländern hängt sogar der soziale Status von Daten ab. Dass hierbei nicht alle Daten für alle Anwendungsfälle relevant sind, liegt auf der Hand. Egal ob Künstliche Intelligenz, Predictive Maintenance oder die klassische Wettervorhersage: Jede Anwendung braucht die passenden Daten, um zu funktionieren. 

Hier kommt die Datenintegration ins Spiel: Datenintegration ist das Zusammenführen von Daten aus mehreren, unterschiedlichen Quellen für einen bestimmten Zweck. Ziel ist es meist, diese Daten aussagekräftig nutzen zu können. Dazu gehört nicht nur die Aufnahme und Bereinigung (z.B. Dubletten löschen) der Daten. Auch das Mapping (Beziehungen zwischen Datenmodellen herstellen) und die Transformation (Überführung der Daten von ihrer ursprünglichen Struktur in eine andere) der Daten ist bei ihrer Integration obligatorisch.

Der Vorteil dieses Konzepts liegt auf der Hand: Wenn Unternehmen beispielsweise bei der Einführung eines Troubleshooting-Tools definieren, welche Daten für diesen Use Case relevant sind, können sie automatisiert einfließen und dauerhaft analysiert werden. Das Tool wird also ständig mit den relevanten Daten gefüttert. Anhand dieser Daten kann es Rückschlüsse ziehen, Aktionen vorschlagen und letztlich Störungen beheben.

Datenflut

Ein Alltagsbeispiel veranschaulicht das Prinzip: Familie Datenflut hat ein Kalenderproblem. Papa Helmut verwaltet Termine im Kalender seines E-Mail-Programmes. Mama Helga benutzt klassisch den Kalender an der Schranktür, während Tochter Holly die Kalender-App ihres Smartphones nutzt. Will Mutter Helga checken, ob die Familie Zeit für einen Sonntagskaffee bei Oma Henriette hat, muss sie einzeln bei ihren Liebsten nachfragen. Das kostet Zeit und ist alles andere als bequem. Kurz gesagt: Familie Datenflut hat ein Problem mit ihrer Datenintegration.

Die Lösung des Problems ist ein einheitlicher Familienkalender, der Zugriff auf auf alle relevanten Datenquellen hat. In diesem Fall auf den Kalender im E-Mail-Programm, auf den an der Schranktür und auf die Kalender-App. Die Familie definiert bei der Einführung des Familienkalenders diese Datenquellen: Die relevanten Daten werden integriert. Dann kann ein Tool sie automatisiert in Bezug zueinander setzen.

Datenintegration & Digitale Transformation

Im Hintergrund findet die Datenintegration überall und ständig dort statt, wo Anwendungen auf Daten basieren. Eine robuste Datenverarbeitung ist unabdingbar, denn Daten werden und wurden während der Digitalen Transformation komplizierter, riesiger und wichtiger. Einfach gesagt: Je mehr Termine die Mitglieder der Familie Datenflut haben, desto wichtiger wird es, den Überblick zu behalten. Oder: Je wichtiger Daten werden, desto wichtiger ist eine saubere Datenintegration. In der Telekommunikationsbranche gibt es unzählige Beispiele.

Serverraum770x425

2. Use Cases zu Datenintegration bei Telko-Unternehmen

SIMBOX-Betrugserkennung

Ein großes Thema im Umfeld der Telekommunikation ist die Bekämpfung von Kriminellen. Exemplarisch ist der SIMbox-Betrug. Hier umgehen Trickser die Gebühren von Anrufen ins Ausland, indem sie Telefonate über eine SIMbox und das Internet umleiten. Diese illegalen Telefonate weisen dann geringfügig andere Charakteristiken auf als die legalen.

Datenbetrüger_770x425

Relevante Daten sind beispielsweise Datum, Zeit und Dauer von Telefonaten, Telefonnummern sowie Informationen zu Land, Region, Identität, Account und Kundensegment. Mobile Anrufe, die über eine stationäre SIMbox umgeleitet werden, laufen oft über dieselbe Basisstation. Bei legalen Anrufen wechselt die Basisstation im Gegensatz dazu häufiger. Bringen Unternehmen mehrere dieser Erkenntnisse zusammen, können sie Betrüger entlarven.

Smartphone-Wechsel

Eine besondere Art der Predictive Analysis für Telekommunikationsunternehmen ist es, voraussehen zu können, wann ein Kunde sein Smartphone wechseln wird. Denn erkennen sie ein solches Nutzerverhalten frühzeitig, lässt sich der Smartphone-Wechsel orchestrieren – der Kunde erhält zum Beispiel ein besonderes Angebot.

smartphone_lady

Dafür erstellen Telcos auf der Basis von Daten aus der Vergangenheit Profile. So kennen Anbieter die Bedingungen, die zu einem Smartphone-Wechsel führen. Vergleichen sie diese Profile mit aktuellen Daten, können sie potenzielle Wechsler identifizieren. Für diesen Use Case müssen unterschiedliche Daten einfließen – vom Einkommen der Nutzer bis hin zur durchschnittlichen emotionalen Bindung an eine bestimmte Marke.

Troubleshooting von High-Speed-Internetanschlüssen

Auch ein Troubleshooting-Tool braucht Zugang zu Daten, die beispielsweise Einfluss auf die Funktionalität eines High-Speed-Internetanschlusses haben. Hier sind vor allem die OSS (Netzwerk-Management-Systeme oder Service Delivery Platforms) und BSS (CRM, Vertragsdatenbank oder Vertriebs-Software) relevant. Mit der Analyse dieser Daten lassen sich – beispielsweise über den Vergleich von Snapshots – Fehlerquellen identifizieren und beseitigen. Besondere Herausforderungen ergeben sich hier unter anderem durch die vielen beteiligten Datenlieferanten.

3. Herausforderungen

Eine saubere Datenintegration ist keinesfalls selbstverständlich. Was viele vergessen: Die wichtigste Voraussetzung bei der Bestimmung von relevanten Datenquellen ist es, die Daten überhaupt zu verstehen. Eine Unmenge von nützlichen Daten bringt nichts, wenn niemand ihre Bedeutungen und Zusammenhänge kennt. Stand jetzt sollte die inhaltliche Qualität von Daten deshalb immer noch ein Mensch beurteilen.

Zitat Roman 1 (2)

Zusätzlich gibt es noch Herausforderungen, die nicht bei der Definition von relevanten Datenquellen, sondern nach dem Start der Anwendung auftreten. Ein klassisches Bespiel sind hier die sogenannten Releases:

Die Umsysteme, aus denen die relevanten Daten stammen, bleiben nicht statisch, sondern sind einer ständigen Weiterentwicklung unterworfen. Im Zuge dieser Releases ändert der Datenlieferant in regelmäßigen Abständen Schnittstellen – beispielsweise kommen neue Datenfelder hinzu. Darauf muss der Datenkonsument reagieren: Er muss für seine spezielle Anwendung sicherstellen, dass er das bekommt, was er braucht. Der Datenlieferant sollte also Änderungen im Datentyp oder in den Schnittstellen kommunizieren, damit sie berücksichtigt werden können. Eine nicht-kommunizierte Änderung bedingt fehlerhafte oder unvollständige Daten – und führt damit oftmals zum Totalausfall. 

5 weitere Herausforderungen können der Datenintegration in die Quere kommen – am Beispiel der Familie Datenflut werden sie anschaulich:

  • Schlechte Datenqualität: Ein großes Problem sind veraltete oder nicht-gepflegte Datensätze: Hier fehlen oftmals wichtige Informationen. Externe Daten sind teilweise nicht so detailreich wie die internen oder werden den Anforderungen nicht gerecht.

Bezogen auf die Familie Datenflut wäre schlechte Datenqualität, wenn noch Termine in den Kalendern der Familienmitglieder stehen, die in der Zwischenzeit bereits wieder abgesagt wurden.

  • Datensilos: Oftmals werden Datensätze in sogenannten Datensilos gehortet, anstatt sie anderen zur Verfügung zu stellen. Sind diese Daten für eine bestimmte Anwendung relevant, kann diese nicht oder nur unzureichend ausgeführt werden.

Verheimlicht ein Familienmitglied der Familie einen Termin, wäre das in gewisser Weise auch ein Datensilo.

  • Neue Datenformate: Nach der anfänglichen Definition der Datenquellen kommen irgendwann neue Datenformate hinzu. Auch diese muss das Tool integrieren und transformieren.

Wechselt Mama Helga auf einen Taschenkalender, muss der vereinheitlichte Kalender auch dieses neue Datenformat verarbeiten können.

  • Aktualität: Datenintegrations-Projekte verändern sich nicht nur auf Ebene der Daten. Sie müssen sich auch an neue Gegebenheiten (beispielsweise neue Anforderungen von Organisationen) anpassen.

Oma Henriette ist krank und zieht bei Familie Datenflut ein. Auch ihr Kalender muss dann in den Familienkalender integriert werden. 

  • Datenmengen: Besonders große Use Cases, wo viele verschiedene Daten Einfluss haben, bringen ganz eigene Herausforderungen mit. Je mehr Datenquellen es gibt, desto komplexer wird auch die Integration.

Die Kalender einer dreiköpfigen Familie zu vereinheitlichen ist eine Sache. Eine ganz andere Sache wäre es beispielsweise, die Kalender aller Mitarbeiter eines Unternehmens zu vereinheitlichen.

4. Fazit: Viel Aufwand, noch mehr Nutzen

Datenintegration hat einen hohen initialen Aufwand und ist kein Einmal-Projekt. Daten und die damit einhergehenden Strukturen wollen dauerhaft betreut, überwacht und aktualisiert werden. Für die reine Funktionalität einer Anwendung ist die Datenintegration Grundvoraussetzung – und dadurch im Endeffekt für das Funktionieren von Geschäftsmodellen und Unternehmen. Der hohe initiale Aufwand wird sich in absehbarer Zeit verringern: Automatisierte Datenanalyse- und Transformations-Tools schaffen hier Abhilfe.

DatenintegrationV3_770x425px

Datenintegration: Daten vergolden

Ohne Daten läuft nichts - sie sind Voraussetzung für alle Arten von Anwendungen. Allerdings tritt ihr wahres Potenzial erst im Zusammenspiel miteinander zutage. Unternehmen verbinden verschiedene Datenquellen, leiten daraus Erkenntnisse ab und können auf dieser Basis fundierte Maßnahmen ergreifen. Beispielsweise sagt ein einzelner Datensatz nur aus, ob eine Internetleitung funktioniert oder nicht. Verbindet ein Troubleshooting-Tool mehrere Datenquellen, kann es die Ursachen erkennen und Muster einer Störung im Voraus erkennen. Die Datenintegration ermöglicht dieses Zusammenspiel der Daten erst - und "vergoldet" sie dadurch.

Anschaulich wird dieser Vergoldungs-Effekt am Kalender-Beispiel: Ursprünglicher Grund für die Zusammenführung der Daten war der Kaffee-Termin bei Oma Henriette. Kurzfristiges Resultat: Kaffee und Kuchen. Das langfristige Resultat der Vereinheitlichung aller Kalender ist jedoch letzten Endes: ein harmonischeres und besser aufeinander abgestimmtes Zusammenleben der Familie Datenflut. Wenn das mal kein Happy End ist...

Topics: Künstliche Intelligenz, AI, Kundenservice, KI, telecommunication, customer service, Zusammenarbeit, Telekommunikation, Use Cases, Daten, Technologie, machine-learning, technology, data, Datenintegration, data integration

Let's follow!

Dir hat unser Content gefallen? Dann lerne uns auf Linkedin besser kennen!

solvatio - smart troubleshooting solutions

solvatio bietet führende Lösungen für automatisierte Diagnose & Behebung in technischen Systemen und Geräten. Auch 20 Jahre nach der Entstehung als spin-off des Lehrstuhls für künstliche Intelligenz und angewandte Informatik der Universität Würzburg reizt solvatio die Grenzen künstlicher Intelligenz für automatische, datengetriebene Wissensbereitstellung und KI orchestrierte Entstörung weiter aus.

Es ist unsere Mission Service-Aufwände zu minimieren, Support-Kosten zu reduzieren und herausragende Anwender- und Kundenerlebnisse über alle relevanten Kanäle zu garantieren. Mit solvatio wird KI getriebene Lösungsfindung und die Automation von technischen Serviceabläufen Realität.

Aktuelle Blogbeiträge

 

icon-linkedin