16.6.2016 |
Tagung des „Deggendorfer Forum für digitale Datenanalyse e.V.“ an der TU München-Garching
Wo die digitale Datenanalyse zur „Transparenz aus Verantwortung“ beitragen kann
Gewaltige Datenmengen lagern in den Rechenzentren von Unternehmen, Krankenhäusern, Versicherungen, Behörden und anderen Institutionen. Die Angst vor Missbrauch ist verbreitet. Aber bieten die digital gesammelten Informationen nicht auch die Chance besserer Einblicke in fragwürdige Praktiken und der Analyse und Früh¬erkennung von Fehlentwicklungen? Eine Tagung an der TU München-Garching, organisiert vom „Deggendorfer Forum für digitale Datenanalyse e.V.“, wies auf die Verantwortung der Experten für digitale Datenanalyse hin, sich dieser Herausforderung zu stellen.
„Die weiße Mafia“ hat Dr. Frank Wittig sein Buch genannt, das nach dem Erscheinen 2013 bald zum Spiegel-Bestseller aufstieg. Der Journalist beim Südwestrundfunk hat sich seit Jahren mit den Strukturen des deutschen Gesundheitssystems beschäftigt. Für ihn herrschen dort Strukturen, die „Intransparenz automatisch herbeiführen“. Besonders kritisiert er das System der Fallpauschalen, nach dem den Krankenhäusern Behandlungs-„Fälle“ mit festgelegten Pauschalen bezahlt werden. Das System reize dazu, Patienten als kranker einzustufen, als sie sind, sie entsprechend aufwendiger zu behandeln, als sinnvoll, und sie frühzeitig zu entlassen. Wittig beklagt eine enge Verflechtung der verschiedenen beteiligten Interessengruppen von Ärzten und ihren Fachgesellschaften bis zur Pharmaindustrie und damit verbunden ein erhebliches Kontroll- und vor allem auch Sanktionsdefizit. 800.000 Krankenhausabrechnungen würden jährlich als fehlerhaft beanstandet. Doch außer dass die Kassen in solchen Fällen die Kosten nicht erstatteten, müsse die betroffene Klinik keine weiteren Sanktionen befürchten.
Die Daten liegen vor, doch sie werden nicht genutzt, mehr Transparenz in die Abrechnungspraxis zu bringen. Mit diesem Beispiel leitete Wittig eine Tagung ein, die genau dieses thematisierte: „Transparenz aus Verantwortung: neue Herausforderungen für die digitale Datenanalyse“ war der Titel des 12. Deggendorfer Forums zur digitalen Datenanalyse (DFDDA), das seit 2005 jährlich von dem gleichnamigen eingetragenen Verein mit Sitz an der Technischen Hochschule Deggendorf (THD) organisiert wird. Der Verein unter dem Vorsitz von Prof. Dr. Georg Herde (Fakultät für Angewandte Wirtschaftswissenschaften an der THD) sieht zwar seinen Schwerpunkt in der Förderung der digitalen Datenanalyse in den Bereichen Interne Revision, Wirtschaftsprüfung, Steuerrecht, Controlling und betriebswirtschaftliche Prozessoptimierung. Doch mit der steigenden Bedeutung von „Big Data“-Anwendungen wird der Blick über den Tellerrand zum festen Bestandteil der jährlichen Forumsveranstaltungen in Deggendorf und wechselnden anderen Tagungsorten. In diesem Jahr war das Forum zu Gast beim Institute for Advanced Study (IAS) in Garching und dessen Leiter Prof. Dr. Jürgen Ernstberger.
Die Beiträge der zweitägigen Veranstaltung umkreisten das Forumsthema von der IT-Sicherheit und der Sicherung einer hohen Qualität großer Datenbestände bis zur Aufbereitung von Informationen für Entscheider und den Veränderungen, vor denen der Beruf des Wirtschaftsprüfers in Zeiten digitaler Datenanalyse steht.
Jochen Thierer und Marie-Luise Wagener von der SAP-AG in Walldorf schilderten die Schwierigkeit, in einem Großunternehmen, das im globalen Umfeld tätig ist, Betrug und unternehmensschädliches Verhalten im Inneren aufzudecken und den Überblick zu behalten zum Beispiel über riskante Transaktionen in Steueroasen oder über Geschäftspartner, die in fragwürdige Aktivitäten verwickelt sind oder waren. Die Referenten stellten den hauseigenen Einsatz eines Systems für „Governance, Risk and Compliance“ (GRC) vor, das sich auf die Leistungsfähigkeit des In-Memory-Datenbank SAP HANA stützt.
Uwe Nadler von der IBM Software Group stellte in seinem Beitrag die Frage nach der Verlässlichkeit von Ergebnissen aus Datenanalysen. Ob man es mit einem „undurchschaubaren Datensumpf“ oder einem „kristallklaren Datensee“ zu tun habe, hänge von der Bedeutung ab, die im Unternehmen der Datenqualität und dem kontinuierlichen Management der Daten zugemessen werde. Als krasses Negativbeispiel nannte er ein Unternehmen, das sich rühmte, 4,5 Millionen Kunden in seinen Datenbanken gespeichert zu haben. Doch eine Analyse dieser Daten förderte nur 1,3 Millionen tatsächlich unterschiedlicher Kunden hervor, und von denen konnte das Unternehmen nur 700.000 auf elektronischem Wege ansprechen, weil bei den anderen zum Beispiel keine E-Mail-Adresse bekannt war. Wichtig sei eine Strategie der Information Governance, mit dem Ziel, nicht so viele Daten wie möglich zu speichern, sondern so viele, wie nötig, um die Bedürfnisse des Unternehmens und der einzelnen Fachabteilungen zu bedienen, und diese Daten dann nach klaren Vorgaben abzulegen und zu dokumentieren.
Das strukturierte Aufbereiten von Informationen hat sich Dr. Ralf Steinberger vom Joint Research Centre (JRC) der Europäischen Kommission auf die Fahnen geschrieben. Allerdings geht es bei ihm nicht um Unternehmensdaten, sondern um Medieninformationen in mehr als siebzig Sprachen. Seine Aufgabe ist, den Einrichtungen der Europäischen Union die Informationen aus 250.000 Artikeln pro Tag aus 7000 Quellen weltweit so zugänglich zu machen, dass Meldungen über kritische Entwicklungen schnell verfügbar sind und dabei zum Beispiel zeitliche Zusammenhänge zu anderen Ereignissen oder Informationen über namentlich genannte Personen schnell hinzugezogen werden können. Einige der im „European Media Monitoring“ erstellten Anwendungen sind öffentlich (newsexplorer.eu, emm.newsbrief.eu, medisys.newsbrief.eu).
Das Beispiel zeigt: die digitale Datenanalyse hat es nicht nur mit strukturierten Daten aus Datentabellen zu tun, sondern zunehmend auch mit Fließtexten, aus denen Informationen automatisch extrahiert werden müssen. Prof. Dr. Siegfried Handschuh leitet den Lehrstuhl für Digital Libraries und Web Information Systems an der Universität Passau. Er berichtete über Fortschritte der Semantik, der Bedeutungslehre, die Bedeutung von Begriffen mit automatischen Verfahren zu analysieren und so Wissensinhalte erfassen und zunehmend besser auch natürlichsprachige Fragen maschinell beantworten zu können.
Christoph Haas bezeichnet sich selbst als Hacker. Er hat sich und seine Firma Securai GmbH, Garching, darauf spezialisiert, Unternehmensnetzwerke sicherer zu machen. Dazu analysiert er den Datenverkehr über das Netzwerk und sucht nach Auffälligkeiten – eine Aufgabe, die er selbstironisch im Titel seines Beitrags so formuliert: „IT-Sicherheit und Datenanalyse: Wie trinkt man aus einem Feuerwehrschlauch?“ Denn Haas hat den Ehrgeiz, den kompletten Datenverkehr zu analysieren und dabei Auffälligkeiten genauer zu erkennen, als das ein Virenscanner tut.
Welche Folgen wird der verstärkte Einsatz digitaler Datenanalyse für den Beruf des Wirtschaftsprüfers haben? Remo Rechkemmer ist Wirtschaftsprüfer bei der PricewaterhouseCoopers AG in München (PWC). Er stellte den Forumsteilnehmern ein mahnendes Szenario vor, in dem sich über die nächsten anderthalb Jahrzehnte hinweg die digitale Technik vom immer weitere Tätigkeiten unterstützenden und automatisierenden Werkzeug zum technisch hoch komplexen Helfer entwickelt, der, unterstützt durch künstliche Intelligenz, auf lange Sicht selbst Ermessensentscheidungen für den Prüfer vorbereitet.
Weitere Informationen: www.dfdda.de
Bild vLnR: Dr. Wittig (SWR; Mainz); E.-R. Töller (DFDDA); Prof. Ernstberger (TU-München); Uwe Nadler (IBM Düsseldorf); Remo Rechkemmer (PWC München); Christoph Haas (Securai GmbH, Garching); Prof. Herde (TH-Deggendorf)
16.Juni 2016 | DFDDA e.V. (Text: Rainer Klüting)