Dokumentation vermeidet Schmerzen. 10 Tipps wie Sie IT-Audits meistern.

Dokumentation vermeidet Schmerzen. 10 Tipps wie Sie IT-Audits meistern.

IT-Audits sind für viele Unternehmen so angenehm wie eine Zahnwurzelbehandlung. Man mag sie nicht wirklich. Keine Überraschung, denn selbst im allerbesten Fall verschlingt die Prüfung der IT zumindest sehr viel Zeit. Ein nicht bestandener IT-Audit ist noch schlimmer und kann Ihre Arbeitswelt schnell durcheinanderwirbeln. In manchen Fällen kann ein IT-Audit mit negativem Ausgang auch als Indiz von Managementschwäche verstanden werden.

Für das erfolgreiches Bestehen eines Audits spielen Umfang, Qualität und Detailgenauigkeit von Dokumentation eine immer wichtigere Rolle. Wenn also der nächste Audit Ihrer IT-Infrastruktur, Ihrer Policies und Ihrer Prozesse ansteht, ist täglich gelebtes, aktives Informationsmanagement ein Garant das Audit zu bestehen. Seien Sie einfach richtig vorbereitet.

 

Eine professionelle Auditvorbereitung

Die beste Vorbereitung mit Blick auf Dokumentation ist ein lebendes Informationsmanagement. Schwierig wird es im Audit immer, wenn die Dokumentation erst unmittelbar vor dem Zertifizierungsaudit erstellt und freigegeben wurde. Wenn dann dem Auditor wenig abgestimmte und in der Organisation unbekannte Dokumente vorgelegt werden, ist das Ergebnis vorhersehbar.

 

Dokumentation für eine konstruktive Auditsituation im externen Audit

Ein zentraler Grundsatz vor allem bei einem externen Audit lautet: „Der erste Eindruck kann entscheidend sein“. Der wird durch Art, Umfang und Qualität der Dokumentation maßgebend geprägt. Wichtige Kriterien für diesen positiven ersten Eindruck in Bezug auf Dokumentation sind:

  • Offene Beantwortung aller Fragen zur IT auf Basis von Dokumentation
  • Der Auditor darf Mitarbeiter der IT direkt ansprechen und die kennen die Dokumentation und arbeiten nach den aufgestellten Regeln
  • Keine Vertuschung oder falschen Angaben zur Vollständigkeit der Dokumentation
  • Ansprechpartner stehen wie im Auditplan vorgesehenen zur Verfügung und sind vertraut mit der Dokumentation

 

Audit Vorbereitung

Die Vorbereitung auf einen IT-Audit ist ein kontinuierlicher Prozess und in die täglichen Aufgaben und Prozesse der IT Organisation fest eingebunden. Idealerweise entfällt dann der Einmalaufwand beim IT-Audit.
Solche Vorbereitungen umfassen zum Beispiel:

  • Integration der gesamten IT Organisation in das IT Informationsmanagement, vor allem auch der Führungskräfte. Machen Sie Ihre Organisation vertraut mit der Dokumentation und bringen Sie alle Ebenen dazu, einen Beitrag zu leisten.
  • Continuous Documentation Improvement: Sorgen Sie für regelmäßige, kontinuierliche Anpassung und Verbesserung der Dokumentation. Das verringert Aufwände und erspart Neuerstellen zum ungünstigsten Zeitpunkt.
  • Regelmäßige Bewertung der Dokumentation und Abgleich mit der Infrastruktur und den Prozessen ist hilfreicher als gelegentliche Durchführung vollständiger Reviews (internen Audits) der Dokumentation.

 

Checkliste

 

#1  Kennen Sie Ihre IT wirklich?

Sie sollten ihre IT wirklich kennen. Auditoren prüfen immer genauer und entdecken Widersprüchlichkeiten fast immer.
Eine gute Online-Dokumentation hilft Ihnen bei nahezu allen Fragestellungen. Nichts beeindruckt in einer Prüfung mehr als dass Sie unmittelbar die erfragten Informationen bereitstellen können.

#2  Audits Ihrer Service Suppliers sind ein kritischer Punkt

Täusche Sie sich nicht: die Leistungen Ihrer Supplier sind auditrelevant. Kennen die Ihre Policies und halten sich daran? Wie prüfen Sie das? Welche Dokumentation über deren Services steht Ihnen zur Verfügung? Wie sind Lieferanten in Ihr Informationsmanagement eingebunden?

#3  Zeigen Sie auf, dass Sie standardisierte Prozesse in der IT haben und entsprechende Arbeitsanweisungen etabliert haben

Auditoren lieben Automatisierung und schauen bei manuellen Abläufen gerne genauer hin. Vieles lässt sich aber nicht mit wirtschaftlich vertretbarem Aufwand automatisieren. Zeigen Sie auf, dass Sie Ihre Policies ernst nehmen und mit Arbeitsanweisungen für die kritischen Bereiche eine einheitliche und Policy-getreue Arbeitsweise Ihrer Teams auch bei nicht automatisierten Aufgaben sichern (Work Instructions).

#4  Der Umgang mit Ausnahmen

Ihre IT ist hoch standardisiert und automatisiert. Dennoch gibt es Anwendungen und Systeme für die Ausnahmen gelten. Beispielsweise benötigen diese veraltete Software Releases oder einen unzureichenden Patch Level.
Zeigen Sie auf, wie Sie mit solchen Ausnahmen umgehen und dokumentieren Sie genau, warum das im Einzelfall so sein muss und welche Maßnahmen Sie deshalb zusätzlich ergriffen haben.

#5  Handeln Sie bei unzureichender Dokumentation schnell genug

Wenn Sie beim Audit aufgrund von Dokumentationsmängeln durchfallen, müssen Sie schnell reagieren können. Sie müssen aufzeigen können, dass Sie in Ihrer Organisation die Bereitschaft und vor allem auch die Kompetenz haben, hier schnell qualitativ hochwertige Lösungen zu schaffen.

#6  Betrachten Sie ein IT-Audit als das was es sein sollte: Ein professioneller Input für Ihre IT und die IT Dokumentation

Sehen Sie es einfach mal positiv: Ein Auditor ist wie ein Zahnarzt – auf Dauer kann er sehr hilfreich sein. Betrachten Sie den Auditor einfach als einen weiteren Stakeholder und beziehen Sie ihn frühzeitig ein. Auch hier gilt: Vorsorge ist besser als bohren. 
Auditoren haben in der Regel Erfahrung und kennen Standards sowie Best Practices. Das kann nützlicher Input sein, gerade wenn es um Prozesse und Security-Fragen geht.

#7  Ihre Teams kennen sich aus und sind auf Fragen gut vorbereitet

Ihre Teams sind dann am besten vorbereitet, wenn Sie ein funktionierendes Informationsmanagement etabliert haben. Dann kennen Ihre Mitarbeiter die IT Prozesse, und arbeiten kontinuierlich an der Optimierung von Abläufen und der Dokumentation. Dann ist das Audit so wie es der Besuch beim Zahnarzt sein sollte: ein kurzer Check ohne Behandlung.

#8  Betreiben Sie Informationsmanagement und keine „Single Purpose Documents“

Dokumentation speziell für ein Audit zu erstellen ist nicht nur sehr aufwändig, sondern im Zweifel auch riskant. Solche „Single Purpose Documents“ werden schnell als das entlarvt, was sie sind: Schnell erstellte Dokumente, die mit der gelebten Praxis wenig übereinstimmen und in der Organisation auch nicht bekannt sind. Fragt ein Auditor gezielt nach, reagieren Mitarbeiter in der Regel verunsichert. Sie merken, es zieht sich durch: Einmaliges Zähneputzen vor dem Zahnarztbesuch hilft eben nicht wirklich.

#9  Mit Informationsmanagement die Komplexität managen

IT wird immer komplexer, und interne Richtlinien sowie interne Prozesse werden in gleichem Maße umfangreicher. IT Informationsmanagement ist der Weg, diese Komplexität so zu managen, dass zum einen Ihre Mitarbeiter die Komplexität weiterhin verstehen und beherrschen, und zum anderen der Aufwand für Dokumentation nicht selbst zum Problem wird. 
Hierbei gilt: Je schlanker die IT Richtlinien und IT Prozesse eines Unternehmens sind, desto besser lassen sie sich umsetzen und desto erfolgreicher bestehen Sie ein Audit in der IT.

#10  IT Continuity und DR genau beschreiben

Disaster Recovery ist einer der zentralen Punkte im IT-Audit. Die Wiederherstellung von IT Systemen wird beispielsweise bei Finanzdienstleistern durch unterschiedliche regulatorische Vorschriften verlangt. Beschreiben Sie die Prozesse genau und achten Sie für ein Audit darauf, dass diese Prozesse in der Organisation bekannt sind, dass zumindest der schnelle Zugriff aller auf die aktuellen Versionen gewährleistet ist.

 

Summary

IT ist komplex. Die Integration von Cloud Services sowie die steigende Anzahl von Service Providern erhöhen die Anforderungen an Sie in einem IT-Audit immer mehr. IT Informationsmanagement ist ein Weg aus der IT-Auditfalle. Oder, um im Bild zu bleiben: IT Informationsmanagement ist Schmerzvermeidung.
Daneben sparen Sie auch noch viel Geld und schaffen strategischen Mehrwert.

10 Tipps wie Sie IT-Audits meistern (PDF)
Dokumentation vermeidet Schmerzen

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Juni 2019
Autoren: Gregor Bister, Jennifer Gitt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

5 Grundregeln für ein gutes Metadatenschema

5 Grundregeln für ein gutes Metadatenschema

Automatisierung ist das Leitthema der Gegenwart. Die Flut an zu verwaltenden Informationen macht es unmöglich, jede Datei und jeden Datensatz einzeln oder gar händisch zu pflegen. Metadaten sind der Schlüssel zur Lösung dieses Problems. Sie ermöglichen es, die Informationen anhand von festgelegten Eigenschaften zu gruppieren und stapelweise zu verarbeiten. Für den reibungslosen Ablauf solcher Prozesse sollten Metadaten in strukturierter Form erfasst werden. Warum die Verwendung einer Struktur, eines Metadatenschemas, wichtig ist und was bei der Entwicklung eines Schemas zu beachten ist, verraten wir Ihnen in diesem Artikel.

 

Weshalb brauche ich ein Metadatenschema?

Maschinen – ob nun simple kleine Skripte oder KIs – sind nicht gut darin, unstrukturierte Daten zu verarbeiten, weil ihnen die Fähigkeit zur Interpretation fehlt. Erst eine feste Struktur ermöglicht ihren Einsatz. Je mehr Kontext zu einer Information vorhanden ist und je präziser ihr Aufbau und ihre Bedeutung definiert sind, umso geringer ist der Aufwand bei der automatisierten Verarbeitung und umso fehlerfreier und nützlicher sind die Ergebnisse. Ein Metadatenschema ist im Grunde nichts anderes als eine Definition mit dem Zweck, genau solche Kontexte für die Maschinen bereitzustellen.

Aber nicht nur die Verwendung der Metadaten wird unterstützt – auch die Erfassung profitiert. Da ein Metadatenschema festlegt, wie die Daten aussehen müssen, können mit dessen Hilfe viele Fehler schon bei der Eingabe erkannt werden, egal ob diese manuell oder (teil-) automatisiert geschieht. Neben der Fehlervermeidung wirkt sich ein gutes Schema auch positiv auf den Arbeitsaufwand aus, denn wenn Bedeutung und Beziehungen der Metadaten klar definiert sind, können viele von ihnen automatisch erfasst oder aus anderen (Meta-) Daten generiert werden.

Zusammengefasst heißt das: Ein Metadatenschema…

  • …ermöglicht effektive automatisierte Datenverarbeitung und -verwaltung;
  • …erhöht die Qualität der Metadaten und damit deren Wert;
  • …verringert den Aufwand bei der Metadatenerfassung.

 

Was macht ein gutes Metadatenschema aus?

Das beste Schema ist jenes, welches die Dateneingabe und -verarbeitung am besten unterstützt und am meisten vereinfacht. Ein paar Grundregeln helfen Ihnen, ein Schema zu entwickeln, dass optimal zu Ihren Daten und deren Verwendungszweck passt.

 

1.      Den Anwendungsbereich bestimmen

Auf welche Daten soll das Metadatenschema angewendet werden? Ein Schema, dass auf alle vorhandenen Daten passt, ermöglicht es auch, alle Daten mit denselben Automatismen auf einmal zu bearbeiten. Allerdings haben sehr verschiedene Daten häufig auch wenig gemeinsame Eigenschaften. Machen Sie sich Gedanken darüber, welche Daten gemeinsam verarbeitet (verwaltet, gesucht) werden. Diese sollten sich ein Schema teilen. Andere Daten und Formate braucht das Schema nicht zu berücksichtigen. Es spricht natürlich nichts dagegen, Teile des Schemas für andere Daten wiederzuverwenden.

 

2.      Die richtige Auswahl der Felder

Ein Metadatenschema besteht aus sogenannten Feldern, wobei jedes Feld genau eine festgelegte Information enthält. Es lohnt sich, etwas Zeit in die Überlegung zu investieren, welche Felder gebraucht werden und woher die Daten kommen sollen. Die Leitfrage lautet: Wozu sollen die Metadaten verwendet werden? Es ist Zeitverschwendung, ein Feld zu definieren, das gar nicht benötigt wird. Selbiges gilt für Felder, die für einen großen Teil der Datensätze nicht ausgefüllt werden können, weil die Erschließung der Information entweder zu aufwändig oder überhaupt nicht möglich ist.

Die Informationen sollten in möglichst kleine Bestandteile aufgespalten werden, denn zwei klar definierte Felder zusammenzuführen ist leichter und weniger fehleranfällig, als den Inhalt eines Feldes zu zerlegen. Prüfen Sie also jedes Feld, das Sie nutzen wollen, darauf, ob es nicht zwei oder mehr unabhängige Informationen vereint. Bei einer Kombination von Informationen, die häufig in dieser Form benötigt wird, spricht nichts dagegen, sie in einem zusätzlichen Feld zu speichern – dieses sollte dann aber unbedingt automatisch ausgefüllt werden, damit keine Widersprüche entstehen.

 

3.      Das Rad nicht neu erfinden

In vielen Bereichen wird bereits seit langem mit Metadaten gearbeitet. Die Notwendigkeit, Daten auszutauschen, hat dabei zur Entwicklung robuster, gut dokumentierter Metadatenschemata und ‑austauschformate geführt, welche die meisten Bedürfnisse einer Sparte abdecken. Die Verwendung eines Standards bringt eine ganze Reihe von Vorteilen mit sich. Daten, die Ihnen von anderen zur Verfügung gestellt werden, können Sie sofort und ohne Anpassung verwenden, wenn dasselbe Standardschema verwendet wird. Für verbreitete Schemata gibt es Tools und Masken, welche die Datenpflege noch weiter erleichtern. Und natürlich sparen Sie sich den Aufwand, selbst ein Schema zu definieren. Wenn also iiRDS, Dublin Core oder MODS alles bietet, was Sie brauchen, fahren Sie damit vermutlich besser als mit einem eigenen, allein auf Ihre Daten optimierten Schema.

 

4.      So eng und exakt wie möglich

Je weniger Auswahlmöglichkeiten und Freiräume ein Schema bietet, umso besser. Jede Alternative ist eine Gelegenheit, die falsche Wahl zu treffen. Legen Sie genau fest, welche Information in welcher Form in ein bestimmtes Feld eingetragen werden kann. Datentypen, Auswahllisten und Reguläre Ausdrücke (eine Sprache zur Beschreibung von Zeichenketten) sind hier großartige Helfer. Sie vermeiden Tippfehler und sorgen dafür, dass dieselbe Information immer in der gleichen Form gegeben ist. Aber auch einfachere Mittel bringen schon einen großen Nutzen. Erlauben Sie für ein Feld „Bewertung“ im Schulnotensystem nur die Zahlen eins bis sechs. Sogar eine kurze Erklärung, für welche Information genau das Feld gedacht ist, kann schon helfen.

 

5.      Optional vs. obligatorisch

Wenn Sie planen, Metadaten automatisch oder durch Experten zu erfassen, sollte das Ausfüllen aller Felder verpflichtend sein, von denen Sie wissen, dass sie auf alle Instanzen zutreffen. Jede Person hat einen Namen, jede Datei ein Format, jeder digitale Text eine Kodierung. Bleibt ein Feld leer, kann der Datensatz bei allen Prozessen, die darauf zugreifen, nicht mehr verarbeitet werden oder benötigt zumindest eine Sonderbehandlung. Dadurch sinkt der Nutzen des Schemas erheblich.

Es gibt jedoch eine Ausnahme, bei der die Einengung des Schemas durch einen möglichst hohen Anteil obligatorischer Felder ein Nachteil sein kann; nämlich dann, wenn die Metadaten manuell von Leuten eingegeben werden, deren Hauptaufgabe nicht die Verwaltung dieser Daten ist. Zu viele verpflichtende Angaben bedeuten einen gewissen Zeitaufwand, was wiederum zu geringer Motivation führen kann und damit zu unüberlegten, fehlerhaften oder gar zufälligen Eingaben. In solchen Fällen ist also ein Abwiegen zwischen zumutbarem Aufwand und optimaler Datenqualität notwendig.

Optionale Felder sind natürlich trotzdem auch bei automatischer Erfassung nützlich. Ein Feld „Letzte Renovierung“ im Metadatensatz zu einem Haus ist eine gute Idee – aber bei einem Neubau nicht zutreffend. Optionale Felder haben überall dort einen Wert, wo auch das Fehlen der Angabe eine Aussage darstellt.

 

Neben diesen Grundregeln gilt natürlich noch die Regel der Umsetzbarkeit. Wenn der Aufwand, eine Auswahlliste zu erstellen oder zu pflegen, nicht zu stemmen ist, oder wenn die technische Umsetzung des optimalen Schemas zu lange dauern würde, lassen sich Abstriche bei der Genauigkeit nicht vermeiden. Wer aber von vorneherein nicht weiß, was das optimale Metadatenschema wäre, wird auch Schwierigkeiten haben, das bestmögliche Schema umzusetzen.

Metadatenschema fertig? Dann auf zum nächsten Schritt – dem Capturing! Oder vielleicht doch lieber Create?

5 Grundregeln für ein gutes Metadatenschema

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum 
Datum: Juni 2019
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2019.
All Rights Reserved.

Innovation schafft Intelligente Information

Innovation schafft Intelligente Information

Erfolgreiche Information Management Projekte in der IT

Intelligente Information: Der richtige Ansatz ist entscheidend

IT Dokumentation ist aktuell und zuverlässig, die Qualität ist hoch und benötigte Informationen stehen sofort zur Verfügung. Intelligente Informationen unterstützen stets bei der Entscheidungsfindung in strategischen Fragestellungen, beispielsweise bei Entscheidungen zu Cloud-Transformationen oder bei der Integration / Separierung von IT Organisationen.

Nicht realistisch? Und wenn Intelligente Information in der IT doch funktioniert?

Stellen Sie sich beispielsweise vor, Ihr Unternehmen kauft ein anderes und Sie sind für die Integration der IT verantwortlich. Wie setzten Sie Projekte/Programme auf, um intelligente Information schnell über die noch unbekannte IT Landschaft bereitzustellen? Wie schaffen Sie schnell eine gute Basis für Management-Entscheidungen und eine dauerhaft tragfähige Integration. 

Sicher ist, dass der Ansatz klassischer Dokumentenmanagement- oder ECM-Projekte nicht funktioniert. Sie sind zu langatmig und schwerfällig, die Aufwände viel zu hoch und die Ergebnisse reichen bei Weitem nicht aus.

Ein neuer Ansatz ist erforderlich. Information Management muss modular aus kleineren Projekten aufgebaut sein, die Projekte müssen agil arbeiten, innovative Methoden und zeitgemäße technologische Ansätze sind erforderlich, beispielsweise Audio- und Video-Integration, intelligente Suchfunktionen, Chatbots sowie Text-Analytics.

Information Management in der IT muss sich nach kurzer Zeit rechnen, der Business Case muss sich spätestens nach wenigen Wochen einstellen. Zudem muss sich strategischer Mehrwert unmittelbar ergeben. Um diesen Nutzen langfristig zu erhalten, muss Intelligente Information wartbar sein, also mit geringem Aufwand aktuell gehalten werden können. 

Wichtige Begriffe im IT Information Management

Accountable: Derjenige, der für die korrekte und gründliche Erledigung der Leistung oder Aufgabe verantwortlich ist, und der die Arbeit an die Responsibles delegiert. Es darf nur ein Accountable für jede Aufgabe oder Leistung angegeben sein.

Capture: Nach aiim (Association of Image and Information Management) ist Capture die Methode, Informationen an ihrer Quelle aufzunehmen und in einen formalen Informationsmanagementprozess zu überführen.

Create: Bei der Methode Create geht man davon aus, dass keine vertrauenswürdige Information vorliegt und dass Information deshalb neu erzeugt werden muss.

Information Governance: Sichert langfristig die Effizienz und Qualität von Informationen.

Information Unit: Information Units (IUs) sind die kleinsten sinnvollen Einheiten von Informationen, die nicht weiter sinnvoll unterteilt werden können. Sie können aus Kombinationen verschiedener Dateiformate bestehen (z.B. html, mp3, mp4) und sind angereichert mit Metadaten.

Methods: Methoden des IT Information Management, wie beispielsweise „Capture“ oder „Create“.

Responsible: Derjenige, der die Arbeit leistet, um die Aufgabe zu erfüllen. Es gibt immer mindestens einen Responsible. Auch wenn Aufgaben an andere delegiert werden, kann ein Einzelner alleiniger Responsible bleiben.

Stakeholder: Stakeholders sind beteiligte Akteure und Interessenvertreter. In der Regel sind dies neben der eigentlichen Unternehmens-IT auch IT Governance und IT Audit.

Innovative Ansätze im IT Information Management
Vollkommen neue und innovative Ansätze bei Information Management Methoden und bei den genutzten Technologien sind erforderlich. IT Information Management muss simplifiziert werden – nicht nur in der Nutzung, sondern vor allem in dem Erstellen („Create“) und der Bearbeitung von Informationen, sowie in der Information Governance.

Methodisch von anderen lernen: aiim, Tekom

Methodisch kann IT Information Management das Beste aus zwei Welten kombinieren: Dem Business Information Management und der Technischen Dokumentation. Die wesentlichen Elemente sind Taxonomien und die Nutzung von Information Units anstelle traditioneller Dokumente.

Elemente sind Taxonomien und die Nutzung von Information Units anstelle traditioneller Dokumente.

Neue technologische Ansätze schaffen neue Perspektiven

 Technologische Komponenten sind die Bereitstellung von Informationen in einem Portal mit Web/mobilem Zugang, die Nutzung von Text-Analytics und intelligenter Suchfunktionen, Gamification und Interaktion, Text-to-Speech sowie Speech-to-Text, Chatbots, Video und Audio.

Besonders wichtig ist die Trennung zwischen dem eigentlichen Content Management (Text, Audio, Video, strukturierte Daten …) und der Content Aufbereitung und Darstellung, dem Content Delivery.

Hier erfahren Sie mehr über Analytics https://intelligent-information.blog/de/diese-3-optimierungsszenarien-bietet-analytics/

 

Information Management Program / Project

Think Big, Start Small!

Schwerfällige Großprojekte mit hohem Aufwand und nicht vorhersehbarem Nutzen in der IT Dokumentation sind diskreditiert. Auch im Information Management gilt: Quick Wins schaffen. Und hierzu bedarf es agiler Methoden. Schneller und sichtbarer Nutzen steigert die Akzeptanz und gewinnt Unterstützung sowie Mitarbeit auf breiter Basis. Und das ist ein entscheidender Erfolgsfaktor: Der Erfolg von Information Management basiert auf Mitarbeit und Management Buy-in.

Projektansatz und Projektorganisation

Ob kleines Projekt oder Programm für die Enterprise IT – die Ansätze sind stets die gleichen. Es gibt immer mindestens einen Stakeholder und definierte Ziele sowie mindestens einen Information Manager (bei kleineren Projekten auch in Teilzeit), der das Projekt / Programm steuert. Schneller Nutzen, also schnell nutzbare Ergebnisse bedingen eine agile Vorgehensweise.

Information Management Projekte müssen große Teile der IT Mitarbeiter punktuell einbeziehen. Um die besser einbinden zu können, richtet sich das Projekt-Reporting nicht ausschließlich ans Management. Dashboards, die Erfolge und den Fortschritt im Projekt transparent und nach außen sichtbar machen, sorgen für eine breite Unterstützungsbasis. Gamification und Erfolgsgeschichten sind weitere Bausteine für Unterstützung durch möglichst große Teile der IT Organisation.

Information Management ist selten eine Herzensangelegenheit im IT Management. Das Buy-in muss kontinuierlich aufrecht erhalten werden. Hilfreich ist kann hier die Visualisierung der Zielerreichung über einen Maturity Index sein. Zudem sollte ein Vorgehensmodell zum Stakeholder Management existieren, mit dem das Interesse kontinuierlich hoch gehalten wird.

Projekt / Programm Phasen: Der avato Standard

Information Management ist kein klassisches Projekt mit Projektstart, Projektphasen und einem definierten Ende. IT Information Management ist ein klassisches Programm, vergleichbar mit CSI (Continual Service Improvement).

Planning

In der Planungsphase kann, wenn zwingend erforderlich, traditionelle Dokumentation weitergeführt werden. Neue Bereiche sollten aber nicht mehr begonnen werden. Die Planungsphase kann in kleinerem Rahmen nach 2 Wochen abgeschlossen sein und sollte auch in umfangreichen Programmen nicht länger als 2 bis 3 Monate dauern. Hier werden die wesentlichen Stakeholders identifiziert sowie deren Ziele aufeinander abgestimmt und priorisiert (Goals). Das Reporting sowie der kontinuierliche Stakeholder Management Prozess werden definiert.

Setup

Die Projektorganisation wird festgelegt, Methoden werden definiert und Information Manager übernehmen die Steuerung der Prozesse sowie die Koordination der Accountables und Responsibles (Methods). Der Umfang (Scope) wird festgelegt und erste Bereiche werden identifiziert, in denen traditionelle Dokumentation durch IT Information Management ersetzt wird.

Parallel wird ein Technologiekonzept erarbeitet (Technology Concept). Auch hier gilt: Think big, start small. Das Konzept sollte stets einen umfangreichen Ausbau von IT Information Management berücksichtigen, gleichzeitig aber Optionen bereitstellen, um sofort produktiv zu werden und Nutzen zu generieren.

Team- und Stakeholder-Management ist ein kontinuierlicher Prozess und der sollte bereits in dieser Phase aufgesetzt werden (Stakeholder Management). Wechselnde Stakeholders müssen eingebunden werden und Ziele werden regelmäßig angepasst. Ein IT Information Management Team umfasst alle Bereiche der IT und in allen Bereichen meist eine Vielzahl von Mitarbeitern. Stetige Information aller, sowie Gamification und aktives Einholen von Feedback durch Information Manager sind hierbei entscheidend für den Erfolg.

Implementierung

Vorgehensmodell und Methoden sind definiert, die Struktur für Information steht fest und IT Information Management ist vollständig in die Organisation und die Abläufe integriert. Der gesamte Prozess der Evaluierung von Vorhandenem, der Informationserstellung sowie der Governance und der Publizierung wird von Information Managern gesteuert.

Jetzt werden die detaillierte Struktur für Bereiche und die erforderlichen Inhalte festgelegt (Detailed Structure). Hierzu gehört auch die Festlegung von Informationsquellen und der Responsibles für alle Inhalte.

Erste Teile der technologischen Lösung werden implementiert (Technology Implementation) und parallel Metadaten sowie Templates für den Inhalt definiert.

ITIM Governance: Ongoing IM

Die letzte Phase ist weniger eine Projektphase als mehr ongoing IT Information Management. Neue Inhalte werden erstellt und publiziert, Bestehendes wird aktuell gehalten (Create, Maintain & Publish).

Technologische Weiterentwicklungen fließen in die Implementierung ein und bestehende Technologie wird kontinuierlich den Anforderungen angepasst (Technology Maintenance).

Wie im CSI unterliegt auch das Information Management einem stetigen Review- und Verbesserungsprozess (Review & Improve). Neue Ideen und Ansätze werden integriert, die Projekt- / Programm-Organisation sich verändernden Anforderungen angepasst.

Was ist wichtig für effektives und effiziente Information Governance?

Ein wichtiger Grundstein sind Projekt-Reporting und Dashboards sowie eine intensive Kommunikation zwischen Informationsnutzern (Information User) und Informationsbereitstellern (Information Providers). Trigger unterstützen dabei, Information effizient zu aktualisieren. Das können neue Stakeholders, Veränderungen in Stakeholder-Zielen, Anpassungen in Verträgen mit Lieferanten, organisatorische Veränderungen oder die Implementierung von IT Changes sein.

Weitere wichtige Instrumente sind Klickraten oder Bewertungen auf Seiten sowie Blogs oder Kommentare von Nutzern.

Summary

Und wie steht es mit dem oben beschriebenen Integrationsprojekt? Die Integration der IT ist dauerhaft gelungen. Sie waren schnell, haben sehr gute Entscheidungen auf der Basis Intelligenter Information getroffen. Zudem haben Sie das Projekt auch dazu genutzt, klassisches IT Dokumentenmanagement durch IT Information Management abzulösen. Ihre IT arbeitet nun agiler, die neuen und innovativen Ansätze schaffen Begeisterung in den Teams, immer mehr Bereiche der IT optimieren sich auf der Basis Intelligenter Information.

Useful Links

Garbage in, Garbage out: https://intelligent-information.blog/de/shit-in-shit-out-intelligente-information-schaffen-3-bedingungen/

Hier erfahren Sie mehr zu Methods: https://intelligent-information.blog/de/unbrauchbare-it-dokumentation-ist-kein-naturgesetz/

Hier erfahren Sie mehr über Analytics: https://intelligent-information.blog/de/diese-3-optimierungsszenarien-bietet-analytics/

Erfolgreiche Information Management Projekte in der IT (PDF)
Intelligente Information: Der richtige Ansatz ist entscheidend.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: März 2019
Autoren: Gregor Bister / Jennifer Gitt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

Capture oder Create? Das Dokumentationschaos in der Unternehmens-IT meistern

Capture oder Create? Das Dokumentationschaos in der Unternehmens-IT meistern

Herausforderungen bei der Dokumentation in der Unternehmens-IT. 

Die Aufwände bei der Dokumentation von IT steigen, die Qualität entspricht nicht den Ansprüchen. In vielen Unternehmen können selbst grundlegende Entscheidungen in der IT nicht mehr zeitnah auf einer ausreichenden Informationsbasis getroffen werden – Dokumentation ist Stückwert und deckt viele Anforderungen kaum noch ab.

Die Ursachen sind vielfältig, liegen jedoch vor allem in drei Bereichen. Zunächst handelt es sich um ein kulturelles Problem, doch dieses verstärkt sich durch das ausgeprägte Tool-Denken in der IT. Hinzu kommen methodische Defizite, die sich in diesem Umfeld dann besonders negativ auswirken.

Kulturelle Probleme

Dokumentation, oder besser gesagt Information Management, wird in der IT vollkommen vernachlässigt. Es existiert eine Kultur des Hortens und weniger des Teilens. Große Teile wichtiger Informationen sind nicht zugänglich oder existieren nur in den Köpfen. Es gibt allenfalls ein Dokumentenmanagement für Einzelzwecke, nie ein Information Management. Das Erstellen von neuer Information ist zudem immer nachgelagert und unterliegt bestenfalls formalen Qualitätsstandards – doch keinen inhaltlichen. Zusammenarbeit baut in der IT auf individuellem Wissen und persönlichem Austausch auf. Kollaboration mit Lieferanten und Kunden findet nur eingeschränkt und dann meist über Mail und Telefon statt.

Tool-Denken

In der IT wird stets betont, dass Tool-Entscheidungen und -Implementierungen immer der letzte Schritt im Prozess sind. Wie kommt es dann, dass es im Information Management und in der Dokumentation nahezu immer umgekehrt ist? Endlose Listen von User- und Team-Datashares, zahllose Wikis, SharePoint-Implementierungen, und die in nahezu allen Unternehmen aus dem Boden sprießenden Kollaborations-Tools zeugen vor allem von einem: Niemand stellt sich der Anforderung, ein Information Management für die IT aufzubauen, sondern die Begeisterung und das Engagement liegt allein bei der Implementierung neuer Tools.

Methodische Defizite

Im Information Management arbeitet die IT vollkommen methodenfrei. Selbst einfache Grundsätze, die in anderen Bereichen der IT eine Selbstverständlichkeit sind, finden keine Anwendung. Um nur ein paar Beispiele zu nennen:

  • Es existiert kein Anforderungsmanagement. Für jeden Zweck werden stets formal neue Informationen erstellt.
  • Es gibt keine „Information Governance“, und wenn, dann nur auf Basis formaler Kriterien.
  • Jeder darf publizieren, alles erscheint wichtig und gleichwertig. Dann folgt man beim Information Retrieval dem vermeintlichen Google-Ansatz, verzichtet jedoch auf Bewertungskriterien.
  • Je mehr, desto besser. Ein verbreitetes Denken ist, dass mit steigender Dokumentenmenge die Qualität steigt. In der Regel verhält es sich genau umgekehrt.

IT Information Management als neuer methodischer Ansatz

Die oben skizzierten Missstände lassen sich durch methodisches Vorgehen nach vorne gerichtet sicher abstellen. Aber wie geht man mit der „digitalen Deponie“ um? Wie filtert man Werthaltiges aus der Dokumentenflut – oder vereinfacht formuliert: wie räumt man auf? 

Um der digitalen Deponie Herr zu werden, muss das IT Information Management vollkommen neue Wege gehen. Um die methodischen Probleme zu überwinden, kann die IT dabei aus anderen Ansätzen lernen:

  • aiim Methoden im Business Information Management
  • tekom Methoden in der Technischen Dokumentation

aiim Methoden des Business Information Management: Die Association for Information and Image Management (aiim) ist eine a non-profit Mitgliedsorganisation. aiim bietet Trainings und Weiterbildung, sowie Marktstudien und Research im Bereich Information Management an. Zudem bietet sie Zertifizierungen für Information Professionals. Zu den wesentlichen Methoden, die im IT Information Management Anwendung finden sollten, gehören

  • „Capture“ (inklusive Analytics ), 
  • „Information Governance”
  • “Categorization / Classification Scheme” (Taxonomie)

Hier soll vor allem das Erfassen vorhandener Informationen (Capturing) im Mittelpunkt stehen.

Die Gesellschaft für Technische Kommunikation e.V. (tekom) ist ein Fach- und Berufsverband für technische Dokumentation. Ziel des Verbands ist, den Informations- und Erfahrungsaustausch sowie die Aus- und Weiterbildung seiner Mitglieder zu fördern und den Stellenwert der Technischen Kommunikation in Unternehmen und in der Öffentlichkeit zu erhöhen. Hier interessieren uns als Vorbild für das IT Information Management vor allem Standards in der technischen Dokumentation (beispielsweise iiRDS).

Wie oben ausgeführt, kann IT Information Management aus beiden Welten lernen. Wir wollen hier den Schwerpunkt darauf legen, die „digitale Deponie“ in der IT Dokumentation in einen Zustand zu überführen, in dem ausschließlich benötigte und valide Information in einer „geordneten Struktur“ (Taxonomie) abgelegt ist und einem Prozess der Information Governance unterliegt. Zwei methodische Ansätze können gewählt werden:

  • Capture, Evaluate – inkl. des Einsatzes von Analytics
  • Create

 

Capture, Evaluate

Nach aiim ist Capture die Methode, Informationen an ihrer Quelle aufzunehmen und in einen formalen Informationsmanagementprozess zu überführen. Auf IT Information Management bezogen bedeutet dies, vorhandene Dokumentation zu erfassen, sie auf Relevanz und Qualität zu bewerten und sie dann in ein Informationsportal zu überführen.

 

Stärken

Schwächen

  • Hat die vorhandene Dokumentation hohe Qualität und ist sie umfangreich, kann nach einer Anlaufphase schnell viel Information bereitgestellt werden.
  • Durch den Einsatz von Analytics können Dokumente in nahezu unbegrenzter Menge einbezogen werden.
  • Zeitaufwändiges Verfahren, Informationen und Dokumente müssen erst zusammengetragen werden.
  • Es fehlt in aller Regel der Zugriff auf „persönliche“ Information, also Dokumente, die in persönlich zugänglichen Bereichen abgelegt sind.
  • Die Orientierung an Zielen und „Scope“ kann leicht verlorengehen.
  • Hat die vorhandene Dokumentation eine geringe Qualität, wird ein hoher Aufwand für ein unzureichendes Ergebnis betrieben.

Create

In einem reinen Create-Ansatz verzichtet man zu Beginn bewusst auf jede Form des Sichtens und Bewerten – anders als im Capturing. Es werden ausschließlich Ziele sowie Scope und Struktur (Taxonomie) definiert. Auf allen Ebenen werden Verantwortlichkeiten festgelegt (Accountables & Responsibles) und benannt. Die Responsibles sind für den Inhalt verantwortlich und es wird ihnen überlassen, ob sie neuen Inhalt erstellen, der den Anforderungen gerecht wird, oder ob sie vorhandenen Inhalt nutzen, der der geforderten Qualität entspricht. 

 

Stärken

Schwächen

  • Schnelles Verfahren, ein Informationsportal kann bereits nach kurzer Zeit starten.
  • Zugriff auf „persönliche“ Information, also Dokumente die in persönlich zugänglichen Bereichen abgelegt ist.
  • Klarer Fokus: Orientierung an Zielen und Scope.
  • Die Bewertung wird auf die Responsibles verlagert. Die Auswahl dieser Personen bestimmt somit, welche vorhandene Information berücksichtigt wird und welche nicht.

 

Fazit

Im Prinzip entspricht die Wahl zwischen Create oder Capture der Entscheidung, der wir uns häufig im Leben stellen: Reparieren oder erneuern? Die Fragen, die wir dazu beantworten müssen, sind: In welchen Umgebungen kommen die Stärken und Schwächen beider Ansätze zum Tragen? Wo eignet sich welche Vorgehensweise? Wie können Hybridansätze aussehen? 

Um auf diese Fragestellungen antworten zu können, sind folgende Entscheidungskriterien geeignet:

  • Qualität und Umfang vorhandener Dokumentation
  • Stakeholders und Stakeholder Goals
  • Abgeleiteter Scope
  • truktur, sowie Anzahl der Accountables und Responsibles
  • Geplante Projektlaufzeiten

In der Unternehmens-IT existiert selten ein „entweder oder“. Dokumentation ist selten entweder durchgängig umfangreich, hochwertig und zugänglich oder nicht. Im Gegenteil: Information ist in Teilbereichen zugänglich, in anderen wiederum nicht. Manches lohnt sich zu reparieren, andere Teile sollte man besser neu bauen. Es wird in der Unternehmens-IT Bereiche geben, in denen der Capture (+Evaluate) Ansatz keinen Sinn macht, und gleichzeitig Bereiche, in denen Capture (+Evaluate) unter Einsatz von Analytics mindestens Klarheit über die Qualität des Vorhandenen verschafft.  

Ob Capture oder Create – ansatzübergreifend ist das Wichtigste: Vor der Entscheidung müssen die Stakeholders, deren Ziele, der Scope sowie die Verantwortlichkeiten festgelegt sein.

Capture oder Create? Das Dokumentationschaos in der Unternehmens-IT meistern (PDF)
Herausforderungen bei der Dokumentation in der Unternehmens-IT. 

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Mai 2018
Autoren: Gregor Bister, Jennifer Gitt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting
© avato consulting ag – Copyright 2019.
All Rights Reserved.

Diese 3 Optimierungsszenarien bietet Analytics

Diese 3 Optimierungsszenarien bietet Analytics

Optimierung im IT Information Management

In vielen Unternehmen lässt sich der Zustand der IT Dokumentation mit wenigen Sätzen so zusammenfassen: Zahlreiche wichtige Informationen sind entweder nicht vorhanden oder nicht zugänglich. Wenn Informationen vorliegen, sind sie selten eindeutig und zuverlässig und im „Information Retrieval (IR)“ stößt man mit der Zeit auf vollkommen unübersichtliche Mengen an unterschiedlichen Dokumenten. Um diesem auch als „Digitale Deponie“ bezeichneten Zustand Herr zu werden, muss eine neuer Ansatz gewählt werden.

Grundsätzlich bieten sich zwei Methoden an, um auf die erforderlichen Informationen zu reduzieren: “Create“ und „Capture“. Das Unternehmen deckt seinen Bedarf an Informationen also entweder dadurch, dass die Information neu erstellt („Create“), oder in der „digitalen Deponie“ gefunden und erfasst werden („Capture“). Analytics unterstützt vor allem den Capture-Ansatz, auf den wir uns im Folgenden konzentrieren werden. 

Die Bewertung im Capturing

Vorausgesetzt, Dokumente / Informationen sind in ausreichendem Maße vorhanden und werden auch bereitgestellt, ist die Analyse durch sequenzielles manuelles Durcharbeiten je nach Anzahl und Umfang kaum zu leisten. Kann Analytics hier eine Hilfestellung bieten? Ja – und zwar in der Bewertung, die wesentlicher Bestandteil des Capturing ist. Wir zeigen im weiteren Verlauf drei Modellansätze, wie Analytics die Bewertung unterstützt, und stellen ihre Stärken und Schwächen vor.

Zur Bemessung von Stärken und Schwächen der Modelle soll das Kriterium dienen, wie gut sie zur Beantwortung der folgenden Frage taugen: Wann ist ein Dokument im Sinne der Nutzung für ein Informationselement sehr gut brauchbar, brauchbar oder ungeeignet? In unserer Analyse ist ein Dokument genau dann relevant, wenn es relevante Informationen enthält.

Dabei bleibt der Aufwand, um das Dokument in Informationselemente umzuwandeln, im ersten Schritt unbeachtet. Analytics soll sich also zunächst auf die Bewertung („Evaluate“) beschränken und die Anzahl der Dokumente reduzieren, die dann in einem zweiten, automatischen / halbautomatischen / manuellen Schritt ganz oder in Teilen in ein Informationsportal einfließen.

Ergebnisse der automatisierten Bewertung

Was wird im ersten Schritt, der automatisierten Bewertung geleistet? Mit Hilfe von Analytics wird automatisiert zwischen potentiell relevanten und irrelevanten Informationen unterschieden. Hier erwarten wir gerade in Umgebungen mit einer „historisch gewachsenen“, hohen Anzahl von Dokumenten eine entscheidende Unterstützung.

Am Ende liegt ein Korpus von Dokumenten vor, deren Inhalt zumindest in Teilen relevant sein kann und vollständig oder teilweise in das Informationsportal übernommen werden sollte. 

Im darauffolgenden automatisierten / manuellen Schritt werden die Informationen aus den relevanten Dokumenten erfasst, an die gewünschte IT Information Management (ITIM) Struktur angepasst und zugeordnet. In einem weiteren Schritt werden die Dokumente durch Fachexperten (SMEs = Subject Matter Experts) auf inhaltliche Korrektheit geprüft, um an den verantwortlichen Information Manager zur Publizierung übergeben zu werden. Info Box

Analytics-Methoden

Um Informationen auf bestimmte Kriterien und zu überprüfen und zu bewerten, können grundsätzlich drei Analytics-Methoden eingesetzt werden:

  1. Information Retrieval
  2. Supervised Machine Learning
  3. Unsupervised Machine Learning

Information Retrieval

Beim sogenannten Information Retrieval (IR) wird ein Index erstellt, an den Anfragen mit unterschiedlichen Kriterien gestellt werden können. Der Query besteht nicht aus Suchbegriffen, sondern aus Werten der Kriterien. Diese sind im Kriterienkatalog festgehalten. Es können verschiedene Prioritäten gesetzt und Kriterien genutzt werden. So kann ein Dokument in einem Kontext schlecht abschneiden, in einem anderen jedoch relevant sein. Bei Änderung des Kriterienkatalogs muss der Index nur teilweise aktualisiert werden. Nach der Überprüfung werden die Informationselemente/Dokumente automatisch nach Trefferwahrscheinlichkeit geordnet.

Stärken:

  • Flexibel: Kann bei zusätzlichen Dokumenten, geänderten Anforderungen und neuen Erkenntnissen zu den Kriterien leicht angepasst werden
  • Skalierbar: Queries können entweder auf alle Dokumente definiert oder auf einzelne Untermengen zugeschnitten werden
  • Geringer Aufwand bei Erstellung: Kein Training des Tools nötig, und die Übertragung der Kriterien in angemessene Repräsentationen ist vergleichsweise unproblematisch
  • Übertragbarkeit: Engine und Ranking-Algorithmus können auf verschiedene Indizes angewendet werden, solange die Kriterien übereinstimmen

Schwächen:

  • Unklare Antwort: Es wird keine Klassifizierung in „relevant“ / „irrelevant“ vorgenommen. Das bedeutet, die Grenze muss anhand von definierten Richtlinien oder vom Fachexperten nach eigenem Ermessen gezogen werden.
  • Anwendungsaufwand: Der passende Query muss erarbeitet werden – gegebenenfalls nicht nur inhaltlich, sondern auch strukturell abhängig; dies erfordert Expertenwissen für eine angemessene Gewichtung der Kriterien. 

Supervised Machine Learning

Für die Bewertung von Dokumenten mit Hilfe von „Supervised Machine Learning“ werden einige der Dokumente vorher festgelegten Kategorien manuell zugeordnet. Anschließend wird eine Grenze zwischen den Kategorien berechnet, und alle übrigen Dokumente werden automatisch zugeordnet. Es kann eine Irrtumswahrscheinlichkeit für diese Zuordnung berechnet werden. 

Ändern sich der Kriterienkatalog oder die Definition des True Positive, muss die Grenze neu berechnet werden. Generell gilt: Eine hohe Varianz in den analysierten Dokumenten wirkt sich negativ auf die Precision aus. Durch Unterteilung in Teilkorpora kann dem entgegengewirkt werden – die Unterteilung ist jedoch aufwendig und erhöht die Gefahr des „Overfitting“.

Stärken:

  • Klare Klassifizierung: Exakte Grenzen und Irrtumswahrscheinlichkeiten
  • Kein Anwendungsaufwand: Komplettes Korpus wird automatisch kategorisiert
  • Ansatzoptimierung: Irrelevante Kriterien können recht leicht entdeckt werden
  • Übersicht über den Bestand: Kriterien können auch einzeln betrachtet werden, z.B. „70% der Dokumente werden zu selten überprüft, um verlässlich zu sein.“

Schwächen:

  • Erstellungsaufwand: Trainingskorpus muss zusammengestellt (Expertenwissen!) und manuell von SMEs eingeordnet werden. 
  • Korpusspezifisch: Grenze muss für jedes Korpus und nach jeder größeren Änderung des Korpus/der Definition von True Positive neu berechnet werden, nur einzelne Elemente sind möglicherweise übertragbar
  • Rechenintensiv: Machine Learning (ML) beansprucht viel Prozessorleistung 

Unsupervised Machine Learning

Zur Analyse mit Hilfe von „Unsupervised Machine Learning“ muss ein Weg gefunden werden, wie der Computer dazu gebracht werden kann, die Unterschiede zwischen relevanten und irrelevanten Dokumenten selbst zu erkennen. Als Anhaltspunkte sollen die Kriterien aus dem Kriterienkatalog dienen. Es muss daher für jedes Kriterium eine Repräsentation gefunden werden, die ML ermöglicht. Beispiele: Was haben relevante Dokumente gemeinsam? Ähnlich hohe Review-Frequenz? Keine Personenkontaktdaten enthalten? …

Stärken:

  • Geringer Erstellungsaufwand: Kein Training nötig
  • Feine Klassifizierung: Unterscheidung nach Relevanzgrad/-typ/-grund/-bereich/…

Schwächen:

  • Hoher Konzipierungsaufwand: Erarbeitung einer angemessenen Repräsentation der Relevanzkriterien komplex, zeitaufwendig und braucht Erfahrung & Expertenwissen
  • Hoher Interpretationsaufwand: Die erkannten Gruppen müssen manuell interpretiert werden und ändern sich mit jedem Durchlauf
  • Keine Übertragbarkeit: Weder Kategorisierungsgrenzen noch Interpretation sind auf andere Korpora übertragbar
  • Rechenaufwand: Braucht noch mehr Leistung als Supervised Machine Learning 

Fazit

Der Einsatz von Analytics bei der Bewertung von Dokumenten im Capturing ist immer dann empfohlen, wenn die Anzahl der zu sichtenden Dokumente hoch ist – und vor allem, wenn Dokumentation „historisch gewachsen“, ungewartet und somit unübersichtlich geworden ist. Die Voraussetzung ist stets, dass Dokumente in ausreichendem Umfang zum Zeitpunkt der Analyse zur Verfügung stehen. Um böse Überraschungen zu vermeiden, sollte vor dem Einsatz von Analytics prinzipiell geprüft werden, ob einer der folgenden Fälle vorliegt: 

  • Geringe Anzahl von Dokumenten
  • Wenige Dokumente und dazu in verschiedenen Sprachen
  • Mischung aus unterschiedlichen Dokumenttypen: Text, Tabelle, Grafik, Ton oder Video

Ist dies nicht der Fall, ergeben sich daraus keine Grenzen für die computergestützte Analyse, sodass die passende Analytics-Methode gewählt werden kann.

Das Fazit aus der Betrachtung der drei verschiedenen Ansätze: Supervised Machine Learning ist in vielen Fällen der geeignetste Ansatz. Wegen der klaren Klassifizierung und dem geringeren Bedarf an Expertenwissen in der Anwendung im Projekt ist er dem Information Retrieval vorzuziehen. Der Aufwand, ein Trainingskorpus zusammenzustellen, ist immer noch deutlich geringer, als alle Dokumente per Hand zu prüfen.

Diese 3 Optimierungsszenarien bietet Analytics (PDF)
Optimierung im IT Information Management

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Mai 2018
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting
© avato consulting ag – Copyright 2019.
All Rights Reserved.

Cloud Transformation und Operation

Cloud Transformation und Operation

Ohne detailliertes Wissen über die IT eine immense Herausforderung

Cloud-Nutzung gehört heute in fast allen Unternehmen zu den strategischen Zielen in der IT. Verbunden sind hiermit im wesentlichen Flexibilisierung sowie Kostensenkung bei der IT Infrastruktur und bei der Nutzung von Standardanwendungen. Zudem versprechen sich fast alle Unternehmen weitere strategische Verbesserungen. So gilt in vielen die Einführung von Clouds beispielsweise als eine wesentliche Voraussetzung für DevOps-Ansätze.

Doch obwohl der Markt heute zu jeder denkbaren Anforderung eine Vielzahl von Lösungen anbietet, hinkt die Cloud Transformation in fast allen Unternehmen den selbst gesetzten Zielen hinterher. Die Gründe hierfür sind vielfältig und unterscheiden sich im Einzelnen beträchtlich. Zu unterscheiden ist bei der Ursachenforschung immer zwischen unterschiedlichen Service-Modellen (IaaS, PaaS, SaaS) und Deployment-Modellen (Public oder Private Cloud). Zudem, und das wird in der Praxis häufig vernachlässigt, ist immer zwischen der Cloud Transformation und dem Betrieb von Anwendungen in einem Cloud-Umfeld zu unterscheiden.

Cloud Service Modelle

  • IaaS
    Unter IaaS versteht man Services, die sich im Wesentlichen auf Server- (CPU, Memory) und Storage-Leistungen beziehen.
  • PaaS
    Unter PaaS versteht man Services, die eine Anwendungsinfrastruktur zur Verfügung stellen. Das können Datenbanken, Applikationsserver, Webserver oder vollständig integrierte Laufzeit- und Entwicklungsumgebung sein.
  • SaaS
    Unter SaaS versteht man ein Modell, bei dem komplette Anwendungen sowie die zugrundeliegende Anwendungsinfrastruktur als Service zur Verfügung gestellt werden.

Cloud Deployment-Modelle

  • Public Cloud (oft auch als External Cloud bezeichnet)
    Unterschiedliche Nutzer greifen auf geteilte Ressourcen zu. Sie sind organisatorisch nicht verbunden. Eigentümer und Betreiber einer Public Cloud ist ein externer IT-Dienstleister.
  • Virtual Private Cloud
    Spezialfall der Public Cloud. Dem Nutzer wird durch geeignete Sicherheitsmechanismen eine abgeschottete und individualisierte IT-Umgebung zur Verfügung gestellt.
  • Private Cloud (Internal Cloud)
    Leistungen stehen nur einer festgelegten unternehmensinternen Nutzergruppe zur Verfügung. Management und Betrieb werden intern erbracht.
  • Hybrid Cloud
    Eine Hybrid Cloud ist kein eigener Cloud-Typ, sondern eine Mischung aus Private Clouds und Public Clouds. 

Use Cases Cloud Nutzung

Welche Use Cases der Cloud-Nutzung findet man heute in der Praxis? Ausgangspunkt aller Betrachtungen sind die unternehmenseigenen Anwendungen. Aus dieser Perspektive betrachten wir hier ein Modell, bei dem wir bewusst zwischen den Ebenen PaaS und IaaS unterscheiden. Unternehmenseigene Anwendungen haben somit entweder Schnittstellen zu Cloud-basierten Anwendungen oder sie basieren auf konventionellen und / oder Cloud-basierten Plattform-Services wie Web, Datenbank oder Applikationsserver. Diese Plattformen sind entweder Private Cloud oder Public Cloud und beruhen wiederum auf Infrastruktur-Services, die über Netzwerke gekoppelt sind (siehe Grafik, Link am Anfang des Artikels).

Ausgehend von diesem Modell findet man heute im Grunde alle Spielarten von Cloud Nutzung auch in der Praxis, wobei einige Modelle verbreiteter sind. Hierzu gehören vor allem:

  • Nutzung von Public Cloud SaaS in Kombination mit unternehmenseigenen Anwendungen
  • Nutzung von PaaS für unternehmenseigene Anwendungen sowohl in der Private als auch in der Public Cloud
  • Nutzung von IaaS sowohl in der Private als auch in der Public Cloud für unternehmenseigene Anwendungsinfrastrukturen (Web-Server, App-Server, Datenbanken)

Wir konzentrieren uns hier auf zwei verbreitete Anwendungsbeispiele, wenn wir die Herausforderungen zum einen in der Cloud-Transition und zum anderen beim Operations in hybriden Umgebungen betrachten.

  • Die Nutzung von Public Cloud SaaS in Kombination mit unternehmensinternen Anwendungen wie beispielsweise Salesforce oder Azure.
  • Die Nutzung von PaaS sowohl in der Private Cloud als auch in einer Public Cloud, beispielsweise für Datenbanken, Web- oder Applikations-Server.

Der Diskussion um Transformation und Operation soll eine kurze Übersicht der Herausforderungen speziell in einer Public Cloud-Lösung vorangestellt werden. 

Kriterienkatalog: Herausforderungen Cloud

Nahezu jedes Beratungsunternehmen drängt in den Markt zum Cloud Consulting, die Literatur zu den besonderen Herausforderungen der Public Cloud füllt Bibliotheken und kein Anbieter verzichtet heute auf Cloud-Angebote. Betrachtet man die Studien, so zeigen sich immer wieder die gleichen Kriterien als entscheidend für den Erfolg eine Cloud-Strategie, wobei die Herausforderungen bei der Nutzung von Public Clouds ungleich größer sind als bei Private Clouds. Zentrale Beurteilungskriterien und Herausforderungen lassen sich in wenige Bereiche clustern. 

 

Service Strategy and Vendor Decision:

Cloud Strategy

Jede Cloud Strategie muss sich an den Geschäftszielen orientieren, beginnt also mit einer Business-Strategie in der Chancen und Risiken abgewogen werden.

Portability

Portabilität zwischen unterschiedlichen Anbietern. Daten- und Service-Portabilität sicherzustellen ist eines der wesentlichen Ziele.

Transparency

Tranzparenz von

  • Geleisteten Services und abgerechneten Services (inklusive Lizenzen)
  • Qualitätssicherung und Monitoring der vereinbarten SLA
  • Art und Ort der Datenverarbeitung


IT Governance and IT Organization:

Governance Organization

Die Transformation der IT Organisation von einem IT Service Provider in eine Governance-Organization erfordert

  • Veränderungen beim Personal und in Prozessen: Viele IT-Organisationen haben möglicherweise nicht die richtigen Tools oder Ressourcen (Skills, Erfahrungen und Expertise) um eine Cloud Lösung zu implementieren, zu überwachen und zu managen
  • Veränderungen im Management sind erforderlich

Service Usage and Control

Effektivität in der Nutzung von Service und der Kontrolle

  • Verträge inklusive Haftungsfragen
  • Kontrolle der Services durch Nutzer
  • Governance / Eskalationsprozeduren

Costs

Effiziente und effektive Transition Strategie:

  • Ein sinnvoller Ansatz ist, mit wenig häufig genutzten und weniger komplexen Services zu beginnen
  • In der Regel steigen die Kosten für Performance und Bandbreite

Security, Data Protection and Compliance

Information Security

Security, Data Protection und Compliance sind im Grunde keine vornehmliche Frage einer Cloud-Umgebung, sondern es ist mehr eine Frage des Providers.

  • Identity und Access Management
  • Privacy und Integrity
  • Access Control, Logging und Vorbeugung gegen Angriffe
  • Verification und Certification

Compliance

Compliance mit regulatorischen Anforderungen


Interoperability:

Interoperability

Migration in oder aus der Cloud sowie die Anbindung von Legacy Systems an Cloud Anwendungen (zudem die Fähigkeit, unterschiedliche Anbieter zu integrieren).

Integration

Daten- und ITSM Prozess- Integration


Service Quality:

Service Provisioning

Effizienz im Service Provisioning:

  • Nutzung von Development Tools und Komponenten
  • Provisioning und Deployment 
  • Aufbau skalierbarer Architekturen 
  • Ressourcenmanagement und Flexibilität

Technological Infrastructure

Bevor neue Cloud-basierte Services evaluiert werden, sollte geprüft werden, ob folgende Voraussetzungen erfüllt sind:

  • Gebäudeinfrastruktur
  • Mehrere zuverlässige ISPs
  • Erforderliche Redundanzen um Ausfälle zu verhindern

Architecture

Lassen sich die Cloud Services anpassen?

Availability and Reliability

Wie bei der Security: Availability und Reliability sind keine Frage der Cloud, sondern des Cloud Providers

Cloud Transformation

Was sind die größten Herausforderungen bei der Transformation von Anwendungen in eine Cloud? Wir wollen uns hier auf die oben genannten Service-Modelle (Nutzung von Public Cloud SaaS in Kombination mit unternehmensinternen Anwendungen sowie Nutzung von PaaS sowohl in der Private Cloud als auch in einer Public Cloud) konzentrieren und IaaS nur vereinzelt in die Betrachtung einbeziehen. Grundsätzlich gilt, dass das Deployment-Modell Public Cloud deutlich höhere Komplexität zeigt als eine Private Cloud, in wenigen Fällen aber auch einfacher zu handhaben sein kann. Höhere Komplexität entsteht vor allem bei Integration, Deployment, Interoperability sowie Security, geringere Komplexität zeigt in aller Regel das Provisioning. 

 

Service Strategy and Vendor Decision

Beide erfolgen vor der Transformation und ist in der eigentlichen Transformation nicht mehr entscheidend.

IT Governance and IT Organization

Ongoing Governance beginnt selbstredend nach einer Transformation, jedoch ergeben sich bereits während der Transformation Änderungsanforderungen an die IT Organisation. 

Security, Data Protection and Compliance

Wesentliche Aspekte spielen während der Transformation eine eher geringe Rolle. Andere wie Identity Management sind bereits während der Transition von entscheidender Bedeutung.

Interoperability

Interoperability erfährt in einer Transformation ihren ersten Praxistest.

Service Quality

Service Quality ist in der Transformation auf den reinen Transformation-Support beschränkt.

Eine der wesentlichen Voraussetzungen für die erfolgreiche Transformation in eine Cloud ist die Information zu der vorhandenen und für die Transformation vorgesehenen IT. Nur auf ausreichender Informationsbasis lassen sich effiziente und effektive Transformationsstrategien entwickeln.

Cloud Operation

Security-Fragen, die Integration in ITSM-Prozesse, IT Governance sowie Data Integration sind nur einige Stichpunkte, unter denen man den Betrieb Cloud-basierter Anwendungen sowie der Anwendungsinfrastrukturen betrachten muss.

Service Strategy and Vendor Decision

Erfolgt vor Transition und Operation und ist in der eigentlichen Operation nicht mehr entscheidend.

IT Governance and IT Organization

Die Organisation wird vor allem bei Public Cloud Modell vom Service Provider zu einer Governance und Vendor Management Organisation. 

Security, Data Protection and Compliance

Security, Data Protection and Compliance sind im Operations mit die größten Herausforderungen,  vor allem wenn Public Cloud Modelle und/oder unterschiedliche Cloud-Plattformen genutzt werden.

Interoperability

Interoperability ist im Operations ähnlich wie Security, Data Protection and Compliance eine der größten Herausforderungen. Zu den wesentlichen Herausforderungen gehört hier, dass man nicht die Fähigkeit zum Wechsel auf andere Clouds verliert. 

Service Quality

Cloud-Plattformen sind selbstredend immer Shared-Plattformen. Die angebotenen Services sind somit stets stark standardisiert und unterliegen festgelegten Updatezyklen und Maintenance Regeln sowie eingeschränkten und standardisierten Features.

Nach der Transformation rücken in der Cloud Operation andere Herausforderungen in den Vordergrund. Aber auch hier gilt, dass zuverlässige Informationen vor allem bei Public Cloud Nutzung ein entscheidender Erfolgsfaktor sind. IT Governance, Security und Data Protection sowie Interoperability basieren ganz wesentlich auf der Zuverlässigkeit und der Verfügbarkeit von Informationen.

Zusammenfassung

Cloud Transformation hinken in fast allen Unternehmen den selbst gesetzten Zielen hinterher. Die Herausforderungen sind vielfältig und unterscheiden sich in Transformation und der Operation-Phase. In der Public Cloud sind die Anforderungen in beiden Phasen wesentlich höher (siehe Grafik, Link am Anfang des Artikels). 

Public Clouds verändern die Sourcing-Strategien der Unternehmen immer stärker und forcieren ganz wesentlich einen Trend, bei dem IT-Verantwortliche sich immer stärker vom Betriebsmanager einer Infrastruktur zu einem Supply Chain Manager interner und externer Service Provider entwickeln. Der Schwerpunkt der Aufmerksamkeit verschiebt sich zum Information Management, konzentriert auf Geschäftsanforderungen unter Einbeziehung von Kunden, Geschäftspartnern und Lieferanten.

  • Ohne zuverlässige Informationen zu den Geschäftsanforderungen und zur aktuellen IT sowie einem darauf basierenden Konzept macht Cloud Transformation keinen Sinn.
  • Interoperability ist die wesentliche Voraussetzung für eine erfolgreiche Governance. Hierzu gehört vor allem auch ein effektives und effizientes Capacity- / Consumption-Management. 
  • Selfservice-Portale und schnelles Provisioning ersetzen keine Cloud-Strategie.

Haben Sie Fragen oder Feedback? Wir sind erreichbar unter: marketing@avato.net

 

Impressum

Datum: Mai 2018
Autoren: avato
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting