Innovation schafft Intelligente Information

Innovation schafft Intelligente Information

Erfolgreiche Information Management Projekte in der IT

Intelligente Information: Der richtige Ansatz ist entscheidend

IT Dokumentation ist aktuell und zuverlässig, die Qualität ist hoch und benötigte Informationen stehen sofort zur Verfügung. Intelligente Informationen unterstützen stets bei der Entscheidungsfindung in strategischen Fragestellungen, beispielsweise bei Entscheidungen zu Cloud-Transformationen oder bei der Integration / Separierung von IT Organisationen.

Nicht realistisch? Und wenn Intelligente Information in der IT doch funktioniert?

Stellen Sie sich beispielsweise vor, Ihr Unternehmen kauft ein anderes und Sie sind für die Integration der IT verantwortlich. Wie setzten Sie Projekte/Programme auf, um intelligente Information schnell über die noch unbekannte IT Landschaft bereitzustellen? Wie schaffen Sie schnell eine gute Basis für Management-Entscheidungen und eine dauerhaft tragfähige Integration. 

Sicher ist, dass der Ansatz klassischer Dokumentenmanagement- oder ECM-Projekte nicht funktioniert. Sie sind zu langatmig und schwerfällig, die Aufwände viel zu hoch und die Ergebnisse reichen bei Weitem nicht aus.

Ein neuer Ansatz ist erforderlich. Information Management muss modular aus kleineren Projekten aufgebaut sein, die Projekte müssen agil arbeiten, innovative Methoden und zeitgemäße technologische Ansätze sind erforderlich, beispielsweise Audio- und Video-Integration, intelligente Suchfunktionen, Chatbots sowie Text-Analytics.

Information Management in der IT muss sich nach kurzer Zeit rechnen, der Business Case muss sich spätestens nach wenigen Wochen einstellen. Zudem muss sich strategischer Mehrwert unmittelbar ergeben. Um diesen Nutzen langfristig zu erhalten, muss Intelligente Information wartbar sein, also mit geringem Aufwand aktuell gehalten werden können. 

Wichtige Begriffe im IT Information Management

Accountable: Derjenige, der für die korrekte und gründliche Erledigung der Leistung oder Aufgabe verantwortlich ist, und der die Arbeit an die Responsibles delegiert. Es darf nur ein Accountable für jede Aufgabe oder Leistung angegeben sein.

Capture: Nach aiim (Association of Image and Information Management) ist Capture die Methode, Informationen an ihrer Quelle aufzunehmen und in einen formalen Informationsmanagementprozess zu überführen.

Create: Bei der Methode Create geht man davon aus, dass keine vertrauenswürdige Information vorliegt und dass Information deshalb neu erzeugt werden muss.

Information Governance: Sichert langfristig die Effizienz und Qualität von Informationen.

Information Unit: Information Units (IUs) sind die kleinsten sinnvollen Einheiten von Informationen, die nicht weiter sinnvoll unterteilt werden können. Sie können aus Kombinationen verschiedener Dateiformate bestehen (z.B. html, mp3, mp4) und sind angereichert mit Metadaten.

Methods: Methoden des IT Information Management, wie beispielsweise „Capture“ oder „Create“.

Responsible: Derjenige, der die Arbeit leistet, um die Aufgabe zu erfüllen. Es gibt immer mindestens einen Responsible. Auch wenn Aufgaben an andere delegiert werden, kann ein Einzelner alleiniger Responsible bleiben.

Stakeholder: Stakeholders sind beteiligte Akteure und Interessenvertreter. In der Regel sind dies neben der eigentlichen Unternehmens-IT auch IT Governance und IT Audit.

Innovative Ansätze im IT Information Management
Vollkommen neue und innovative Ansätze bei Information Management Methoden und bei den genutzten Technologien sind erforderlich. IT Information Management muss simplifiziert werden – nicht nur in der Nutzung, sondern vor allem in dem Erstellen („Create“) und der Bearbeitung von Informationen, sowie in der Information Governance.

Methodisch von anderen lernen: aiim, Tekom

Methodisch kann IT Information Management das Beste aus zwei Welten kombinieren: Dem Business Information Management und der Technischen Dokumentation. Die wesentlichen Elemente sind Taxonomien und die Nutzung von Information Units anstelle traditioneller Dokumente.

Elemente sind Taxonomien und die Nutzung von Information Units anstelle traditioneller Dokumente.

Neue technologische Ansätze schaffen neue Perspektiven

 Technologische Komponenten sind die Bereitstellung von Informationen in einem Portal mit Web/mobilem Zugang, die Nutzung von Text-Analytics und intelligenter Suchfunktionen, Gamification und Interaktion, Text-to-Speech sowie Speech-to-Text, Chatbots, Video und Audio.

Besonders wichtig ist die Trennung zwischen dem eigentlichen Content Management (Text, Audio, Video, strukturierte Daten …) und der Content Aufbereitung und Darstellung, dem Content Delivery.

Hier erfahren Sie mehr über Analytics https://intelligent-information.blog/de/diese-3-optimierungsszenarien-bietet-analytics/

 

Information Management Program / Project

Think Big, Start Small!

Schwerfällige Großprojekte mit hohem Aufwand und nicht vorhersehbarem Nutzen in der IT Dokumentation sind diskreditiert. Auch im Information Management gilt: Quick Wins schaffen. Und hierzu bedarf es agiler Methoden. Schneller und sichtbarer Nutzen steigert die Akzeptanz und gewinnt Unterstützung sowie Mitarbeit auf breiter Basis. Und das ist ein entscheidender Erfolgsfaktor: Der Erfolg von Information Management basiert auf Mitarbeit und Management Buy-in.

Projektansatz und Projektorganisation

Ob kleines Projekt oder Programm für die Enterprise IT – die Ansätze sind stets die gleichen. Es gibt immer mindestens einen Stakeholder und definierte Ziele sowie mindestens einen Information Manager (bei kleineren Projekten auch in Teilzeit), der das Projekt / Programm steuert. Schneller Nutzen, also schnell nutzbare Ergebnisse bedingen eine agile Vorgehensweise.

Information Management Projekte müssen große Teile der IT Mitarbeiter punktuell einbeziehen. Um die besser einbinden zu können, richtet sich das Projekt-Reporting nicht ausschließlich ans Management. Dashboards, die Erfolge und den Fortschritt im Projekt transparent und nach außen sichtbar machen, sorgen für eine breite Unterstützungsbasis. Gamification und Erfolgsgeschichten sind weitere Bausteine für Unterstützung durch möglichst große Teile der IT Organisation.

Information Management ist selten eine Herzensangelegenheit im IT Management. Das Buy-in muss kontinuierlich aufrecht erhalten werden. Hilfreich ist kann hier die Visualisierung der Zielerreichung über einen Maturity Index sein. Zudem sollte ein Vorgehensmodell zum Stakeholder Management existieren, mit dem das Interesse kontinuierlich hoch gehalten wird.

Projekt / Programm Phasen: Der avato Standard

Information Management ist kein klassisches Projekt mit Projektstart, Projektphasen und einem definierten Ende. IT Information Management ist ein klassisches Programm, vergleichbar mit CSI (Continual Service Improvement).

Planning

In der Planungsphase kann, wenn zwingend erforderlich, traditionelle Dokumentation weitergeführt werden. Neue Bereiche sollten aber nicht mehr begonnen werden. Die Planungsphase kann in kleinerem Rahmen nach 2 Wochen abgeschlossen sein und sollte auch in umfangreichen Programmen nicht länger als 2 bis 3 Monate dauern. Hier werden die wesentlichen Stakeholders identifiziert sowie deren Ziele aufeinander abgestimmt und priorisiert (Goals). Das Reporting sowie der kontinuierliche Stakeholder Management Prozess werden definiert.

Setup

Die Projektorganisation wird festgelegt, Methoden werden definiert und Information Manager übernehmen die Steuerung der Prozesse sowie die Koordination der Accountables und Responsibles (Methods). Der Umfang (Scope) wird festgelegt und erste Bereiche werden identifiziert, in denen traditionelle Dokumentation durch IT Information Management ersetzt wird.

Parallel wird ein Technologiekonzept erarbeitet (Technology Concept). Auch hier gilt: Think big, start small. Das Konzept sollte stets einen umfangreichen Ausbau von IT Information Management berücksichtigen, gleichzeitig aber Optionen bereitstellen, um sofort produktiv zu werden und Nutzen zu generieren.

Team- und Stakeholder-Management ist ein kontinuierlicher Prozess und der sollte bereits in dieser Phase aufgesetzt werden (Stakeholder Management). Wechselnde Stakeholders müssen eingebunden werden und Ziele werden regelmäßig angepasst. Ein IT Information Management Team umfasst alle Bereiche der IT und in allen Bereichen meist eine Vielzahl von Mitarbeitern. Stetige Information aller, sowie Gamification und aktives Einholen von Feedback durch Information Manager sind hierbei entscheidend für den Erfolg.

Implementierung

Vorgehensmodell und Methoden sind definiert, die Struktur für Information steht fest und IT Information Management ist vollständig in die Organisation und die Abläufe integriert. Der gesamte Prozess der Evaluierung von Vorhandenem, der Informationserstellung sowie der Governance und der Publizierung wird von Information Managern gesteuert.

Jetzt werden die detaillierte Struktur für Bereiche und die erforderlichen Inhalte festgelegt (Detailed Structure). Hierzu gehört auch die Festlegung von Informationsquellen und der Responsibles für alle Inhalte.

Erste Teile der technologischen Lösung werden implementiert (Technology Implementation) und parallel Metadaten sowie Templates für den Inhalt definiert.

ITIM Governance: Ongoing IM

Die letzte Phase ist weniger eine Projektphase als mehr ongoing IT Information Management. Neue Inhalte werden erstellt und publiziert, Bestehendes wird aktuell gehalten (Create, Maintain & Publish).

Technologische Weiterentwicklungen fließen in die Implementierung ein und bestehende Technologie wird kontinuierlich den Anforderungen angepasst (Technology Maintenance).

Wie im CSI unterliegt auch das Information Management einem stetigen Review- und Verbesserungsprozess (Review & Improve). Neue Ideen und Ansätze werden integriert, die Projekt- / Programm-Organisation sich verändernden Anforderungen angepasst.

Was ist wichtig für effektives und effiziente Information Governance?

Ein wichtiger Grundstein sind Projekt-Reporting und Dashboards sowie eine intensive Kommunikation zwischen Informationsnutzern (Information User) und Informationsbereitstellern (Information Providers). Trigger unterstützen dabei, Information effizient zu aktualisieren. Das können neue Stakeholders, Veränderungen in Stakeholder-Zielen, Anpassungen in Verträgen mit Lieferanten, organisatorische Veränderungen oder die Implementierung von IT Changes sein.

Weitere wichtige Instrumente sind Klickraten oder Bewertungen auf Seiten sowie Blogs oder Kommentare von Nutzern.

Summary

Und wie steht es mit dem oben beschriebenen Integrationsprojekt? Die Integration der IT ist dauerhaft gelungen. Sie waren schnell, haben sehr gute Entscheidungen auf der Basis Intelligenter Information getroffen. Zudem haben Sie das Projekt auch dazu genutzt, klassisches IT Dokumentenmanagement durch IT Information Management abzulösen. Ihre IT arbeitet nun agiler, die neuen und innovativen Ansätze schaffen Begeisterung in den Teams, immer mehr Bereiche der IT optimieren sich auf der Basis Intelligenter Information.

Useful Links

Garbage in, Garbage out: https://intelligent-information.blog/de/shit-in-shit-out-intelligente-information-schaffen-3-bedingungen/

Hier erfahren Sie mehr zu Methods: https://intelligent-information.blog/de/unbrauchbare-it-dokumentation-ist-kein-naturgesetz/

Hier erfahren Sie mehr über Analytics: https://intelligent-information.blog/de/diese-3-optimierungsszenarien-bietet-analytics/

Erfolgreiche Information Management Projekte in der IT (PDF)
Intelligente Information: Der richtige Ansatz ist entscheidend.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: März 2019
Autoren: Gregor Bister / Jennifer Gitt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

Capture oder Create? Das Dokumentationschaos in der Unternehmens-IT meistern

Capture oder Create? Das Dokumentationschaos in der Unternehmens-IT meistern

Herausforderungen bei der Dokumentation in der Unternehmens-IT. 

Die Aufwände bei der Dokumentation von IT steigen, die Qualität entspricht nicht den Ansprüchen. In vielen Unternehmen können selbst grundlegende Entscheidungen in der IT nicht mehr zeitnah auf einer ausreichenden Informationsbasis getroffen werden – Dokumentation ist Stückwert und deckt viele Anforderungen kaum noch ab.

Die Ursachen sind vielfältig, liegen jedoch vor allem in drei Bereichen. Zunächst handelt es sich um ein kulturelles Problem, doch dieses verstärkt sich durch das ausgeprägte Tool-Denken in der IT. Hinzu kommen methodische Defizite, die sich in diesem Umfeld dann besonders negativ auswirken.

Kulturelle Probleme

Dokumentation, oder besser gesagt Information Management, wird in der IT vollkommen vernachlässigt. Es existiert eine Kultur des Hortens und weniger des Teilens. Große Teile wichtiger Informationen sind nicht zugänglich oder existieren nur in den Köpfen. Es gibt allenfalls ein Dokumentenmanagement für Einzelzwecke, nie ein Information Management. Das Erstellen von neuer Information ist zudem immer nachgelagert und unterliegt bestenfalls formalen Qualitätsstandards – doch keinen inhaltlichen. Zusammenarbeit baut in der IT auf individuellem Wissen und persönlichem Austausch auf. Kollaboration mit Lieferanten und Kunden findet nur eingeschränkt und dann meist über Mail und Telefon statt.

Tool-Denken

In der IT wird stets betont, dass Tool-Entscheidungen und -Implementierungen immer der letzte Schritt im Prozess sind. Wie kommt es dann, dass es im Information Management und in der Dokumentation nahezu immer umgekehrt ist? Endlose Listen von User- und Team-Datashares, zahllose Wikis, SharePoint-Implementierungen, und die in nahezu allen Unternehmen aus dem Boden sprießenden Kollaborations-Tools zeugen vor allem von einem: Niemand stellt sich der Anforderung, ein Information Management für die IT aufzubauen, sondern die Begeisterung und das Engagement liegt allein bei der Implementierung neuer Tools.

Methodische Defizite

Im Information Management arbeitet die IT vollkommen methodenfrei. Selbst einfache Grundsätze, die in anderen Bereichen der IT eine Selbstverständlichkeit sind, finden keine Anwendung. Um nur ein paar Beispiele zu nennen:

  • Es existiert kein Anforderungsmanagement. Für jeden Zweck werden stets formal neue Informationen erstellt.
  • Es gibt keine „Information Governance“, und wenn, dann nur auf Basis formaler Kriterien.
  • Jeder darf publizieren, alles erscheint wichtig und gleichwertig. Dann folgt man beim Information Retrieval dem vermeintlichen Google-Ansatz, verzichtet jedoch auf Bewertungskriterien.
  • Je mehr, desto besser. Ein verbreitetes Denken ist, dass mit steigender Dokumentenmenge die Qualität steigt. In der Regel verhält es sich genau umgekehrt.

IT Information Management als neuer methodischer Ansatz

Die oben skizzierten Missstände lassen sich durch methodisches Vorgehen nach vorne gerichtet sicher abstellen. Aber wie geht man mit der „digitalen Deponie“ um? Wie filtert man Werthaltiges aus der Dokumentenflut – oder vereinfacht formuliert: wie räumt man auf? 

Um der digitalen Deponie Herr zu werden, muss das IT Information Management vollkommen neue Wege gehen. Um die methodischen Probleme zu überwinden, kann die IT dabei aus anderen Ansätzen lernen:

  • aiim Methoden im Business Information Management
  • tekom Methoden in der Technischen Dokumentation

aiim Methoden des Business Information Management: Die Association for Information and Image Management (aiim) ist eine a non-profit Mitgliedsorganisation. aiim bietet Trainings und Weiterbildung, sowie Marktstudien und Research im Bereich Information Management an. Zudem bietet sie Zertifizierungen für Information Professionals. Zu den wesentlichen Methoden, die im IT Information Management Anwendung finden sollten, gehören

  • „Capture“ (inklusive Analytics ), 
  • „Information Governance”
  • “Categorization / Classification Scheme” (Taxonomie)

Hier soll vor allem das Erfassen vorhandener Informationen (Capturing) im Mittelpunkt stehen.

Die Gesellschaft für Technische Kommunikation e.V. (tekom) ist ein Fach- und Berufsverband für technische Dokumentation. Ziel des Verbands ist, den Informations- und Erfahrungsaustausch sowie die Aus- und Weiterbildung seiner Mitglieder zu fördern und den Stellenwert der Technischen Kommunikation in Unternehmen und in der Öffentlichkeit zu erhöhen. Hier interessieren uns als Vorbild für das IT Information Management vor allem Standards in der technischen Dokumentation (beispielsweise iiRDS).

Wie oben ausgeführt, kann IT Information Management aus beiden Welten lernen. Wir wollen hier den Schwerpunkt darauf legen, die „digitale Deponie“ in der IT Dokumentation in einen Zustand zu überführen, in dem ausschließlich benötigte und valide Information in einer „geordneten Struktur“ (Taxonomie) abgelegt ist und einem Prozess der Information Governance unterliegt. Zwei methodische Ansätze können gewählt werden:

  • Capture, Evaluate – inkl. des Einsatzes von Analytics
  • Create

 

Capture, Evaluate

Nach aiim ist Capture die Methode, Informationen an ihrer Quelle aufzunehmen und in einen formalen Informationsmanagementprozess zu überführen. Auf IT Information Management bezogen bedeutet dies, vorhandene Dokumentation zu erfassen, sie auf Relevanz und Qualität zu bewerten und sie dann in ein Informationsportal zu überführen.

 

Stärken

Schwächen

  • Hat die vorhandene Dokumentation hohe Qualität und ist sie umfangreich, kann nach einer Anlaufphase schnell viel Information bereitgestellt werden.
  • Durch den Einsatz von Analytics können Dokumente in nahezu unbegrenzter Menge einbezogen werden.
  • Zeitaufwändiges Verfahren, Informationen und Dokumente müssen erst zusammengetragen werden.
  • Es fehlt in aller Regel der Zugriff auf „persönliche“ Information, also Dokumente, die in persönlich zugänglichen Bereichen abgelegt sind.
  • Die Orientierung an Zielen und „Scope“ kann leicht verlorengehen.
  • Hat die vorhandene Dokumentation eine geringe Qualität, wird ein hoher Aufwand für ein unzureichendes Ergebnis betrieben.

Create

In einem reinen Create-Ansatz verzichtet man zu Beginn bewusst auf jede Form des Sichtens und Bewerten – anders als im Capturing. Es werden ausschließlich Ziele sowie Scope und Struktur (Taxonomie) definiert. Auf allen Ebenen werden Verantwortlichkeiten festgelegt (Accountables & Responsibles) und benannt. Die Responsibles sind für den Inhalt verantwortlich und es wird ihnen überlassen, ob sie neuen Inhalt erstellen, der den Anforderungen gerecht wird, oder ob sie vorhandenen Inhalt nutzen, der der geforderten Qualität entspricht. 

 

Stärken

Schwächen

  • Schnelles Verfahren, ein Informationsportal kann bereits nach kurzer Zeit starten.
  • Zugriff auf „persönliche“ Information, also Dokumente die in persönlich zugänglichen Bereichen abgelegt ist.
  • Klarer Fokus: Orientierung an Zielen und Scope.
  • Die Bewertung wird auf die Responsibles verlagert. Die Auswahl dieser Personen bestimmt somit, welche vorhandene Information berücksichtigt wird und welche nicht.

 

Fazit

Im Prinzip entspricht die Wahl zwischen Create oder Capture der Entscheidung, der wir uns häufig im Leben stellen: Reparieren oder erneuern? Die Fragen, die wir dazu beantworten müssen, sind: In welchen Umgebungen kommen die Stärken und Schwächen beider Ansätze zum Tragen? Wo eignet sich welche Vorgehensweise? Wie können Hybridansätze aussehen? 

Um auf diese Fragestellungen antworten zu können, sind folgende Entscheidungskriterien geeignet:

  • Qualität und Umfang vorhandener Dokumentation
  • Stakeholders und Stakeholder Goals
  • Abgeleiteter Scope
  • truktur, sowie Anzahl der Accountables und Responsibles
  • Geplante Projektlaufzeiten

In der Unternehmens-IT existiert selten ein „entweder oder“. Dokumentation ist selten entweder durchgängig umfangreich, hochwertig und zugänglich oder nicht. Im Gegenteil: Information ist in Teilbereichen zugänglich, in anderen wiederum nicht. Manches lohnt sich zu reparieren, andere Teile sollte man besser neu bauen. Es wird in der Unternehmens-IT Bereiche geben, in denen der Capture (+Evaluate) Ansatz keinen Sinn macht, und gleichzeitig Bereiche, in denen Capture (+Evaluate) unter Einsatz von Analytics mindestens Klarheit über die Qualität des Vorhandenen verschafft.  

Ob Capture oder Create – ansatzübergreifend ist das Wichtigste: Vor der Entscheidung müssen die Stakeholders, deren Ziele, der Scope sowie die Verantwortlichkeiten festgelegt sein.

Capture oder Create? Das Dokumentationschaos in der Unternehmens-IT meistern (PDF)
Herausforderungen bei der Dokumentation in der Unternehmens-IT. 

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Mai 2018
Autoren: Gregor Bister, Jennifer Gitt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting
© avato consulting ag – Copyright 2019.
All Rights Reserved.

Diese 3 Optimierungsszenarien bietet Analytics

Diese 3 Optimierungsszenarien bietet Analytics

Optimierung im IT Information Management

In vielen Unternehmen lässt sich der Zustand der IT Dokumentation mit wenigen Sätzen so zusammenfassen: Zahlreiche wichtige Informationen sind entweder nicht vorhanden oder nicht zugänglich. Wenn Informationen vorliegen, sind sie selten eindeutig und zuverlässig und im „Information Retrieval (IR)“ stößt man mit der Zeit auf vollkommen unübersichtliche Mengen an unterschiedlichen Dokumenten. Um diesem auch als „Digitale Deponie“ bezeichneten Zustand Herr zu werden, muss eine neuer Ansatz gewählt werden.

Grundsätzlich bieten sich zwei Methoden an, um auf die erforderlichen Informationen zu reduzieren: “Create“ und „Capture“. Das Unternehmen deckt seinen Bedarf an Informationen also entweder dadurch, dass die Information neu erstellt („Create“), oder in der „digitalen Deponie“ gefunden und erfasst werden („Capture“). Analytics unterstützt vor allem den Capture-Ansatz, auf den wir uns im Folgenden konzentrieren werden. 

Die Bewertung im Capturing

Vorausgesetzt, Dokumente / Informationen sind in ausreichendem Maße vorhanden und werden auch bereitgestellt, ist die Analyse durch sequenzielles manuelles Durcharbeiten je nach Anzahl und Umfang kaum zu leisten. Kann Analytics hier eine Hilfestellung bieten? Ja – und zwar in der Bewertung, die wesentlicher Bestandteil des Capturing ist. Wir zeigen im weiteren Verlauf drei Modellansätze, wie Analytics die Bewertung unterstützt, und stellen ihre Stärken und Schwächen vor.

Zur Bemessung von Stärken und Schwächen der Modelle soll das Kriterium dienen, wie gut sie zur Beantwortung der folgenden Frage taugen: Wann ist ein Dokument im Sinne der Nutzung für ein Informationselement sehr gut brauchbar, brauchbar oder ungeeignet? In unserer Analyse ist ein Dokument genau dann relevant, wenn es relevante Informationen enthält.

Dabei bleibt der Aufwand, um das Dokument in Informationselemente umzuwandeln, im ersten Schritt unbeachtet. Analytics soll sich also zunächst auf die Bewertung („Evaluate“) beschränken und die Anzahl der Dokumente reduzieren, die dann in einem zweiten, automatischen / halbautomatischen / manuellen Schritt ganz oder in Teilen in ein Informationsportal einfließen.

Ergebnisse der automatisierten Bewertung

Was wird im ersten Schritt, der automatisierten Bewertung geleistet? Mit Hilfe von Analytics wird automatisiert zwischen potentiell relevanten und irrelevanten Informationen unterschieden. Hier erwarten wir gerade in Umgebungen mit einer „historisch gewachsenen“, hohen Anzahl von Dokumenten eine entscheidende Unterstützung.

Am Ende liegt ein Korpus von Dokumenten vor, deren Inhalt zumindest in Teilen relevant sein kann und vollständig oder teilweise in das Informationsportal übernommen werden sollte. 

Im darauffolgenden automatisierten / manuellen Schritt werden die Informationen aus den relevanten Dokumenten erfasst, an die gewünschte IT Information Management (ITIM) Struktur angepasst und zugeordnet. In einem weiteren Schritt werden die Dokumente durch Fachexperten (SMEs = Subject Matter Experts) auf inhaltliche Korrektheit geprüft, um an den verantwortlichen Information Manager zur Publizierung übergeben zu werden. Info Box

Analytics-Methoden

Um Informationen auf bestimmte Kriterien und zu überprüfen und zu bewerten, können grundsätzlich drei Analytics-Methoden eingesetzt werden:

  1. Information Retrieval
  2. Supervised Machine Learning
  3. Unsupervised Machine Learning

Information Retrieval

Beim sogenannten Information Retrieval (IR) wird ein Index erstellt, an den Anfragen mit unterschiedlichen Kriterien gestellt werden können. Der Query besteht nicht aus Suchbegriffen, sondern aus Werten der Kriterien. Diese sind im Kriterienkatalog festgehalten. Es können verschiedene Prioritäten gesetzt und Kriterien genutzt werden. So kann ein Dokument in einem Kontext schlecht abschneiden, in einem anderen jedoch relevant sein. Bei Änderung des Kriterienkatalogs muss der Index nur teilweise aktualisiert werden. Nach der Überprüfung werden die Informationselemente/Dokumente automatisch nach Trefferwahrscheinlichkeit geordnet.

Stärken:

  • Flexibel: Kann bei zusätzlichen Dokumenten, geänderten Anforderungen und neuen Erkenntnissen zu den Kriterien leicht angepasst werden
  • Skalierbar: Queries können entweder auf alle Dokumente definiert oder auf einzelne Untermengen zugeschnitten werden
  • Geringer Aufwand bei Erstellung: Kein Training des Tools nötig, und die Übertragung der Kriterien in angemessene Repräsentationen ist vergleichsweise unproblematisch
  • Übertragbarkeit: Engine und Ranking-Algorithmus können auf verschiedene Indizes angewendet werden, solange die Kriterien übereinstimmen

Schwächen:

  • Unklare Antwort: Es wird keine Klassifizierung in „relevant“ / „irrelevant“ vorgenommen. Das bedeutet, die Grenze muss anhand von definierten Richtlinien oder vom Fachexperten nach eigenem Ermessen gezogen werden.
  • Anwendungsaufwand: Der passende Query muss erarbeitet werden – gegebenenfalls nicht nur inhaltlich, sondern auch strukturell abhängig; dies erfordert Expertenwissen für eine angemessene Gewichtung der Kriterien. 

Supervised Machine Learning

Für die Bewertung von Dokumenten mit Hilfe von „Supervised Machine Learning“ werden einige der Dokumente vorher festgelegten Kategorien manuell zugeordnet. Anschließend wird eine Grenze zwischen den Kategorien berechnet, und alle übrigen Dokumente werden automatisch zugeordnet. Es kann eine Irrtumswahrscheinlichkeit für diese Zuordnung berechnet werden. 

Ändern sich der Kriterienkatalog oder die Definition des True Positive, muss die Grenze neu berechnet werden. Generell gilt: Eine hohe Varianz in den analysierten Dokumenten wirkt sich negativ auf die Precision aus. Durch Unterteilung in Teilkorpora kann dem entgegengewirkt werden – die Unterteilung ist jedoch aufwendig und erhöht die Gefahr des „Overfitting“.

Stärken:

  • Klare Klassifizierung: Exakte Grenzen und Irrtumswahrscheinlichkeiten
  • Kein Anwendungsaufwand: Komplettes Korpus wird automatisch kategorisiert
  • Ansatzoptimierung: Irrelevante Kriterien können recht leicht entdeckt werden
  • Übersicht über den Bestand: Kriterien können auch einzeln betrachtet werden, z.B. „70% der Dokumente werden zu selten überprüft, um verlässlich zu sein.“

Schwächen:

  • Erstellungsaufwand: Trainingskorpus muss zusammengestellt (Expertenwissen!) und manuell von SMEs eingeordnet werden. 
  • Korpusspezifisch: Grenze muss für jedes Korpus und nach jeder größeren Änderung des Korpus/der Definition von True Positive neu berechnet werden, nur einzelne Elemente sind möglicherweise übertragbar
  • Rechenintensiv: Machine Learning (ML) beansprucht viel Prozessorleistung 

Unsupervised Machine Learning

Zur Analyse mit Hilfe von „Unsupervised Machine Learning“ muss ein Weg gefunden werden, wie der Computer dazu gebracht werden kann, die Unterschiede zwischen relevanten und irrelevanten Dokumenten selbst zu erkennen. Als Anhaltspunkte sollen die Kriterien aus dem Kriterienkatalog dienen. Es muss daher für jedes Kriterium eine Repräsentation gefunden werden, die ML ermöglicht. Beispiele: Was haben relevante Dokumente gemeinsam? Ähnlich hohe Review-Frequenz? Keine Personenkontaktdaten enthalten? …

Stärken:

  • Geringer Erstellungsaufwand: Kein Training nötig
  • Feine Klassifizierung: Unterscheidung nach Relevanzgrad/-typ/-grund/-bereich/…

Schwächen:

  • Hoher Konzipierungsaufwand: Erarbeitung einer angemessenen Repräsentation der Relevanzkriterien komplex, zeitaufwendig und braucht Erfahrung & Expertenwissen
  • Hoher Interpretationsaufwand: Die erkannten Gruppen müssen manuell interpretiert werden und ändern sich mit jedem Durchlauf
  • Keine Übertragbarkeit: Weder Kategorisierungsgrenzen noch Interpretation sind auf andere Korpora übertragbar
  • Rechenaufwand: Braucht noch mehr Leistung als Supervised Machine Learning 

Fazit

Der Einsatz von Analytics bei der Bewertung von Dokumenten im Capturing ist immer dann empfohlen, wenn die Anzahl der zu sichtenden Dokumente hoch ist – und vor allem, wenn Dokumentation „historisch gewachsen“, ungewartet und somit unübersichtlich geworden ist. Die Voraussetzung ist stets, dass Dokumente in ausreichendem Umfang zum Zeitpunkt der Analyse zur Verfügung stehen. Um böse Überraschungen zu vermeiden, sollte vor dem Einsatz von Analytics prinzipiell geprüft werden, ob einer der folgenden Fälle vorliegt: 

  • Geringe Anzahl von Dokumenten
  • Wenige Dokumente und dazu in verschiedenen Sprachen
  • Mischung aus unterschiedlichen Dokumenttypen: Text, Tabelle, Grafik, Ton oder Video

Ist dies nicht der Fall, ergeben sich daraus keine Grenzen für die computergestützte Analyse, sodass die passende Analytics-Methode gewählt werden kann.

Das Fazit aus der Betrachtung der drei verschiedenen Ansätze: Supervised Machine Learning ist in vielen Fällen der geeignetste Ansatz. Wegen der klaren Klassifizierung und dem geringeren Bedarf an Expertenwissen in der Anwendung im Projekt ist er dem Information Retrieval vorzuziehen. Der Aufwand, ein Trainingskorpus zusammenzustellen, ist immer noch deutlich geringer, als alle Dokumente per Hand zu prüfen.

Diese 3 Optimierungsszenarien bietet Analytics (PDF)
Optimierung im IT Information Management

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Mai 2018
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting
© avato consulting ag – Copyright 2019.
All Rights Reserved.

Cloud Transformation und Operation

Cloud Transformation und Operation

Ohne detailliertes Wissen über die IT eine immense Herausforderung

Cloud-Nutzung gehört heute in fast allen Unternehmen zu den strategischen Zielen in der IT. Verbunden sind hiermit im wesentlichen Flexibilisierung sowie Kostensenkung bei der IT Infrastruktur und bei der Nutzung von Standardanwendungen. Zudem versprechen sich fast alle Unternehmen weitere strategische Verbesserungen. So gilt in vielen die Einführung von Clouds beispielsweise als eine wesentliche Voraussetzung für DevOps-Ansätze.

Doch obwohl der Markt heute zu jeder denkbaren Anforderung eine Vielzahl von Lösungen anbietet, hinkt die Cloud Transformation in fast allen Unternehmen den selbst gesetzten Zielen hinterher. Die Gründe hierfür sind vielfältig und unterscheiden sich im Einzelnen beträchtlich. Zu unterscheiden ist bei der Ursachenforschung immer zwischen unterschiedlichen Service-Modellen (IaaS, PaaS, SaaS) und Deployment-Modellen (Public oder Private Cloud). Zudem, und das wird in der Praxis häufig vernachlässigt, ist immer zwischen der Cloud Transformation und dem Betrieb von Anwendungen in einem Cloud-Umfeld zu unterscheiden.

Cloud Service Modelle

  • IaaS
    Unter IaaS versteht man Services, die sich im Wesentlichen auf Server- (CPU, Memory) und Storage-Leistungen beziehen.
  • PaaS
    Unter PaaS versteht man Services, die eine Anwendungsinfrastruktur zur Verfügung stellen. Das können Datenbanken, Applikationsserver, Webserver oder vollständig integrierte Laufzeit- und Entwicklungsumgebung sein.
  • SaaS
    Unter SaaS versteht man ein Modell, bei dem komplette Anwendungen sowie die zugrundeliegende Anwendungsinfrastruktur als Service zur Verfügung gestellt werden.

Cloud Deployment-Modelle

  • Public Cloud (oft auch als External Cloud bezeichnet)
    Unterschiedliche Nutzer greifen auf geteilte Ressourcen zu. Sie sind organisatorisch nicht verbunden. Eigentümer und Betreiber einer Public Cloud ist ein externer IT-Dienstleister.
  • Virtual Private Cloud
    Spezialfall der Public Cloud. Dem Nutzer wird durch geeignete Sicherheitsmechanismen eine abgeschottete und individualisierte IT-Umgebung zur Verfügung gestellt.
  • Private Cloud (Internal Cloud)
    Leistungen stehen nur einer festgelegten unternehmensinternen Nutzergruppe zur Verfügung. Management und Betrieb werden intern erbracht.
  • Hybrid Cloud
    Eine Hybrid Cloud ist kein eigener Cloud-Typ, sondern eine Mischung aus Private Clouds und Public Clouds. 

Use Cases Cloud Nutzung

Welche Use Cases der Cloud-Nutzung findet man heute in der Praxis? Ausgangspunkt aller Betrachtungen sind die unternehmenseigenen Anwendungen. Aus dieser Perspektive betrachten wir hier ein Modell, bei dem wir bewusst zwischen den Ebenen PaaS und IaaS unterscheiden. Unternehmenseigene Anwendungen haben somit entweder Schnittstellen zu Cloud-basierten Anwendungen oder sie basieren auf konventionellen und / oder Cloud-basierten Plattform-Services wie Web, Datenbank oder Applikationsserver. Diese Plattformen sind entweder Private Cloud oder Public Cloud und beruhen wiederum auf Infrastruktur-Services, die über Netzwerke gekoppelt sind (siehe Grafik, Link am Anfang des Artikels).

Ausgehend von diesem Modell findet man heute im Grunde alle Spielarten von Cloud Nutzung auch in der Praxis, wobei einige Modelle verbreiteter sind. Hierzu gehören vor allem:

  • Nutzung von Public Cloud SaaS in Kombination mit unternehmenseigenen Anwendungen
  • Nutzung von PaaS für unternehmenseigene Anwendungen sowohl in der Private als auch in der Public Cloud
  • Nutzung von IaaS sowohl in der Private als auch in der Public Cloud für unternehmenseigene Anwendungsinfrastrukturen (Web-Server, App-Server, Datenbanken)

Wir konzentrieren uns hier auf zwei verbreitete Anwendungsbeispiele, wenn wir die Herausforderungen zum einen in der Cloud-Transition und zum anderen beim Operations in hybriden Umgebungen betrachten.

  • Die Nutzung von Public Cloud SaaS in Kombination mit unternehmensinternen Anwendungen wie beispielsweise Salesforce oder Azure.
  • Die Nutzung von PaaS sowohl in der Private Cloud als auch in einer Public Cloud, beispielsweise für Datenbanken, Web- oder Applikations-Server.

Der Diskussion um Transformation und Operation soll eine kurze Übersicht der Herausforderungen speziell in einer Public Cloud-Lösung vorangestellt werden. 

Kriterienkatalog: Herausforderungen Cloud

Nahezu jedes Beratungsunternehmen drängt in den Markt zum Cloud Consulting, die Literatur zu den besonderen Herausforderungen der Public Cloud füllt Bibliotheken und kein Anbieter verzichtet heute auf Cloud-Angebote. Betrachtet man die Studien, so zeigen sich immer wieder die gleichen Kriterien als entscheidend für den Erfolg eine Cloud-Strategie, wobei die Herausforderungen bei der Nutzung von Public Clouds ungleich größer sind als bei Private Clouds. Zentrale Beurteilungskriterien und Herausforderungen lassen sich in wenige Bereiche clustern. 

 

Service Strategy and Vendor Decision:

Cloud Strategy

Jede Cloud Strategie muss sich an den Geschäftszielen orientieren, beginnt also mit einer Business-Strategie in der Chancen und Risiken abgewogen werden.

Portability

Portabilität zwischen unterschiedlichen Anbietern. Daten- und Service-Portabilität sicherzustellen ist eines der wesentlichen Ziele.

Transparency

Tranzparenz von

  • Geleisteten Services und abgerechneten Services (inklusive Lizenzen)
  • Qualitätssicherung und Monitoring der vereinbarten SLA
  • Art und Ort der Datenverarbeitung


IT Governance and IT Organization:

Governance Organization

Die Transformation der IT Organisation von einem IT Service Provider in eine Governance-Organization erfordert

  • Veränderungen beim Personal und in Prozessen: Viele IT-Organisationen haben möglicherweise nicht die richtigen Tools oder Ressourcen (Skills, Erfahrungen und Expertise) um eine Cloud Lösung zu implementieren, zu überwachen und zu managen
  • Veränderungen im Management sind erforderlich

Service Usage and Control

Effektivität in der Nutzung von Service und der Kontrolle

  • Verträge inklusive Haftungsfragen
  • Kontrolle der Services durch Nutzer
  • Governance / Eskalationsprozeduren

Costs

Effiziente und effektive Transition Strategie:

  • Ein sinnvoller Ansatz ist, mit wenig häufig genutzten und weniger komplexen Services zu beginnen
  • In der Regel steigen die Kosten für Performance und Bandbreite

Security, Data Protection and Compliance

Information Security

Security, Data Protection und Compliance sind im Grunde keine vornehmliche Frage einer Cloud-Umgebung, sondern es ist mehr eine Frage des Providers.

  • Identity und Access Management
  • Privacy und Integrity
  • Access Control, Logging und Vorbeugung gegen Angriffe
  • Verification und Certification

Compliance

Compliance mit regulatorischen Anforderungen


Interoperability:

Interoperability

Migration in oder aus der Cloud sowie die Anbindung von Legacy Systems an Cloud Anwendungen (zudem die Fähigkeit, unterschiedliche Anbieter zu integrieren).

Integration

Daten- und ITSM Prozess- Integration


Service Quality:

Service Provisioning

Effizienz im Service Provisioning:

  • Nutzung von Development Tools und Komponenten
  • Provisioning und Deployment 
  • Aufbau skalierbarer Architekturen 
  • Ressourcenmanagement und Flexibilität

Technological Infrastructure

Bevor neue Cloud-basierte Services evaluiert werden, sollte geprüft werden, ob folgende Voraussetzungen erfüllt sind:

  • Gebäudeinfrastruktur
  • Mehrere zuverlässige ISPs
  • Erforderliche Redundanzen um Ausfälle zu verhindern

Architecture

Lassen sich die Cloud Services anpassen?

Availability and Reliability

Wie bei der Security: Availability und Reliability sind keine Frage der Cloud, sondern des Cloud Providers

Cloud Transformation

Was sind die größten Herausforderungen bei der Transformation von Anwendungen in eine Cloud? Wir wollen uns hier auf die oben genannten Service-Modelle (Nutzung von Public Cloud SaaS in Kombination mit unternehmensinternen Anwendungen sowie Nutzung von PaaS sowohl in der Private Cloud als auch in einer Public Cloud) konzentrieren und IaaS nur vereinzelt in die Betrachtung einbeziehen. Grundsätzlich gilt, dass das Deployment-Modell Public Cloud deutlich höhere Komplexität zeigt als eine Private Cloud, in wenigen Fällen aber auch einfacher zu handhaben sein kann. Höhere Komplexität entsteht vor allem bei Integration, Deployment, Interoperability sowie Security, geringere Komplexität zeigt in aller Regel das Provisioning. 

 

Service Strategy and Vendor Decision

Beide erfolgen vor der Transformation und ist in der eigentlichen Transformation nicht mehr entscheidend.

IT Governance and IT Organization

Ongoing Governance beginnt selbstredend nach einer Transformation, jedoch ergeben sich bereits während der Transformation Änderungsanforderungen an die IT Organisation. 

Security, Data Protection and Compliance

Wesentliche Aspekte spielen während der Transformation eine eher geringe Rolle. Andere wie Identity Management sind bereits während der Transition von entscheidender Bedeutung.

Interoperability

Interoperability erfährt in einer Transformation ihren ersten Praxistest.

Service Quality

Service Quality ist in der Transformation auf den reinen Transformation-Support beschränkt.

Eine der wesentlichen Voraussetzungen für die erfolgreiche Transformation in eine Cloud ist die Information zu der vorhandenen und für die Transformation vorgesehenen IT. Nur auf ausreichender Informationsbasis lassen sich effiziente und effektive Transformationsstrategien entwickeln.

Cloud Operation

Security-Fragen, die Integration in ITSM-Prozesse, IT Governance sowie Data Integration sind nur einige Stichpunkte, unter denen man den Betrieb Cloud-basierter Anwendungen sowie der Anwendungsinfrastrukturen betrachten muss.

Service Strategy and Vendor Decision

Erfolgt vor Transition und Operation und ist in der eigentlichen Operation nicht mehr entscheidend.

IT Governance and IT Organization

Die Organisation wird vor allem bei Public Cloud Modell vom Service Provider zu einer Governance und Vendor Management Organisation. 

Security, Data Protection and Compliance

Security, Data Protection and Compliance sind im Operations mit die größten Herausforderungen,  vor allem wenn Public Cloud Modelle und/oder unterschiedliche Cloud-Plattformen genutzt werden.

Interoperability

Interoperability ist im Operations ähnlich wie Security, Data Protection and Compliance eine der größten Herausforderungen. Zu den wesentlichen Herausforderungen gehört hier, dass man nicht die Fähigkeit zum Wechsel auf andere Clouds verliert. 

Service Quality

Cloud-Plattformen sind selbstredend immer Shared-Plattformen. Die angebotenen Services sind somit stets stark standardisiert und unterliegen festgelegten Updatezyklen und Maintenance Regeln sowie eingeschränkten und standardisierten Features.

Nach der Transformation rücken in der Cloud Operation andere Herausforderungen in den Vordergrund. Aber auch hier gilt, dass zuverlässige Informationen vor allem bei Public Cloud Nutzung ein entscheidender Erfolgsfaktor sind. IT Governance, Security und Data Protection sowie Interoperability basieren ganz wesentlich auf der Zuverlässigkeit und der Verfügbarkeit von Informationen.

Zusammenfassung

Cloud Transformation hinken in fast allen Unternehmen den selbst gesetzten Zielen hinterher. Die Herausforderungen sind vielfältig und unterscheiden sich in Transformation und der Operation-Phase. In der Public Cloud sind die Anforderungen in beiden Phasen wesentlich höher (siehe Grafik, Link am Anfang des Artikels). 

Public Clouds verändern die Sourcing-Strategien der Unternehmen immer stärker und forcieren ganz wesentlich einen Trend, bei dem IT-Verantwortliche sich immer stärker vom Betriebsmanager einer Infrastruktur zu einem Supply Chain Manager interner und externer Service Provider entwickeln. Der Schwerpunkt der Aufmerksamkeit verschiebt sich zum Information Management, konzentriert auf Geschäftsanforderungen unter Einbeziehung von Kunden, Geschäftspartnern und Lieferanten.

  • Ohne zuverlässige Informationen zu den Geschäftsanforderungen und zur aktuellen IT sowie einem darauf basierenden Konzept macht Cloud Transformation keinen Sinn.
  • Interoperability ist die wesentliche Voraussetzung für eine erfolgreiche Governance. Hierzu gehört vor allem auch ein effektives und effizientes Capacity- / Consumption-Management. 
  • Selfservice-Portale und schnelles Provisioning ersetzen keine Cloud-Strategie.

Haben Sie Fragen oder Feedback? Wir sind erreichbar unter: marketing@avato.net

 

Impressum

Datum: Mai 2018
Autoren: avato
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting 

 

Intelligente Information schaffen: 3 Bedingungen

Intelligente Information schaffen: 3 Bedingungen

Woher kommt der Begriff, warum braucht man Intelligente Information und was ist hiermit gemeint? Die wichtigste Frage ist aber: Wie wird Information intelligent – oder wie erzeugt man intelligente Information in der IT? Das sind die zentralen Fragen, denen wir uns hier widmen wollen.

Intelligentes Information Management ist im Grunde eine Weiterentwicklung des Enterprise Content Managements. Laut Gartner (s. Anhang) ist ECM tot, Content Services sind die Zukunft (https://blogs.gartner.com/michael-woodbridge/the-death-of-ecm-and-birth-of-content-services/).

Nach Gartner geht es im Wesentlichen darum, regulatorische Anforderungen zu erfüllen, Business Know-how aufzubewahren und zu verbreiten, Kosten zu managen, effizient zu arbeiten, sowie Innovationen zu ermöglichen. Die aiim (Association for Information and Image Management), die zuerst den Begriff „ECM“ prägte, spricht heute von „IIM“ – „Intelligent Information Management (s. Anhang) als konsequenter Weiterentwicklung. Auch die Gesellschaft für technische Kommunikation (kurz: Tekom) nutzt heute den Begriff „Intelligent Information“ (s. Anhang).

Die genannten Organisationen sind sich einig: zukünftig geht es nicht mehr um ECM-Programme mit hohen Aufwänden und ungewissem Nutzen, nicht mehr um Tooling und ECM-Software Implementierung, sondern um Intelligente Information, und um effiziente Bereitstellung verlässlichen Contents.

aiim: “Traditionally, IT focused on either the deployment of enterprise software applications (seemingly the more complicated the better!) and the „plumbing“ or our information infrastructures. organizations now find that they need professionals with a broader skill set than what is traditionally found within traditional records management or IT departments. Specifically, they need staff that understand the management, utilization, and application of information and social assets to the organization.”

Intelligente Information ist das Stichwort – doch ohne die im weiteren Verlauf erläuterten 3 Bedingungen ist intelligente Information nicht möglich.

Intelligenz als Voraussetzung und im Ergebnis

Wissen ist Macht, Informationen sind der Schlüssel zum Erfolg. Das war so, ist so, und wird auch in Zukunft so sein. Was sich jedoch im Laufe der Zeit verändert, ist die Art, wie wir Informationen sammeln, Wissen daraus schöpfen und weitergeben. In diesem Prozess ist neben dem Mensch zunehmend die Maschine beteiligt, wodurch sich völlig neue Möglichkeiten eröffnen. In Bruchteilen von Sekunden können heute Massen von Daten generiert, ausgewertet und als nützliche Information zur Verfügung gestellt werden. In manchen Bereichen ist es allerdings nicht mit einem Knopfdruck getan. Die Erfahrung zeigt, dass heute in vielen Unternehmen Wissen in digitaler Form erzeugt und gesammelt wird – beispielsweise in Wikis, Dokumenten, Präsentationen und Mailsystemen. Das bedeutet, dass durch bestimmte Abfragen oder Suchen jede Art von Information in diesen Dokumenten und Systemen abrufbar sein müsste – ob eine automatisch generierte Übersicht, eine Arbeitsanweisung, oder technische Abbildungen zu Applikationsarchitekturen. Aber in der Realität sind der Intelligenz der Informationen Grenzen gesetzt. Im System gibt es Informationen, die veraltet sind und nicht mehr stimmen. Es gibt Informationen, die liegen in unterschiedlichen Varianten und Versionen vor. Sie sind dadurch nicht mehr eindeutig oder sogar widersprüchlich. Andere Informationen sind wiederum gar nicht vorhanden. Der Input bestimmt den Output. Shit in, Shit out. Um intelligente Information zu schaffen, müssen Informationen 3 Bedingungen mit allen Facetten erfüllen: Umfang, Qualität und Verfügbarkeit.

Umfang: Welcher Umfang ist erforderlich?

Typischerweise entsteht im Laufe der Zeit ein Wildwuchs an Dokumenten und Informationen im Unternehmen. Das verleitet zu der Annahme, dass alle nötigen Informationen vorhanden sind, irgendwo. In der Praxis müssen jedoch häufig Entscheidungen auf unzureichender Informationsbasis getroffen werden – die erforderlichen Informationen  gibt es einfach nicht. Das umgekehrte Szenario ist nicht seltener: Die Massen an Informationen sind überwältigend, sodass die Sichtung & Auswertung eine schnelle Entscheidungsfindung nicht zulässt. Wäre es nicht hilfreich, alle Informationen zu einem Thema an genau einer Stelle zu haben – und in genau dem Umfang, der situationsspezifisch erfordert ist?

Der Weg dahin ist einfach:

  1. Welche Informationen müssen vorhanden sein? (Information Need)
  2. Abgleich mit tatsächlich vorhandener Information.
  3. Lücken (Information Gap) füllen. Überschüsse entfernen. 

Zugegeben – das klingt simpel, aber es steckt doch mehr dahinter…

Information Need

…denn woher wissen wir, welche Informationen im Unternehmen benötigt werden? Dazu sollten diejenigen identifiziert und befragt werden, die die Informationen verwenden („Information User“). Sie sind die Stakeholders und geben Ziele & Scope vor. 

Abgleich 

Ist der Scope und die Informationsstruktur detailliert erarbeitet, steht der Abgleich mit der vorhandenen Information bevor. Die Erfahrung hat gezeigt, dass die Sichtung (= „Capture“) aller vorhandenen Informationen eine nur mit unverhältnismäßigen Aufwänden zu bewältigende Aufgabe ist. Daher gilt: Nur nach dem suchen, was benötigt wird…

Lückenfüller

…und diese Informationen fließen als Draft in die Informationsplattform ein. Was es nicht gibt, muss erstellt werden. Und was nicht benötigt wird, wird konsequenterweise aussortiert und archiviert.

Qualität – Welche Informationen sind brauchbar?

Sie fließen „nur als Draft“ ein – denn die schönsten Diagramme nutzen nichts, wenn sie auf falschen Daten beruhen. Wurden Informationen im Unternehmen nicht nach vorgegeben, einheitlichen Regeln erstellt, sind wichtige Qualitätsmerkmale häufig nicht erfüllt. Damit intelligente Information entsteht, muss die Qualität der Basis stimmen. Es gibt Methoden, die die Qualität prüfen und einstufen („Evaluate“). Prinzipiell sollten Informationen nicht nur korrekt, sondern auch aktuell, vollständig und eindeutig sein. Auch die „Benutzerfreundlichkeit“ wirkt sich auf die Qualität aus. Eine gute Sprache und Struktur, sowie die einheitliche Verwendung von Begriffen hilft bei der Verständlichkeit enorm und beugt Missverständnissen vor. Gleichzeitig sollte der Information User bei seiner Suche immer auf die Information mit dem gewünschten Typ und der gewünschten Tiefe stoßen. 

Verfügbarkeit – Wo stand doch gleich…?

Oft weiß der Information User, dass eine bestimmte Information existiert – doch er kann sich einfach nicht mehr daran erinnern, wo er sie zuletzt gesehen hat. Kann er sie nicht finden, ist die Information nicht verfügbar, und damit unbrauchbar. Um eine schnelle Auffindbarkeit sicherzustellen, sind Metadaten von unschlagbarem Wert. Über Metadaten kann die Suchfunktion Infromationen nach Relevanz filtern. Die Verfügbarkeit umfasst jedoch nicht nur die Auffindbarkeit, sondern auch das Thema Zugang/Berechtigung. Jedem, der berechtigt ist, auf eine bestimmte Information zuzugreifen, muss der Zugriff hierauf jederzeit möglich sein.

Unter dem Strich…

… sind Systeme für Intelligente Information schön und gut, aber auch das beste System kann nicht das Unmögliche leisten. Während es mittlerweile Möglichkeiten gibt, zahlreiche Qualitätskriterien sowie die Verfügbarkeit von Informationen mit Hilfe von Tools zu überprüfen, stoßen eben diese in anderen Bereichen an ihre Grenzen  – manche Information liegt schlichtweg nicht vor oder existiert nicht in schriftlicher Form. 

Darüber hinaus kann ein Tool zwar eine Annahmen über die Qualität einer Information treffen, doch die Anpassungen vorzunehmen, um die Information qualitativ auf den Standard zu heben, liegt bei demjenigen, der sie erstellt (Responsible). 

Wie so oft im Leben gilt: Wer sein Ziel nicht kennt, kann den Weg nicht finden – oder anders gesagt: Wer seinen Bedarf an Information (Information Need) kennt, kann auch den Weg dorthin finden. Durch den Abgleich mit vorhandener Information kann der Information Gap ermittelt und geschlossen werden. Fließen hierbei gleichzeitig die Ansprüche an Qualität und Zugang mit ein, ist der Weg für Intelligente Information bereitet.

Appendix: Mehr zu…

… tekom und die Initiative Intelligente Information „in3″

Mit der in³ ruft der europäische Fachverband für Technische Kommunikation (Tekom) seine Mitglieder auf, sich den eruptiven Veränderungen zu stellen, die mit der Digitalisierung einhergehen. Wichtige Ziele sind dabei*:

  • den Einsatz strukturierter Erstellungsmethoden und die Nutzung von CCMS einschließlich von Metadaten voranzubringen,
  • anerkannte technische Standards für die Inhaltestruktur sowie für den Austausch, die Verbindung und die Integration von Inhalten zu verwenden,
  • Zielgruppenanalysen, Nutzungsanalysen sowie die Erstellung von Use Cases und Medienkonzepten in ihren Prozess zu integrieren,
  • zukünftig den Fokus auf eine umfassende „User Experience – UX“ zu legen und bei den Nutzern Begeisterung für die Informationsprodukte zu erzeugen.

*Quelle: http://www.tekom.de/technische-kommunikation/intelligente-information.html

Um Fachleute in verwandten Bereichen zusammenzubringen, die verschiedene Aspekte des Designs und der Entwicklung intelligenter Technologien erforschen und vernetzen, wurde der Tekom Blog „Intelligent Information“ ins Leben gerufen. Regelmäßig erscheinen hier Fachartikel zum Thema Intelligent Information – unter anderem eine Kurzversion dieser avato news: Tekom Blog „Intelligent Information„.

Darüber hinaus hat die Tekom erkannt, dass es an branchenübergreifend akzeptierten Standards fehlt, weshalb die Tekom Arbeitsgruppe „Information 4.0“ den iiRDS (Intelligent Information Request and Delivery Standard) schuf. Mehr Informationen darüber: https://iirds.tekom.de/ 

…aiim: Association for Information and Image Management

Die Association for Information and Image Management (aiim) beschäftigt sich im Schwerpunkt mit Training, Marktanalysen und Zertifizierung von Information Professionals.

Gegründet 1943 als die National Microfilm Association, wurde sie erst 1982 zur aiim. Dies hat sich jedoch in all den Jahren nie verändert: 

“We’ve always focused on the intersection of people, processes, and information. As the Association for Intelligent Information Management, we help organizations put information to work”

Im Jahr 2000 schuf die Association den Begriff Enterprise Content Management (ECM), der sich auf Strategien, Methoden und Tools bezieht, die durch den Lebenszyklus von Unternehmensdokumentation hinweg verwendet werden. 2017 reagierte die aiim auf die neusten Entwicklungen im Markt und verkündete offiziell, dass der damals geprägte Begriff „ECM“ (Enterprise Content Management) nun durch den „IIM“ (Intelligent Information Management) ersetzt wird. Dieser neue Ausdruck beinhaltet nun auch das Management von Daten und Inhalten – nicht nur den Inhalt an sich.

…Gartner

Gartner, Inc. ist ein amerikanisches Forschungs- und Beratungsunternehmen, das weltweit IT- und Geschäftsleitungen Einblicke in Analysen und Ergebnisse in der Informationstechnologie gewährt. Der Hauptsitz ist in Stamford, Connecticut, USA. Mehr Informationen: https://www.gartner.com/technology/home.jsp 

Intelligente Information schaffen: 3 Bedingungen (PDF)
Information soll intelligent sein! Woher kommt der Begriff, warum braucht man „Intelligente Information“, und was ist hiermit gemeint?

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Februar 2018
Autor: Jennifer Gitt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2018 avato consulting
© avato consulting ag – Copyright 2019.
All Rights Reserved.

ITIM IT Information Management (Whitepaper)

ITIM IT Information Management (Whitepaper)

Richtige Entscheidungen schneller treffen

„As a general rule, the most successful man in life is the man who has the best information.“ (Benjamin Disraeli, 1804 – 1881)

Wissen verleiht uns die Macht, Entscheidungen schneller zu treffen. Risiken zu erkennen. Schneller besser zu werden. Was das mit der traditionellen IT Dokumentation hat? Nichts (mehr). Wir revolutionieren alte Prinzipien und gehen über zum IT Information Management: 

Whitepaper: ITIM IT Information Management (PDF)
Richtige Entscheidungen schneller treffen Um die Werthaltigkeit von Informationen langfristig zu erhalten, ist eine Strategie zur Maintainability von Informationsquellen existenziell.