Keine Operational Excellence ohne funktionierendes Knowledge / Information Management

Keine Operational Excellence ohne funktionierendes Knowledge / Information Management

Operational Excellence hängt wesentlich von Knowledge und Informationen ab. Und die schmerzvolle Erkenntnis aus zahllosen Projekten und Initiativen ist: Traditionelles Knowledge Management und Enterprise Content Management funktionieren trotz hoher Aufwände leider nicht wirklich. (Warum das so ist, ist hier beschrieben: 7 Fehler)

Die ermutigende Nachricht ist: Information (Knowledge) Management funktioniert, sobald man sich von überholten Paradigmen frei macht.

Kaum ändert man den Ansatz, schon wird deutlich: Information Management funktioniert. Alle Organisationen werden besser, schneller und deutlich flexibler. Zudem werden sie Business- und kundenorientierter.

Drei Elemente: Das Zusammenspiel von Mensch, Information und Technologie

Was ist also der neue, innovative Ansatz? Er betrachtet Information Management (IM) als einen stetigen, gemanagten Prozess und besteht aus dem Zusammenspiel von drei Elementen: Menschen, Informationen und Information Management (IM) Technologien. Diesen Dreiklang und den gesamten Prozess steuern Information Manager. Werfen wir einen Blick auf diese drei Elemente.

1. Menschen: Information User, Provider und Stakeholder

Beginnen wir bei den Menschen. Bezogen auf Information existieren im Grunde in jeder Organisation stets 3 Gruppen von Menschen: Information Users, Information Providers und Stakeholders. Unstrittig ist, dass jeder in der Organisation ein Information User ist. So weit so gut. Aber fast jeder ist auch Information Provider, und das berücksichtigen traditionelle Ansätze zu wenig. Sie sind zu stark darauf fixiert, die einen wichtige Informationen bereitstellen zu lassen und den anderen Informationen zur Nutzung zu geben. Wichtige Informationen fehlen, weil die Leute, die diese Information haben, einfach keine Möglichkeit haben ihr Wissen zielgerecht beizusteuern. Die zahllosen, unternehmensinternen Posting-Plattformen helfen da auch nicht weiter.

Neben User und Provider sollte es stets eindeutige Stakeholders geben, die ihre Rolle in Bezug auf Information auch kennen und annehmen sollten. Stakeholders sind die „Accountables“ für Information. Sie sollten die Ziele des Information Management definieren und sollten daran gemessen werden, ob sie ein effektives und effizientes Information Management ermöglichen.

Hier kommt unterstützend der Information Manager ins Spiel. Er steuert den Prozess, stimmt Ziele mit den Stakeholders ab und sorgt dafür, dass der Kommunikationsprozess zwischen dem User und Provider zielgenau geführt wird.

2.  Alles dreht sich um Informationen

Informationen sind der Schlüssel zum Erfolg. Das Idealbild ist, dass jeder jederzeit alle erforderlichen Informationen in zuverlässiger und verständlicher Form unmittelbar im Zugriff hat. Und wie kommen Sie dem Idealbild möglichst nahe? Grundsätzlich gilt, dass Informationen ohne Information Management nie ausreichend in schriftlicher Form vorliegen. Und sie sind niemals von ausreichender Qualität. 

Daraus ergeben sich zwei Aufgaben. Es muss in einem IM Prozess „Create“, also dem Verschriftlichen von Information, permanent gesteuert und priorisiert werden. Zudem muss die Qualität von Information stetig neu bewertet (IM Prozess „Evaluate“) und verbessert werden.

Das sind im Wesentlichen die Aufgaben des Information Managers. Er steuert den QM Prozess und priorisiert die Ergänzung sowie das Erstellen zusätzlicher Information.

3.  Technologien für das Information Management: Die 7 wichtigsten Kriterien

Technologiefixierung ist sicher eines der größten Übel im traditionellen Information (Knowledge) Management. Technologie ist zwar wichtig, doch sollte sie immer erst im letzten Schritt von Information (Knowledge) Management Initiativen betrachtet werden.

Wir wollen hier grundlegende Aufgaben von IM Technologie beschreiben sowie ein paar allgemeine Kriterien an bei der Auswahl nennen.

Die wesentliche Aufgabe der IM Technologie ist, zuverlässige Information überall einfach nutzbar zu machen. Diese allgemeine Anforderung lässt sich in wenige detaillierte Aufgaben und Auswahlkriterien herunterbrechen:

  1. IM Technologie muss eine Single-Source-of-Information ermöglichen.
  2. Sie muss modular aufgebaut sein und strikt zwischen Funktionen trennen. Beispielsweise dürfen Content Management und Content Delivery nicht in einem System kombiniert werden, auch wenn das bequem erscheint und solche Ansätze vor allem schnelles Implementieren ermöglichen.
  3. IM Technologie muss sich leicht in eine Enterprise IT integrieren lassen, also über ausreichende Schnittstellen verfügen. In einem Content Delivery System sollten beliebige Content Management Systeme genutzt werden können. Umgekehrt sollte jedes Content Management System beliebige Delivery Systeme unterstützen (siehe unten CDS, CMS).
  4. Sie muss Standards unterstützen – vor allem im Bereich Schnittstellen.
  5. IM Technologie muss die Integration von Content durch übergreifende Metadatenmodelle und Taxonomien sowie übergreifende Suchfunktionen unterstützen.
  6. IM Technologie muss den Qualitätsmanagementprozess unterstützen – beispielsweise mit Text Analytics zur Messung von Sprachqualität oder zur Term-Prüfung.
  7. Zudem sollte IM Technologie durch Kommentare, Ratings und Messen des Nutzungsverhaltens den QM Prozess unterstützen.

Die Aufgaben des Information Managers mit Blick auf IM Technologie bestehen aus 2 Komponenten. Zum einen muss er die Businessanforderungen in Anforderungen an die IM Technologie umsetzen, zum anderen muss er zur Umsetzung einer langfristigen Information Management Strategie eine IM Technologie Roadmap entwickeln.

Die Grundregel für das Content Delivery und Content Management

Content Delivery Systeme sind das, was der Name besagt: Sie visualisieren beliebigen Content. Hierzu können neben Texten auch Listen, Tabellen, Grafiken Voice oder Video gehören. Content Delivery Systeme können Wikis, Web-Anwendungen, Bots oder auch beliebige andere Anwendungen sein.

Content Management Systeme sind zum Erstellen und zum Managen von Content da. Sie sind stets auf bestimmte Typen von Content spezialisiert.

Information (Knowledge) Management neu denken

Der OpEx-Erfolg basiert ganz wesentlich auf Information Management. Und hier hängt das Gelingen nicht primär, aber doch auch von der Technologie ab. IM Technologie ist im Rahmen eines integrierten, übergreifenden Ansatzes für Information Management sicher ein wesentliches Element. Neue technologische Ansätze (Analytics, Chatbot) schaffen im Rahmen dieses Ansatzes auch vollkommen neue Möglichkeiten.

Wichtig ist jedoch der neue, innovative Ansatz des Information Managements. Dies ist der große Unterschied zu den traditionellen, gescheiterten Ansätzen und der Schlüssel zum Erfolg.

 

 

A Chatbot as Your Website’s Receptionist: 3 Concepts From Practice

A Chatbot as Your Website’s Receptionist: 3 Concepts From Practice

There’s the dream of a chatbot functioning as an automated full-scale service desk: Answering questions even when asked in an atypical way using wrong terms, capable of recognizing the exact circumstances of a customer’s problem and forwarding solutions with the exact level of detail they need. We can get there, but it’s a lot of work. For the first step, we need a closer objective.

Instead of mimicking a service desk employee with all the knowledge and handling a wide scale of requests, let’s start out with a bot working as a receptionist with a single task: telling the users where to look for a solution. Why is this a good starting point? Because we already know how to navigate our website. Once the bot can tell where to find the answer, you can concentrate on enabling it to extract the information and directly provide it to the user.

There are three approaches on how to implement this functionality: full text search, guided search and using intents. They require different levels of development effort and data preparation, but that’s not a downside: you can move on from one to the other, starting small and building on what you already have. Let’s start with the easiest one.

 

Concept 1: Search Engine Interface

You probably already have a search engine implemented in your website. If you think about it, this engine does exactly what you want the chatbot to do. It takes a free text input and returns a list of places to look for information on the terms the user entered. Thus, think of your first chatbot as an enhanced interface for classic search. It asks the user for some keywords and pops out a list of pages, maybe in combination with a short summary stored in the page’s metadata.

One could argue that this won’t add any value because there is no new functionality. But functionality is not the only thing that adds value. You can use this first bot to test the performance of the tool you use. Your developers can collect first experiences on working with this kind of technology and on how to integrate it into your existing environment. Your conversation flow designer can experiment with ways on how to map the concept to a set of conversation nodes. And of course you can collect first feedback from your users without investing too much.

And to make it clear: Even for the users there will be added value. Providing an alternative interface may help some of them or enrich the user experience. Moreover, while the search engine is done when the result page is displayed, the bot can continue supporting the user, e.g. by asking whether these results answer the question and suggesting additional contact information in case they don’t.

 

Concept 2: Guided Search

Once the bot is working and executing at least this basic task, you can increase its helpfulness. A good search engine provides some kind of filtering, right? How do you implement this in the chatbot? Well, the chatbot can ask for specific information and provide options to select. This is where the bot can start to show something that at least looks like intelligence. For example, if there are many results to a certain request, it could ask the user to set exactly the filter that reduces the number of results the most (e.g. “Which Operating System do you use?” followed by a list of all OS in the result). Thus, instead of being overwhelmed by a huge range of options the user must only make the decisions that really help.

This concept requires your pages to be enriched with some additional metadata and the bot needs direct access to this information, without the search engine functioning as a broker in between. But this is only a small adaption and since your developers already know how the bot processes data, they probably won’t run into big issues.

If your data has an accurate structure you can even remove the free text input and use only a set of questions with pre-set options as answers for setting filters. This prevents users getting wrong results due to wrong terms in the query. However, to some users this might seem like a step backwards.

 

Concept 3: Understanding the Intent

Your bot is already capable of having a conversation – without even trying to understand the user. Now your developers know how to modify the bot, your conversation designer is experienced in developing flows and the bot is integrated well into your website. Time to tackle the last missing step to a real chatbot with all the AI stuff running in the background.

For those new to the topic: Chatbots use Machine Learning to match a text input to one of several pre-defined intents. The more intents, the harder the task. Thus, it is best to start with a small set of things the users might be interested in. For a first attempt, in order to get experience in working with intents, you might want to train the bot on intents related to the conversation itself like “explain one of the options you asked me to choose from” or “I want to change a filter I set earlier”. This is a lot easier than letting the bot recognize what information the user is looking for, since there is less variety.

Later you can try to replace the search engine integration by connecting pages to intents. Nevertheless, keeping search as a fallback in case the bot fails in recognizing the intent is a better idea.

 

 

You started out with a search engine interface and got to a navigation assistant. With some additional training, the bot will be able to predict the correct location to point the user to with high accuracy. From that point on, it is only a small step to the bot answering questions by itself. This is how you get the service desk bot you dreamed of in the beginning.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Januar 2020
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

Die 7 größten Fehler von Knowledge Management und ECM

Die 7 größten Fehler von Knowledge Management und ECM

Die 7 größten Fehler von Knowledge Management und ECM

Warum Information Management? Ein Plädoyer für einen innovativen Ansatz.

 

Warum scheitern Knowledge Management (KM) oder Enterprise Content Management (ECM) seit Jahrzehnten? Warum erzeugen sie eigentlich keinen Mehrwert für die Organisation?

Die einfache Antwort lautet: Wenn man immer wieder den gleichen Ansatz nutzt, darf man sich nicht wundern, wenn es immer wieder gleich endet!

Eine Organisation wird meist von außen zum ungeliebten Thema „Dokumentation“ gedrängt. Aus Sicht der Betroffenen hat das aber höchstens zweite Priorität und verlangt etwas von der Organisation, was nicht zu ihren Kernkompetenzen gehört. Unter hohem Aufwand werden dann Ergebnisse produziert, die lediglich formale und regulatorische Anforderungen erfüllen, für die Organisation aber praktisch keinen Mehrwert bieten oder nur punktuell und kurzzeitig von Nutzen sind.

Die 7 größten Fehler

Was wie ein Naturgesetz aussieht, ist aber eher ein hausgemachtes Problem. Beispiele aus der Industrie (Technische Dokumentation/Kommunikation) zeigen, dass mit innovativen Ideen und Methoden sowie den richtigen Technologien sehr schnell erstaunliche Ergebnisse mit vergleichsweise geringen Aufwänden erzielt werden. Konzentrieren wir uns auf die 7 größten Fehler von ECM- und KM-Projekten. Information Management überwindet durch seine methodischen Ansätze und durch innovative Technologien.

1. Fehlender übergreifende Ansatz. 

Information Management (IM) ist komplex. „Think big!“ Jede Organisation muss IM übergreifend und integriert betrachten. Es gilt, viele unterschiedliche Personengruppen, divergierende Informationsbedarfe (Information Need) und IM Technologie in ein Gesamtbild zu bringen. Das beginnt mit den Zielen aller relevanter Stakeholders, bezieht die Anforderungen der Informationsnutzer ein und identifiziert die relevanten SMEs (Information Provider).

2. Fokussierung auf IM Technologie

In klassischen Projekten stehen weder Nutzer noch Information im Mittelpunkt. Projekte werden schnell durch Diskussionen über IM Technologien geprägt, vor allem wenn die Unternehmens IT eine wesentliche Rolle beim Aufsetzen der Projekte spielt.

3. Unzureichendes Know-how

Prozesse, Technologien, Standards oder Services – um nur ein paar Aspekte zu nennen – gut und verständlich zu beschreiben, ist kein leichtes Unterfangen. Man muss Inhalte verstehen, mit den Spezialisten effizient zusammenarbeiten, erkennen, wer Information nutzt und Information dann zielgruppengerecht, interessant und verständlich aufbereiten. Spezialisten, die genau dieses können, sind rar und teuer. Ihre Wichtigkeit wird gerne unterschätzt.

4. Methodenfreies Arbeiten

Methodik konzentriert sich gerne auf Versionierung und Freigabeverfahren. Das sind aber allenfalls zweitrangige Methoden. Information muss in kleine Einheiten (Information Units) heruntergebrochen werden und über Metadaten einer Taxonomie zugeordnet werden. So werden Redundanzen vermieden und Information wird wartbar. Es muss eine Priorisierung bei der Erstellung von Inhalten geben, Inhalte müssen bewertet werden (Evaluate) und es muss ein Governance auf Inhalte aufgebaut werden. Hier sollte jederzeit das Feedback von Nutzern einbezogen werden. Diese zentralen Methoden beherrschen ECM- oder KM-Projekte, die wesentlich aus der IT getrieben werden, eigentlich nie.

5. Schwerfällige unflexible Prozesse, wenig Inhalt und viel Formalismus

Traditionelles KM und ECM sind weder schlanke noch agilen Prozesse. Sie arbeiten im Grunde nach der Wasserfallmethode, sind langfristig angelegt und konzentrieren sich auf formale Prozesse. Sie arbeiten in aller Regel ohne Bewertung auf inhaltliche Ergebnisse. Damit sind sie oftmals lediglich eine Fortsetzung von traditioneller Dokumentation verbunden mit neuen Tools und einem umfassenden aber vielfach leider auch oberflächlichen Anspruch.

6. Kulturelle Defizite

Organisationen neigen dazu, den Zustand wie ein Naturgesetz zu betrachten: Relevante und gut aufbereitete Information im schnellen Zugriff gibt es nicht. Im Ergebnis herrscht keine Kultur der Kommunikation, des Feedbacks und des strukturierten Informationsteilens. Alle kümmern sich ausschließlich um ihren eigenen kleinen Bereich. Information jeder Art wird gesammelt und gehortet. So entsteht die digitale Deponie, die am Ende nicht mehr handhabbar ist.

7. Managementversagen

Halbherzigkeit drückt sich durch vieles aus: Unklare Verantwortlichkeiten, unzureichende Priorisierung und keine Erfolgsmessung sind nur die sichtbarsten Zeichen. Management „mag“ das Thema eben nicht. Zudem verstehen Manager meist weder die Bedeutung für die eigene Organisation, noch können sie die Komplexität von Information Management einschätzen. Im Ergebnis schleppt die Organisation permanent ein Thema mit sich herum, das keiner mag, alle halbherzig beschäftigt und das kaum praktischen Mehrwert für die Organisation bietet.

Stattdessen

Wenn man es nur richtig angeht, und die 7 größten Fehler vermeidet, kann selbst dokumentieren schnell gehen und Spaß machen. Und das Beste ist: Information Management funktioniert für alle Organisationen. Sie werden besser, schneller, flexibler sowie geschäfts- und kundenorientierter.

Und wie macht man es richtig: Information Management betrachtet in einem integrierten Ansatz Menschen, Informationen und IM Technologien. Zuverlässige und nützliche Information ist immer eine Momentaufnahme. Deshalb ist IM ein schneller und agiler Prozess, nutzt innovative Ansätze und lernt methodisch aus etablierten Verfahren anderer Industrien (Technische Kommunikation).

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: 20. Januar 2020
Autor: Gregor Bister
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

5 Grundregeln für ein gutes Metadatenschema

5 Grundregeln für ein gutes Metadatenschema

Automatisierung ist das Leitthema der Gegenwart. Die Flut an zu verwaltenden Informationen macht es unmöglich, jede Datei und jeden Datensatz einzeln oder gar händisch zu pflegen. Metadaten sind der Schlüssel zur Lösung dieses Problems. Sie ermöglichen es, die Informationen anhand von festgelegten Eigenschaften zu gruppieren und stapelweise zu verarbeiten. Für den reibungslosen Ablauf solcher Prozesse sollten Metadaten in strukturierter Form erfasst werden. Warum die Verwendung einer Struktur, eines Metadatenschemas, wichtig ist und was bei der Entwicklung eines Schemas zu beachten ist, verraten wir Ihnen in diesem Artikel.

 

Weshalb brauche ich ein Metadatenschema?

Maschinen – ob nun simple kleine Skripte oder KIs – sind nicht gut darin, unstrukturierte Daten zu verarbeiten, weil ihnen die Fähigkeit zur Interpretation fehlt. Erst eine feste Struktur ermöglicht ihren Einsatz. Je mehr Kontext zu einer Information vorhanden ist und je präziser ihr Aufbau und ihre Bedeutung definiert sind, umso geringer ist der Aufwand bei der automatisierten Verarbeitung und umso fehlerfreier und nützlicher sind die Ergebnisse. Ein Metadatenschema ist im Grunde nichts anderes als eine Definition mit dem Zweck, genau solche Kontexte für die Maschinen bereitzustellen.

Aber nicht nur die Verwendung der Metadaten wird unterstützt – auch die Erfassung profitiert. Da ein Metadatenschema festlegt, wie die Daten aussehen müssen, können mit dessen Hilfe viele Fehler schon bei der Eingabe erkannt werden, egal ob diese manuell oder (teil-) automatisiert geschieht. Neben der Fehlervermeidung wirkt sich ein gutes Schema auch positiv auf den Arbeitsaufwand aus, denn wenn Bedeutung und Beziehungen der Metadaten klar definiert sind, können viele von ihnen automatisch erfasst oder aus anderen (Meta-) Daten generiert werden.

Zusammengefasst heißt das: Ein Metadatenschema…

  • …ermöglicht effektive automatisierte Datenverarbeitung und -verwaltung;
  • …erhöht die Qualität der Metadaten und damit deren Wert;
  • …verringert den Aufwand bei der Metadatenerfassung.

 

Was macht ein gutes Metadatenschema aus?

Das beste Schema ist jenes, welches die Dateneingabe und -verarbeitung am besten unterstützt und am meisten vereinfacht. Ein paar Grundregeln helfen Ihnen, ein Schema zu entwickeln, dass optimal zu Ihren Daten und deren Verwendungszweck passt.

 

1.      Den Anwendungsbereich beswwwn

Auf welche Daten soll das Metadatenschema angewendet werden? Ein Schema, dass auf alle vorhandenen Daten passt, ermöglicht es auch, alle Daten mit denselben Automatismen auf einmal zu bearbeiten. Allerdings haben sehr verschiedene Daten häufig auch wenig gemeinsame Eigenschaften. Machen Sie sich Gedanken darüber, welche Daten gemeinsam verarbeitet (verwaltet, gesucht) werden. Diese sollten sich ein Schema teilen. Andere Daten und Formate braucht das Schema nicht zu berücksichtigen. Es spricht natürlich nichts dagegen, Teile des Schemas für andere Daten wiederzuverwenden.

 

2.      Die richtige Auswahl der Felder

Ein Metadatenschema besteht aus sogenannten Feldern, wobei jedes Feld genau eine festgelegte Information enthält. Es lohnt sich, etwas Zeit in die Überlegung zu investieren, welche Felder gebraucht werden und woher die Daten kommen sollen. Die Leitfrage lautet: Wozu sollen die Metadaten verwendet werden? Es ist Zeitverschwendung, ein Feld zu definieren, das gar nicht benötigt wird. Selbiges gilt für Felder, die für einen großen Teil der Datensätze nicht ausgefüllt werden können, weil die Erschließung der Information entweder zu aufwändig oder überhaupt nicht möglich ist.

Die Informationen sollten in möglichst kleine Bestandteile aufgespalten werden, denn zwei klar definierte Felder zusammenzuführen ist leichter und weniger fehleranfällig, als den Inhalt eines Feldes zu zerlegen. Prüfen Sie also jedes Feld, das Sie nutzen wollen, darauf, ob es nicht zwei oder mehr unabhängige Informationen vereint. Bei einer Kombination von Informationen, die häufig in dieser Form benötigt wird, spricht nichts dagegen, sie in einem zusätzlichen Feld zu speichern – dieses sollte dann aber unbedingt automatisch ausgefüllt werden, damit keine Widersprüche entstehen.

 

3.      Das Rad nicht neu erfinden

In vielen Bereichen wird bereits seit langem mit Metadaten gearbeitet. Die Notwendigkeit, Daten auszutauschen, hat dabei zur Entwicklung robuster, gut dokumentierter Metadatenschemata und ‑austauschformate geführt, welche die meisten Bedürfnisse einer Sparte abdecken. Die Verwendung eines Standards bringt eine ganze Reihe von Vorteilen mit sich. Daten, die Ihnen von anderen zur Verfügung gestellt werden, können Sie sofort und ohne Anpassung verwenden, wenn dasselbe Standardschema verwendet wird. Für verbreitete Schemata gibt es Tools und Masken, welche die Datenpflege noch weiter erleichtern. Und natürlich sparen Sie sich den Aufwand, selbst ein Schema zu definieren. Wenn also iiRDS, Dublin Core oder MODS alles bietet, was Sie brauchen, fahren Sie damit vermutlich besser als mit einem eigenen, allein auf Ihre Daten optimierten Schema.

 

4.      So eng und exakt wie möglich

Je weniger Auswahlmöglichkeiten und Freiräume ein Schema bietet, umso besser. Jede Alternative ist eine Gelegenheit, die falsche Wahl zu treffen. Legen Sie genau fest, welche Information in welcher Form in ein bestimmtes Feld eingetragen werden kann. Datentypen, Auswahllisten und Reguläre Ausdrücke (eine Sprache zur Beschreibung von Zeichenketten) sind hier großartige Helfer. Sie vermeiden Tippfehler und sorgen dafür, dass dieselbe Information immer in der gleichen Form gegeben ist. Aber auch einfachere Mittel bringen schon einen großen Nutzen. Erlauben Sie für ein Feld „Bewertung“ im Schulnotensystem nur die Zahlen eins bis sechs. Sogar eine kurze Erklärung, für welche Information genau das Feld gedacht ist, kann schon helfen.

 

5.      Optional vs. obligatorisch

Wenn Sie planen, Metadaten automatisch oder durch Experten zu erfassen, sollte das Ausfüllen aller Felder verpflichtend sein, von denen Sie wissen, dass sie auf alle Instanzen zutreffen. Jede Person hat einen Namen, jede Datei ein Format, jeder digitale Text eine Kodierung. Bleibt ein Feld leer, kann der Datensatz bei allen Prozessen, die darauf zugreifen, nicht mehr verarbeitet werden oder benötigt zumindest eine Sonderbehandlung. Dadurch sinkt der Nutzen des Schemas erheblich.

Es gibt jedoch eine Ausnahme, bei der die Einengung des Schemas durch einen möglichst hohen Anteil obligatorischer Felder ein Nachteil sein kann; nämlich dann, wenn die Metadaten manuell von Leuten eingegeben werden, deren Hauptaufgabe nicht die Verwaltung dieser Daten ist. Zu viele verpflichtende Angaben bedeuten einen gewissen Zeitaufwand, was wiederum zu geringer Motivation führen kann und damit zu unüberlegten, fehlerhaften oder gar zufälligen Eingaben. In solchen Fällen ist also ein Abwiegen zwischen zumutbarem Aufwand und optimaler Datenqualität notwendig.

Optionale Felder sind natürlich trotzdem auch bei automatischer Erfassung nützlich. Ein Feld „Letzte Renovierung“ im Metadatensatz zu einem Haus ist eine gute Idee – aber bei einem Neubau nicht zutreffend. Optionale Felder haben überall dort einen Wert, wo auch das Fehlen der Angabe eine Aussage darstellt.

 

Neben diesen Grundregeln gilt natürlich noch die Regel der Umsetzbarkeit. Wenn der Aufwand, eine Auswahlliste zu erstellen oder zu pflegen, nicht zu stemmen ist, oder wenn die technische Umsetzung des optimalen Schemas zu lange dauern würde, lassen sich Abstriche bei der Genauigkeit nicht vermeiden. Wer aber von vorneherein nicht weiß, was das optimale Metadatenschema wäre, wird auch Schwierigkeiten haben, das bestmögliche Schema umzusetzen.

Metadatenschema fertig? Dann auf zum nächsten Schritt – dem Capturing! Oder vielleicht doch lieber Create?

5 Grundregeln für ein gutes Metadatenschema

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum 
Datum: Juni 2019
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2019.
All Rights Reserved.

(Die richtigen) Informationen machen das Service Management erfolgreich!

(Die richtigen) Informationen machen das Service Management erfolgreich!

3 Komponenten für ein erfolgreiches (Customer) Service Management

Ob IT Service Desk oder Customer Service, die Herausforderungen für hohe Kundenzufriedenheit gleichen sich. Sinkt die Kundenzufriedenheit, steigen meist parallel die Aufwände im Customer Service. Ist der Service selbsterklärend, leicht nutzbar und funktioniert störungsfrei, ist die Kundenzufriedenheit hoch und die Aufwände im Customer Service sinken.

Gut funktionierende Services sind die Basis für Kundenzufriedenheit. Was sind weitere Erfolgsfaktoren?

Der Erfolg basiert immer auf 3 Komponenten:

1. Informationen für jeden Nutzer
Sie müssen gut verständlich, selbsterklärend, zuverlässig und vollständig sein.

2. Technologie
Sie muss erforderliche Informationen für Nutzer (Information User) unmittelbar und leicht verständlich zur Verfügung stellen. Zudem muss sie geeignet sein, Informationen ohne große Aufwände zu managen.

3. Information Management
Informationen und Technologie ohne Information Management bleiben Stückwerk. Beide müssen aufeinander abgestimmt und an den Zielen der wesentlichen Stakeholder ausgerichtet werden.

 

1) Informationen

Um welche Informationen geht es, wer sind die Information User? Einfach gesagt: Alle Informationen, die ein Nutzer in allen Phasen der Nutzung benötigt. Nutzer sind Kunden und Mitarbeiter sowie im Besonderen Services Desk Agents. Welche Informationen brauchen diese Information User konkret? Vieles nutzen sie gemeinsam, manches benötigen nur Einzelne. Alle Nutzer verwenden eine Vielzahl unterschiedlicher Kommunikationswege, Anwendungen und Systeme. Und hier beginnt das Übel: Informationen sind nicht gemanagt, in der Regel toolspezifisch oder nutzerbezogen. Sie sind somit nicht integriert, widersprüchlich, redundant, fehlerhaft und unvollständig. Zudem nicht leicht auffindbar und nur schwer nutzbar (Sprache, Stil, keine einheitliche Terminologie …).

 

2) Technologie

Die Qualität von Informationen und Informationssystemen beruht auf zahlreichen Faktoren. Ganz wesentlich wird sie durch ein paar Basisregeln auch für die verwendeten Technologien bestimmt:

1. Keine Redundanzen von Information. Deshalb benötigt man ein übergeordnetes Modell für Information Units und Metadaten (Taxonomien).

2. Konsequente Trennung von Content Management, Content Delivery und Analytics.

3. Zentralisierte Analyse über alle Daten aus der Servicenutzung.

 

 

Content Delivery

Selbst in kleineren Unternehmen wird Content für interne Nutzer und für Kunden in mehreren Content Delivery Systemen zur Verfügung gestellt. Bekannte Systeme sind Webportale (Wiki), Applikationen, FAQs, Chat und Chatbot, Audio- oder Videosysteme sowie Print-Ausgaben.

Wichtigste Grundregel ist, im Delivery System keinen Content zu managen. Sobald Sie beginnen, im Content Delivery System Content (Informationen) zu erstellen und zu managen, ist dieser Content für andere Bereiche kaum noch nutzbar. Der Content wird zum Single-Purpose-Content. Zudem sind Delivery Systeme selten für das Content Management geeignet, sie sind bestenfalls zweite Wahl. Wenn Sie also Content wirklich professionell managen wollen, sollte das nur in Ausnahmefällen im Delivery System geschehen.

Content Management

Content sollte möglichst dezentral erstellt werden können und möglichst zentral verwaltet werden. Es ist in der Praxis kaum möglich, alles in einem System zu verwalten. Unterschiedliche Arten von Content erfordern eben auch unterschiedliche CM Systeme. Hierzu gehören Text, Audio, Video, Grafiken, Code sowie Tabellen (Strukturierte Daten). Was aber übergreifend wichtig ist:

1. Content muss stets in kleine Einheiten (Information Units) zerlegt werden. Das stellt die Verwendbarkeit in unterschiedlichen Delivery Systemen (Application, FAQ, Chatbot, Web) sicher und ermöglicht langfristig ein effektives und effizientes Content Management.

2. Content muss so erstellt werden, dass er grundsätzlich in verschiedenen Delivery Systemen genutzt werden kann. Content Management Systeme sollten deshalb über entsprechende Schnittstellen verfügen und erforderliche Formate bereitstellen können

3. Metadatenmodelle (Taxonomien) müssen stets systemübergreifend sein. Das stellt sicher, dass Information wartbar, managebar und damit nutzbar bleibt.

 

Analytics

Hier wollen wir uns auf Information Management beschränken und Analysen zu Services und Kundenzufriedenheit außen vorlassen.

Content Delivery Systeme erzeugen permanent wertvolle Daten zur Nutzung und Bewertungen. Diese Daten entstehen beispielsweise über Seitenaufrufe, Ratings, Kommentare und Fragen (auf Seiten oder in CRM Systemen sowie Ticketing Tools erfasst), Suchen oder Eingaben in Chatbots. Diese Daten bieten einen hohen Mehrwert, wenn sie zusammengeführt und ausgewertet werden.

Es spricht nichts dagegen, out-of-the-box Analysemöglichkeiten aus Einzelsystemen zu nutzen. Vermeiden Sie es, aufwändige Anpassungen an einzelnen Tools vorzunehmen, um die eingebauten Analytics-Engines zu verbessern oder erweitern. Tendenziell wird die Anzahl Ihrer Systeme für Content Delivery und Nutzerkommunikation eher größer als kleiner. Vor allem in der Kommunikation mit Kunden werden langfristig immer größere Datenmengen aus immer mehr Datenquellen zur Verfügung stehen.

Ein gutes Beispiel ist der Umgang mit textbasierten Informationen und den Bewertungen von Nutzern. Textbasierte Informationen werden für unterschiedliche Delivery Systeme (Web, Wiki, Chatbot, FAQ …) erstellt. Parallel fallen in der Nutzung zahlreiche textbasierte oder textbezogene Informationen an (Kommentare, Ratings zu Verständlichkeit, Click Rates und Verweildauer, Sucheingaben, Chatbot …). Die Analyse solcher Daten liefert nicht nur eine Basis für besseren (verständlicheren) Content, sondern auch wertvolle Informationen zu Lücken oder überflüssigem Content sowie zur Auffindbarkeit.

 

3) Information Management

Es klingt wie eine Binsenweisheit: Ohne Management, Architektur und Design funktioniert nichts wirklich. Aber warum sollen Informationen in komplexen Umfeldern ohne Management zuverlässig und integriert funktionieren? Information Manager sind der Schlüssel zum Erfolg. Sie ersetzen den traditionellen Technischen Redakteur oder Technical Writer.

Das sind die wichtigsten Unterschiede, die sich durch den Einsatz des Information Manager ergeben:

1. Information Managers steuern den Prozess. Sie haben den Überblick, wissen, was zu tun ist und wie.

2. Alle Information Managers nutzen dieselben Methoden, folgen denselben Vorgehensmodellen und wissen, wie man damit effizient und hochwertig arbeitet.

3. Und der größte Unterschied: Die Taxonomie, das Konzept der Information Unit, und die Metadaten. Jeder Information Manager kennt das Modell, hält sich an dieselben Regeln und Konzepte, und verwendet dasselbe Set von Metadaten.

 

Summary

Für ein erfolgreiches Customer Service Management muss man nicht viele Regeln beachten. Denken Sie Groß, entwickeln Sie ihre Vision und starten Sie dann mit einzelnen Teilthemen. Das entscheidende ist, die Wichtigkeit von Informationen für Nutzer und den enormen Wert von anwendungsbezogenen Daten zu erkennen. Dann gilt: Information Management als Prozess zu begreifen und sich an ein paar Regeln zum Einsatz von Technologie zu halten.

 

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Dezember 2019
Autor: Gregor Bister
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

The Problem in AI no one Talks About

The Problem in AI no one Talks About

With Artificial Intelligence, everything is possible today, isn’t it? We have Machine Learning and Neural Networks and all that stuff. Machines can help your customers online via chatbot (if they need help with the right things), categorize text by topic (sometimes) and tell what’s depicted in an image (okay, that works quite well… usually).

Yes, of course there is still a lot of work to do. We need to improve the accuracy, we need a bit more computing power and we have to talk about the social implications. But beside that, we can use AI to solve all our business problems!

Well, no.

Why? There are a lot of answers to that, from legal issues to result-interpretation to infrastructure to cost. But the one problem that affects every single AI is rarely mentioned: data. The reason for that: The leaders in AI technology – Universities, Google, Apple and so on – don’t have that problem. But if you start using AI, you will run into it.

See, all AI must be trained first. You need training data for that. Then you must test the quality of the models produced during training. You need separate testing data for that. And to ensure it is really working, you must feed some validation data to the model. And don’t think it is done with some small datasets for each of those tasks. Especially the youngest generation of AI technologies needs lots and lots of data. Depending on the variance within your data, you may want to start with several hundreds of records, better thousands.

 

But there is Big Data! Or we could use our company’s databases, data shares and SharePoints!

 

Well, no.

How will you gather this data? It is often hard to find a single source providing enough of the data you need. Combining several sources is even harder since all records must be in the same format. If you are planning to build an AI, be aware that you might end up investing more time into the preprocessing than in actually building and testing your models. You will also need to involve some specialists for the data you are processing to tell you how to structure your data.

 

Oh, okay, so we will do all that. May take a while, but at some point we will have enough data and then we can feed it to the algorithm.

 

Well, no.

You will get a result and at first glance it might even look marvelous. 97% of records classified correctly by your AI for categorizing the documents on your intranet into “useful” and “garbage”. That’s great! Until you recognize that the AI just decided to label all documents as garbage, independent from their quality.

That is what happens if your dataset is unbalanced. In the example case, only 3% of it were high quality documents, thus by putting all the documents in one class the AI reached a high accuracy and an even higher degree of uselessness. Balancing your dataset is a difficult task. You need enough examples for every class and a representative amount of variance within the data. If all training records for one class are from the same author, from the same time period, on the same topic or whatever connections might be hidden within your data, the model will work in testing, but will completely fail in operation.

There are techniques that to some degree can handle the bias resulting from unbalanced data. But you should not rely too heavily on them. Thus, you don’t just need thousands of records – you need thousands of records for every single class your AI should identify. And you need a subject matter expert to help you uncover the hidden dependencies.

 

*Sigh*… okay. We collected the data, we processed it and we ensured the set is balanced. But now, finally, AI can solve the problem we initially set out to solve?

 

Well, congratulations, you achieved something that can take years and, in many cases, is even impossible. Beside that… No. But you finally reached the point where you can start coping with all the issues of AI itself! Find the best algorithm for your use case, set up the necessary infrastructure, solve the model selection problem, find an efficient way for interpreting the results and learn how to take advantage of your findings. Then AI will help you to solve this one single business Problem.

Do you have any question? Simply email to: marketing@avato.net

Imprint: 
Date: November 2019
Author: Isabell Bachmann
Contact: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.