A Chatbot as Your Website’s Receptionist: 3 Concepts From Practice

A Chatbot as Your Website’s Receptionist: 3 Concepts From Practice

There’s the dream of a chatbot functioning as an automated full-scale service desk: Answering questions even when asked in an atypical way using wrong terms, capable of recognizing the exact circumstances of a customer’s problem and forwarding solutions with the exact level of detail they need. We can get there, but it’s a lot of work. For the first step, we need a closer objective.

Instead of mimicking a service desk employee with all the knowledge and handling a wide scale of requests, let’s start out with a bot working as a receptionist with a single task: telling the users where to look for a solution. Why is this a good starting point? Because we already know how to navigate our website. Once the bot can tell where to find the answer, you can concentrate on enabling it to extract the information and directly provide it to the user.

There are three approaches on how to implement this functionality: full text search, guided search and using intents. They require different levels of development effort and data preparation, but that’s not a downside: you can move on from one to the other, starting small and building on what you already have. Let’s start with the easiest one.

 

Concept 1: Search Engine Interface

You probably already have a search engine implemented in your website. If you think about it, this engine does exactly what you want the chatbot to do. It takes a free text input and returns a list of places to look for information on the terms the user entered. Thus, think of your first chatbot as an enhanced interface for classic search. It asks the user for some keywords and pops out a list of pages, maybe in combination with a short summary stored in the page’s metadata.

One could argue that this won’t add any value because there is no new functionality. But functionality is not the only thing that adds value. You can use this first bot to test the performance of the tool you use. Your developers can collect first experiences on working with this kind of technology and on how to integrate it into your existing environment. Your conversation flow designer can experiment with ways on how to map the concept to a set of conversation nodes. And of course you can collect first feedback from your users without investing too much.

And to make it clear: Even for the users there will be added value. Providing an alternative interface may help some of them or enrich the user experience. Moreover, while the search engine is done when the result page is displayed, the bot can continue supporting the user, e.g. by asking whether these results answer the question and suggesting additional contact information in case they don’t.

 

Concept 2: Guided Search

Once the bot is working and executing at least this basic task, you can increase its helpfulness. A good search engine provides some kind of filtering, right? How do you implement this in the chatbot? Well, the chatbot can ask for specific information and provide options to select. This is where the bot can start to show something that at least looks like intelligence. For example, if there are many results to a certain request, it could ask the user to set exactly the filter that reduces the number of results the most (e.g. “Which Operating System do you use?” followed by a list of all OS in the result). Thus, instead of being overwhelmed by a huge range of options the user must only make the decisions that really help.

This concept requires your pages to be enriched with some additional metadata and the bot needs direct access to this information, without the search engine functioning as a broker in between. But this is only a small adaption and since your developers already know how the bot processes data, they probably won’t run into big issues.

If your data has an accurate structure you can even remove the free text input and use only a set of questions with pre-set options as answers for setting filters. This prevents users getting wrong results due to wrong terms in the query. However, to some users this might seem like a step backwards.

 

Concept 3: Understanding the Intent

Your bot is already capable of having a conversation – without even trying to understand the user. Now your developers know how to modify the bot, your conversation designer is experienced in developing flows and the bot is integrated well into your website. Time to tackle the last missing step to a real chatbot with all the AI stuff running in the background.

For those new to the topic: Chatbots use Machine Learning to match a text input to one of several pre-defined intents. The more intents, the harder the task. Thus, it is best to start with a small set of things the users might be interested in. For a first attempt, in order to get experience in working with intents, you might want to train the bot on intents related to the conversation itself like “explain one of the options you asked me to choose from” or “I want to change a filter I set earlier”. This is a lot easier than letting the bot recognize what information the user is looking for, since there is less variety.

Later you can try to replace the search engine integration by connecting pages to intents. Nevertheless, keeping search as a fallback in case the bot fails in recognizing the intent is a better idea.

 

 

You started out with a search engine interface and got to a navigation assistant. With some additional training, the bot will be able to predict the correct location to point the user to with high accuracy. From that point on, it is only a small step to the bot answering questions by itself. This is how you get the service desk bot you dreamed of in the beginning.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Januar 2020
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

Die 7 größten Fehler von Knowledge Management und ECM

Die 7 größten Fehler von Knowledge Management und ECM

Die 7 größten Fehler von Knowledge Management und ECM

Warum Information Management? Ein Plädoyer für einen innovativen Ansatz.

 

Warum scheitern Knowledge Management (KM) oder Enterprise Content Management (ECM) seit Jahrzehnten? Warum erzeugen sie eigentlich keinen Mehrwert für die Organisation?

Die einfache Antwort lautet: Wenn man immer wieder den gleichen Ansatz nutzt, darf man sich nicht wundern, wenn es immer wieder gleich endet!

Eine Organisation wird meist von außen zum ungeliebten Thema „Dokumentation“ gedrängt. Aus Sicht der Betroffenen hat das aber höchstens zweite Priorität und verlangt etwas von der Organisation, was nicht zu ihren Kernkompetenzen gehört. Unter hohem Aufwand werden dann Ergebnisse produziert, die lediglich formale und regulatorische Anforderungen erfüllen, für die Organisation aber praktisch keinen Mehrwert bieten oder nur punktuell und kurzzeitig von Nutzen sind.

Die 7 größten Fehler

Was wie ein Naturgesetz aussieht, ist aber eher ein hausgemachtes Problem. Beispiele aus der Industrie (Technische Dokumentation/Kommunikation) zeigen, dass mit innovativen Ideen und Methoden sowie den richtigen Technologien sehr schnell erstaunliche Ergebnisse mit vergleichsweise geringen Aufwänden erzielt werden. Konzentrieren wir uns auf die 7 größten Fehler von ECM- und KM-Projekten. Information Management überwindet durch seine methodischen Ansätze und durch innovative Technologien.

1. Fehlender übergreifende Ansatz. 

Information Management (IM) ist komplex. „Think big!“ Jede Organisation muss IM übergreifend und integriert betrachten. Es gilt, viele unterschiedliche Personengruppen, divergierende Informationsbedarfe (Information Need) und IM Technologie in ein Gesamtbild zu bringen. Das beginnt mit den Zielen aller relevanter Stakeholders, bezieht die Anforderungen der Informationsnutzer ein und identifiziert die relevanten SMEs (Information Provider).

2. Fokussierung auf IM Technologie

In klassischen Projekten stehen weder Nutzer noch Information im Mittelpunkt. Projekte werden schnell durch Diskussionen über IM Technologien geprägt, vor allem wenn die Unternehmens IT eine wesentliche Rolle beim Aufsetzen der Projekte spielt.

3. Unzureichendes Know-how

Prozesse, Technologien, Standards oder Services – um nur ein paar Aspekte zu nennen – gut und verständlich zu beschreiben, ist kein leichtes Unterfangen. Man muss Inhalte verstehen, mit den Spezialisten effizient zusammenarbeiten, erkennen, wer Information nutzt und Information dann zielgruppengerecht, interessant und verständlich aufbereiten. Spezialisten, die genau dieses können, sind rar und teuer. Ihre Wichtigkeit wird gerne unterschätzt.

4. Methodenfreies Arbeiten

Methodik konzentriert sich gerne auf Versionierung und Freigabeverfahren. Das sind aber allenfalls zweitrangige Methoden. Information muss in kleine Einheiten (Information Units) heruntergebrochen werden und über Metadaten einer Taxonomie zugeordnet werden. So werden Redundanzen vermieden und Information wird wartbar. Es muss eine Priorisierung bei der Erstellung von Inhalten geben, Inhalte müssen bewertet werden (Evaluate) und es muss ein Governance auf Inhalte aufgebaut werden. Hier sollte jederzeit das Feedback von Nutzern einbezogen werden. Diese zentralen Methoden beherrschen ECM- oder KM-Projekte, die wesentlich aus der IT getrieben werden, eigentlich nie.

5. Schwerfällige unflexible Prozesse, wenig Inhalt und viel Formalismus

Traditionelles KM und ECM sind weder schlanke noch agilen Prozesse. Sie arbeiten im Grunde nach der Wasserfallmethode, sind langfristig angelegt und konzentrieren sich auf formale Prozesse. Sie arbeiten in aller Regel ohne Bewertung auf inhaltliche Ergebnisse. Damit sind sie oftmals lediglich eine Fortsetzung von traditioneller Dokumentation verbunden mit neuen Tools und einem umfassenden aber vielfach leider auch oberflächlichen Anspruch.

6. Kulturelle Defizite

Organisationen neigen dazu, den Zustand wie ein Naturgesetz zu betrachten: Relevante und gut aufbereitete Information im schnellen Zugriff gibt es nicht. Im Ergebnis herrscht keine Kultur der Kommunikation, des Feedbacks und des strukturierten Informationsteilens. Alle kümmern sich ausschließlich um ihren eigenen kleinen Bereich. Information jeder Art wird gesammelt und gehortet. So entsteht die digitale Deponie, die am Ende nicht mehr handhabbar ist.

7. Managementversagen

Halbherzigkeit drückt sich durch vieles aus: Unklare Verantwortlichkeiten, unzureichende Priorisierung und keine Erfolgsmessung sind nur die sichtbarsten Zeichen. Management „mag“ das Thema eben nicht. Zudem verstehen Manager meist weder die Bedeutung für die eigene Organisation, noch können sie die Komplexität von Information Management einschätzen. Im Ergebnis schleppt die Organisation permanent ein Thema mit sich herum, das keiner mag, alle halbherzig beschäftigt und das kaum praktischen Mehrwert für die Organisation bietet.

Stattdessen

Wenn man es nur richtig angeht, und die 7 größten Fehler vermeidet, kann selbst dokumentieren schnell gehen und Spaß machen. Und das Beste ist: Information Management funktioniert für alle Organisationen. Sie werden besser, schneller, flexibler sowie geschäfts- und kundenorientierter.

Und wie macht man es richtig: Information Management betrachtet in einem integrierten Ansatz Menschen, Informationen und IM Technologien. Zuverlässige und nützliche Information ist immer eine Momentaufnahme. Deshalb ist IM ein schneller und agiler Prozess, nutzt innovative Ansätze und lernt methodisch aus etablierten Verfahren anderer Industrien (Technische Kommunikation).

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: 20. Januar 2020
Autor: Gregor Bister
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

5 Grundregeln für ein gutes Metadatenschema

5 Grundregeln für ein gutes Metadatenschema

Automatisierung ist das Leitthema der Gegenwart. Die Flut an zu verwaltenden Informationen macht es unmöglich, jede Datei und jeden Datensatz einzeln oder gar händisch zu pflegen. Metadaten sind der Schlüssel zur Lösung dieses Problems. Sie ermöglichen es, die Informationen anhand von festgelegten Eigenschaften zu gruppieren und stapelweise zu verarbeiten. Für den reibungslosen Ablauf solcher Prozesse sollten Metadaten in strukturierter Form erfasst werden. Warum die Verwendung einer Struktur, eines Metadatenschemas, wichtig ist und was bei der Entwicklung eines Schemas zu beachten ist, verraten wir Ihnen in diesem Artikel.

 

Weshalb brauche ich ein Metadatenschema?

Maschinen – ob nun simple kleine Skripte oder KIs – sind nicht gut darin, unstrukturierte Daten zu verarbeiten, weil ihnen die Fähigkeit zur Interpretation fehlt. Erst eine feste Struktur ermöglicht ihren Einsatz. Je mehr Kontext zu einer Information vorhanden ist und je präziser ihr Aufbau und ihre Bedeutung definiert sind, umso geringer ist der Aufwand bei der automatisierten Verarbeitung und umso fehlerfreier und nützlicher sind die Ergebnisse. Ein Metadatenschema ist im Grunde nichts anderes als eine Definition mit dem Zweck, genau solche Kontexte für die Maschinen bereitzustellen.

Aber nicht nur die Verwendung der Metadaten wird unterstützt – auch die Erfassung profitiert. Da ein Metadatenschema festlegt, wie die Daten aussehen müssen, können mit dessen Hilfe viele Fehler schon bei der Eingabe erkannt werden, egal ob diese manuell oder (teil-) automatisiert geschieht. Neben der Fehlervermeidung wirkt sich ein gutes Schema auch positiv auf den Arbeitsaufwand aus, denn wenn Bedeutung und Beziehungen der Metadaten klar definiert sind, können viele von ihnen automatisch erfasst oder aus anderen (Meta-) Daten generiert werden.

Zusammengefasst heißt das: Ein Metadatenschema…

  • …ermöglicht effektive automatisierte Datenverarbeitung und -verwaltung;
  • …erhöht die Qualität der Metadaten und damit deren Wert;
  • …verringert den Aufwand bei der Metadatenerfassung.

 

Was macht ein gutes Metadatenschema aus?

Das beste Schema ist jenes, welches die Dateneingabe und -verarbeitung am besten unterstützt und am meisten vereinfacht. Ein paar Grundregeln helfen Ihnen, ein Schema zu entwickeln, dass optimal zu Ihren Daten und deren Verwendungszweck passt.

 

1.      Den Anwendungsbereich bestimmen

Auf welche Daten soll das Metadatenschema angewendet werden? Ein Schema, dass auf alle vorhandenen Daten passt, ermöglicht es auch, alle Daten mit denselben Automatismen auf einmal zu bearbeiten. Allerdings haben sehr verschiedene Daten häufig auch wenig gemeinsame Eigenschaften. Machen Sie sich Gedanken darüber, welche Daten gemeinsam verarbeitet (verwaltet, gesucht) werden. Diese sollten sich ein Schema teilen. Andere Daten und Formate braucht das Schema nicht zu berücksichtigen. Es spricht natürlich nichts dagegen, Teile des Schemas für andere Daten wiederzuverwenden.

 

2.      Die richtige Auswahl der Felder

Ein Metadatenschema besteht aus sogenannten Feldern, wobei jedes Feld genau eine festgelegte Information enthält. Es lohnt sich, etwas Zeit in die Überlegung zu investieren, welche Felder gebraucht werden und woher die Daten kommen sollen. Die Leitfrage lautet: Wozu sollen die Metadaten verwendet werden? Es ist Zeitverschwendung, ein Feld zu definieren, das gar nicht benötigt wird. Selbiges gilt für Felder, die für einen großen Teil der Datensätze nicht ausgefüllt werden können, weil die Erschließung der Information entweder zu aufwändig oder überhaupt nicht möglich ist.

Die Informationen sollten in möglichst kleine Bestandteile aufgespalten werden, denn zwei klar definierte Felder zusammenzuführen ist leichter und weniger fehleranfällig, als den Inhalt eines Feldes zu zerlegen. Prüfen Sie also jedes Feld, das Sie nutzen wollen, darauf, ob es nicht zwei oder mehr unabhängige Informationen vereint. Bei einer Kombination von Informationen, die häufig in dieser Form benötigt wird, spricht nichts dagegen, sie in einem zusätzlichen Feld zu speichern – dieses sollte dann aber unbedingt automatisch ausgefüllt werden, damit keine Widersprüche entstehen.

 

3.      Das Rad nicht neu erfinden

In vielen Bereichen wird bereits seit langem mit Metadaten gearbeitet. Die Notwendigkeit, Daten auszutauschen, hat dabei zur Entwicklung robuster, gut dokumentierter Metadatenschemata und ‑austauschformate geführt, welche die meisten Bedürfnisse einer Sparte abdecken. Die Verwendung eines Standards bringt eine ganze Reihe von Vorteilen mit sich. Daten, die Ihnen von anderen zur Verfügung gestellt werden, können Sie sofort und ohne Anpassung verwenden, wenn dasselbe Standardschema verwendet wird. Für verbreitete Schemata gibt es Tools und Masken, welche die Datenpflege noch weiter erleichtern. Und natürlich sparen Sie sich den Aufwand, selbst ein Schema zu definieren. Wenn also iiRDS, Dublin Core oder MODS alles bietet, was Sie brauchen, fahren Sie damit vermutlich besser als mit einem eigenen, allein auf Ihre Daten optimierten Schema.

 

4.      So eng und exakt wie möglich

Je weniger Auswahlmöglichkeiten und Freiräume ein Schema bietet, umso besser. Jede Alternative ist eine Gelegenheit, die falsche Wahl zu treffen. Legen Sie genau fest, welche Information in welcher Form in ein bestimmtes Feld eingetragen werden kann. Datentypen, Auswahllisten und Reguläre Ausdrücke (eine Sprache zur Beschreibung von Zeichenketten) sind hier großartige Helfer. Sie vermeiden Tippfehler und sorgen dafür, dass dieselbe Information immer in der gleichen Form gegeben ist. Aber auch einfachere Mittel bringen schon einen großen Nutzen. Erlauben Sie für ein Feld „Bewertung“ im Schulnotensystem nur die Zahlen eins bis sechs. Sogar eine kurze Erklärung, für welche Information genau das Feld gedacht ist, kann schon helfen.

 

5.      Optional vs. obligatorisch

Wenn Sie planen, Metadaten automatisch oder durch Experten zu erfassen, sollte das Ausfüllen aller Felder verpflichtend sein, von denen Sie wissen, dass sie auf alle Instanzen zutreffen. Jede Person hat einen Namen, jede Datei ein Format, jeder digitale Text eine Kodierung. Bleibt ein Feld leer, kann der Datensatz bei allen Prozessen, die darauf zugreifen, nicht mehr verarbeitet werden oder benötigt zumindest eine Sonderbehandlung. Dadurch sinkt der Nutzen des Schemas erheblich.

Es gibt jedoch eine Ausnahme, bei der die Einengung des Schemas durch einen möglichst hohen Anteil obligatorischer Felder ein Nachteil sein kann; nämlich dann, wenn die Metadaten manuell von Leuten eingegeben werden, deren Hauptaufgabe nicht die Verwaltung dieser Daten ist. Zu viele verpflichtende Angaben bedeuten einen gewissen Zeitaufwand, was wiederum zu geringer Motivation führen kann und damit zu unüberlegten, fehlerhaften oder gar zufälligen Eingaben. In solchen Fällen ist also ein Abwiegen zwischen zumutbarem Aufwand und optimaler Datenqualität notwendig.

Optionale Felder sind natürlich trotzdem auch bei automatischer Erfassung nützlich. Ein Feld „Letzte Renovierung“ im Metadatensatz zu einem Haus ist eine gute Idee – aber bei einem Neubau nicht zutreffend. Optionale Felder haben überall dort einen Wert, wo auch das Fehlen der Angabe eine Aussage darstellt.

 

Neben diesen Grundregeln gilt natürlich noch die Regel der Umsetzbarkeit. Wenn der Aufwand, eine Auswahlliste zu erstellen oder zu pflegen, nicht zu stemmen ist, oder wenn die technische Umsetzung des optimalen Schemas zu lange dauern würde, lassen sich Abstriche bei der Genauigkeit nicht vermeiden. Wer aber von vorneherein nicht weiß, was das optimale Metadatenschema wäre, wird auch Schwierigkeiten haben, das bestmögliche Schema umzusetzen.

Metadatenschema fertig? Dann auf zum nächsten Schritt – dem Capturing! Oder vielleicht doch lieber Create?

5 Grundregeln für ein gutes Metadatenschema

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum 
Datum: Juni 2019
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2019.
All Rights Reserved.

(Die richtigen) Informationen machen das Service Management erfolgreich!

(Die richtigen) Informationen machen das Service Management erfolgreich!

3 Komponenten für ein erfolgreiches (Customer) Service Management

Ob IT Service Desk oder Customer Service, die Herausforderungen für hohe Kundenzufriedenheit gleichen sich. Sinkt die Kundenzufriedenheit, steigen meist parallel die Aufwände im Customer Service. Ist der Service selbsterklärend, leicht nutzbar und funktioniert störungsfrei, ist die Kundenzufriedenheit hoch und die Aufwände im Customer Service sinken.

Gut funktionierende Services sind die Basis für Kundenzufriedenheit. Was sind weitere Erfolgsfaktoren?

Der Erfolg basiert immer auf 3 Komponenten:

1. Informationen für jeden Nutzer
Sie müssen gut verständlich, selbsterklärend, zuverlässig und vollständig sein.

2. Technologie
Sie muss erforderliche Informationen für Nutzer (Information User) unmittelbar und leicht verständlich zur Verfügung stellen. Zudem muss sie geeignet sein, Informationen ohne große Aufwände zu managen.

3. Information Management
Informationen und Technologie ohne Information Management bleiben Stückwerk. Beide müssen aufeinander abgestimmt und an den Zielen der wesentlichen Stakeholder ausgerichtet werden.

 

1) Informationen

Um welche Informationen geht es, wer sind die Information User? Einfach gesagt: Alle Informationen, die ein Nutzer in allen Phasen der Nutzung benötigt. Nutzer sind Kunden und Mitarbeiter sowie im Besonderen Services Desk Agents. Welche Informationen brauchen diese Information User konkret? Vieles nutzen sie gemeinsam, manches benötigen nur Einzelne. Alle Nutzer verwenden eine Vielzahl unterschiedlicher Kommunikationswege, Anwendungen und Systeme. Und hier beginnt das Übel: Informationen sind nicht gemanagt, in der Regel toolspezifisch oder nutzerbezogen. Sie sind somit nicht integriert, widersprüchlich, redundant, fehlerhaft und unvollständig. Zudem nicht leicht auffindbar und nur schwer nutzbar (Sprache, Stil, keine einheitliche Terminologie …).

 

2) Technologie

Die Qualität von Informationen und Informationssystemen beruht auf zahlreichen Faktoren. Ganz wesentlich wird sie durch ein paar Basisregeln auch für die verwendeten Technologien bestimmt:

1. Keine Redundanzen von Information. Deshalb benötigt man ein übergeordnetes Modell für Information Units und Metadaten (Taxonomien).

2. Konsequente Trennung von Content Management, Content Delivery und Analytics.

3. Zentralisierte Analyse über alle Daten aus der Servicenutzung.

 

 

Content Delivery

Selbst in kleineren Unternehmen wird Content für interne Nutzer und für Kunden in mehreren Content Delivery Systemen zur Verfügung gestellt. Bekannte Systeme sind Webportale (Wiki), Applikationen, FAQs, Chat und Chatbot, Audio- oder Videosysteme sowie Print-Ausgaben.

Wichtigste Grundregel ist, im Delivery System keinen Content zu managen. Sobald Sie beginnen, im Content Delivery System Content (Informationen) zu erstellen und zu managen, ist dieser Content für andere Bereiche kaum noch nutzbar. Der Content wird zum Single-Purpose-Content. Zudem sind Delivery Systeme selten für das Content Management geeignet, sie sind bestenfalls zweite Wahl. Wenn Sie also Content wirklich professionell managen wollen, sollte das nur in Ausnahmefällen im Delivery System geschehen.

Content Management

Content sollte möglichst dezentral erstellt werden können und möglichst zentral verwaltet werden. Es ist in der Praxis kaum möglich, alles in einem System zu verwalten. Unterschiedliche Arten von Content erfordern eben auch unterschiedliche CM Systeme. Hierzu gehören Text, Audio, Video, Grafiken, Code sowie Tabellen (Strukturierte Daten). Was aber übergreifend wichtig ist:

1. Content muss stets in kleine Einheiten (Information Units) zerlegt werden. Das stellt die Verwendbarkeit in unterschiedlichen Delivery Systemen (Application, FAQ, Chatbot, Web) sicher und ermöglicht langfristig ein effektives und effizientes Content Management.

2. Content muss so erstellt werden, dass er grundsätzlich in verschiedenen Delivery Systemen genutzt werden kann. Content Management Systeme sollten deshalb über entsprechende Schnittstellen verfügen und erforderliche Formate bereitstellen können

3. Metadatenmodelle (Taxonomien) müssen stets systemübergreifend sein. Das stellt sicher, dass Information wartbar, managebar und damit nutzbar bleibt.

 

Analytics

Hier wollen wir uns auf Information Management beschränken und Analysen zu Services und Kundenzufriedenheit außen vorlassen.

Content Delivery Systeme erzeugen permanent wertvolle Daten zur Nutzung und Bewertungen. Diese Daten entstehen beispielsweise über Seitenaufrufe, Ratings, Kommentare und Fragen (auf Seiten oder in CRM Systemen sowie Ticketing Tools erfasst), Suchen oder Eingaben in Chatbots. Diese Daten bieten einen hohen Mehrwert, wenn sie zusammengeführt und ausgewertet werden.

Es spricht nichts dagegen, out-of-the-box Analysemöglichkeiten aus Einzelsystemen zu nutzen. Vermeiden Sie es, aufwändige Anpassungen an einzelnen Tools vorzunehmen, um die eingebauten Analytics-Engines zu verbessern oder erweitern. Tendenziell wird die Anzahl Ihrer Systeme für Content Delivery und Nutzerkommunikation eher größer als kleiner. Vor allem in der Kommunikation mit Kunden werden langfristig immer größere Datenmengen aus immer mehr Datenquellen zur Verfügung stehen.

Ein gutes Beispiel ist der Umgang mit textbasierten Informationen und den Bewertungen von Nutzern. Textbasierte Informationen werden für unterschiedliche Delivery Systeme (Web, Wiki, Chatbot, FAQ …) erstellt. Parallel fallen in der Nutzung zahlreiche textbasierte oder textbezogene Informationen an (Kommentare, Ratings zu Verständlichkeit, Click Rates und Verweildauer, Sucheingaben, Chatbot …). Die Analyse solcher Daten liefert nicht nur eine Basis für besseren (verständlicheren) Content, sondern auch wertvolle Informationen zu Lücken oder überflüssigem Content sowie zur Auffindbarkeit.

 

3) Information Management

Es klingt wie eine Binsenweisheit: Ohne Management, Architektur und Design funktioniert nichts wirklich. Aber warum sollen Informationen in komplexen Umfeldern ohne Management zuverlässig und integriert funktionieren? Information Manager sind der Schlüssel zum Erfolg. Sie ersetzen den traditionellen Technischen Redakteur oder Technical Writer.

Das sind die wichtigsten Unterschiede, die sich durch den Einsatz des Information Manager ergeben:

1. Information Managers steuern den Prozess. Sie haben den Überblick, wissen, was zu tun ist und wie.

2. Alle Information Managers nutzen dieselben Methoden, folgen denselben Vorgehensmodellen und wissen, wie man damit effizient und hochwertig arbeitet.

3. Und der größte Unterschied: Die Taxonomie, das Konzept der Information Unit, und die Metadaten. Jeder Information Manager kennt das Modell, hält sich an dieselben Regeln und Konzepte, und verwendet dasselbe Set von Metadaten.

 

Summary

Für ein erfolgreiches Customer Service Management muss man nicht viele Regeln beachten. Denken Sie Groß, entwickeln Sie ihre Vision und starten Sie dann mit einzelnen Teilthemen. Das entscheidende ist, die Wichtigkeit von Informationen für Nutzer und den enormen Wert von anwendungsbezogenen Daten zu erkennen. Dann gilt: Information Management als Prozess zu begreifen und sich an ein paar Regeln zum Einsatz von Technologie zu halten.

 

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Dezember 2019
Autor: Gregor Bister
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

The Problem in AI no one Talks About

The Problem in AI no one Talks About

With Artificial Intelligence, everything is possible today, isn’t it? We have Machine Learning and Neural Networks and all that stuff. Machines can help your customers online via chatbot (if they need help with the right things), categorize text by topic (sometimes) and tell what’s depicted in an image (okay, that works quite well… usually).

Yes, of course there is still a lot of work to do. We need to improve the accuracy, we need a bit more computing power and we have to talk about the social implications. But beside that, we can use AI to solve all our business problems!

Well, no.

Why? There are a lot of answers to that, from legal issues to result-interpretation to infrastructure to cost. But the one problem that affects every single AI is rarely mentioned: data. The reason for that: The leaders in AI technology – Universities, Google, Apple and so on – don’t have that problem. But if you start using AI, you will run into it.

See, all AI must be trained first. You need training data for that. Then you must test the quality of the models produced during training. You need separate testing data for that. And to ensure it is really working, you must feed some validation data to the model. And don’t think it is done with some small datasets for each of those tasks. Especially the youngest generation of AI technologies needs lots and lots of data. Depending on the variance within your data, you may want to start with several hundreds of records, better thousands.

 

But there is Big Data! Or we could use our company’s databases, data shares and SharePoints!

 

Well, no.

How will you gather this data? It is often hard to find a single source providing enough of the data you need. Combining several sources is even harder since all records must be in the same format. If you are planning to build an AI, be aware that you might end up investing more time into the preprocessing than in actually building and testing your models. You will also need to involve some specialists for the data you are processing to tell you how to structure your data.

 

Oh, okay, so we will do all that. May take a while, but at some point we will have enough data and then we can feed it to the algorithm.

 

Well, no.

You will get a result and at first glance it might even look marvelous. 97% of records classified correctly by your AI for categorizing the documents on your intranet into “useful” and “garbage”. That’s great! Until you recognize that the AI just decided to label all documents as garbage, independent from their quality.

That is what happens if your dataset is unbalanced. In the example case, only 3% of it were high quality documents, thus by putting all the documents in one class the AI reached a high accuracy and an even higher degree of uselessness. Balancing your dataset is a difficult task. You need enough examples for every class and a representative amount of variance within the data. If all training records for one class are from the same author, from the same time period, on the same topic or whatever connections might be hidden within your data, the model will work in testing, but will completely fail in operation.

There are techniques that to some degree can handle the bias resulting from unbalanced data. But you should not rely too heavily on them. Thus, you don’t just need thousands of records – you need thousands of records for every single class your AI should identify. And you need a subject matter expert to help you uncover the hidden dependencies.

 

*Sigh*… okay. We collected the data, we processed it and we ensured the set is balanced. But now, finally, AI can solve the problem we initially set out to solve?

 

Well, congratulations, you achieved something that can take years and, in many cases, is even impossible. Beside that… No. But you finally reached the point where you can start coping with all the issues of AI itself! Find the best algorithm for your use case, set up the necessary infrastructure, solve the model selection problem, find an efficient way for interpreting the results and learn how to take advantage of your findings. Then AI will help you to solve this one single business Problem.

Do you have any question? Simply email to: marketing@avato.net

Imprint: 
Date: November 2019
Author: Isabell Bachmann
Contact: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

Information Management in IT Governance

Information Management in IT Governance

Informationen steigern Effektivität und Effizienz

Es gibt zahlreiche Definitionen von IT Governance und von deren Aufgaben. Wir legen für unsere Betrachtung der Aufgaben und der Ziele von IT Governance Folgendes zugrunde: IT Governance stellt sicher, dass die IT die Unternehmensstrategie und -ziele unterstützt.

Unter IT werden diesem Zusammenhang zum einen alle Anwendungen und zum anderen die gesamte IT- und Anwendungsinfrastruktur verstanden – und darüber hinaus die Organisation der IT sowie die Prozesse zur IT Nutzung und zur Erbringung von IT Leistungen. IT Governance ist demnach ein komplexes Aufgabenspektrum.

Wie kann IT Information Management (ITIM) unterstützen? In welchen Bereichen sind durch die Einführung von ITIM schnell hohe Effektivitäts- und Effizienzgewinne zu erwarten? Wie kann ITIM einen Beitrag zum IT Risk Management leisten?

Zugespitzt formuliert wollen wir uns anschauen, an welchen Stellen aktuelle, ausreichende und zuverlässige Information die Bereiche der IT Governance verbessern können.

IT Organisationen sind darauf ausgerichtet, den IT Betrieb zu optimieren sowie Projekte „in time“, „in quality“ und „in budget“ abzuwickeln. IT Information Management ist ein wesentlicher Baustein, um den IT Betrieb sowie IT Projekte zu optimieren und die Effizienz von IT zu steigern. IT Information Management ist aber auch eine wichtige Komponente, um die Effektivität von IT zu verbessern – also daran zu arbeiten, dass IT das richtige tut und die richtigen Entscheidungen zügig getroffen werden können.

Warum steckt im Information Management so viel Potenzial? IT Infrastrukturen und Anwendungen werden immer komplexer. Viele Bereiche der IT verstehen die technischen Zusammenhänge nicht mehr vollständig. Wenig ist ausreichend dokumentiert und die Planung und Abstimmung von Änderungen erfordern die Beteiligung zahlreicher Experten. Das Wissen existiert in den Köpfen. Selbst einfache Änderungen erfordert die umfangreiche Abstimmung vieler Einzelner. Auch wenn die IT in Teilen agil arbeitet – neue oder geänderte Geschäftsanforderungen können nur zögerlich umgesetzt werden.

Schneller, besser und günstiger! Effizienz steigern.

Die Effizienz von IT leidet oft unter 1. unzureichenden Prozessen, 2. Verschwendung von Ressourcen (Material und Personal) und 3. unter Verschwendung aufgrund von Incidents und dem Bearbeiten von Incidents (Störungsbehebung ist nach dieser Auffassung Verschwendung).

Effizienz durch Prozesse & klare Zuständigkeiten

Informationen über Prozesse helfen Schwachstellen zu erkennen und zu beheben. Genaue Prozessbeschreibungen unterstützen alle Beteiligten und helfen dabei Prozesse zu optimieren und klare Verantwortlichkeiten zu schaffen. Es entsteht Wissen darüber was wie oft gemacht wird, wie es von wem gemacht wird und warum es eigentlich gemacht wird. Sogenannte „Ping-Pong-Prozesse“ und Warteschleifen werden vermieden. Es entsteht Wissen darüber wo Automatisierung sinnvoll ansetzen kann.

Effizienz durch flexiblen Einsatz von IT Experten

Gute IT Ressourcen sind knapp und teuer. Dennoch beschäftigen sie sich einen nennenswerten Anteil ihrer Zeit mit Aufgaben, die keinen wirklichen Experten erfordern. Sie stellen Anträge und „Verlaufen sich in der Bürokratie“, arbeiten an Nebensächlichkeiten oder suchen nach Informationen. Ausführliche, leicht zugängliche Informationen helfen bei einer besseren Organisation von Arbeit. Ressourcen werden flexibel in unterschiedlichen Aufgabenstellungen einsetzbar. Jeder macht genau das, was gebraucht wird und was er am besten kann.

Effizienz durch Vermeidung von Verschwendung

Im „The DevOps Handbook“ beschreiben Kim, Humble, Debois und Willis die drei wichtigsten Prinzipien, die IT von „Lean Principles“ lernen kann. Dies sind “Principle of Flow”, “Principle of Feedback” und “Principle of Learning and Experimentation”.

Aus vielen Passagen kann man ableiten, dass es ohne zuverlässige Informationen kein Wissen gibt über das, was gebraucht wird. Somit sind Planungen, wie beispielsweise Capacity Management, nur sehr eingeschränkt möglich. Das bezieht sich nicht nur auf Ressourcen wie Rechenzentren (Compute, Storage, Network Bandwidth), sondern auch auf Lizenzen und Nutzer-Accounts sowie Personalplanung und Personalentwicklung.

Die einfache Lösung soll hier oftmals die Cloud sein. Aber wie bei so Vielem ist diese scheinbar einfache Lösung weder einfach noch günstig. Ohne Informationen über Ressourcennutzung und Anforderugnen sind Cloud-Migrationen wie eine Lotterie, Ausgang offen.

Die richtigen Entscheidungen treffen! Effektivität gewinnen.

Wie kann innovatives Information Management die Effektivität von IT verbessern? Wie kann es dazu beitragen besser (und schneller) zu entscheiden? Betrachtet man einzelne Szenarien und blickt parallel auf grundlegende Probleme, die aus einem Mangel an Information entstehen, so wird schnell deutlich, mit wie wenig Veränderung die Effektivität von IT verbessert werden kann.

Der Schlüssel: Wissen über das Geschäft in der IT.

Geschäftsstrategien und -prozesse verändern sich dynamisch, die Zusammenhänge werden komplexer und oft ist wenig davon gut dokumentiert. Die IT hat aufgrund dieser mangelhaften Informationsbasis ein Verständnisdefizit von Business-Strategien sowie den sich daraus ergebenden Geschäftsanforderungen. Die IT kann vielfach Risiken, die in der IT entstehen, nicht richtig einschätzen und priorisieren. IT Mitarbeiter kennen ihre Auftraggeber und deren Ziele nur unzureichend. Aus IT-Sicht besteht die Steuerung oftmals aus einem vielstimmigen Chor. IT missversteht Anforderungen und entwickelt Standards und Lösungen, die nicht im Sinne des Business sind.

Durch den Aufbau einer hochwertigen, den Anforderungen entsprechenden Informationsbasis können all diese Hindernisse beseitigt werden. Die IT gewinnt an Effektivität.

IT Projekte mit hohem Informationsbedarf

Aktuelle und ausgesprochen interessante Beispiele für Projekte mit einem dringendem Informationsbedarf sind: Agile Projekte und DevOps, Cloud Migration, Service Transition sowie IT Integration und IT Separation.

Agile Projekte und DevOps

Agile Methoden und Dokumentation sind kein Widerspruch. Im Gegenteil: Information Management ist das Gegenstück in der modernen IT zur traditionellen Dokumentation. Information Management macht Dokumentation schneller, besser und reduziert vor allem die Aufwände. So ist Information Management ein idealer Bestandteil agiler Projekte. Entwickler werden entlastet und gleichzeitig werden die Anforderungen anderer Stakeholder wie beispielsweise Audit oder auch IT Betrieb sowie IT Governance erfüllt.

Cloud Migration

Die Nutzung von Cloud Services ist heute für fast alle Unternehmen eines der strategischen Ziele in der IT. Doch obwohl der Markt heute eine Vielzahl von Lösungen für jede erdenkliche Anforderung bietet, hinkt die Cloud Transformation den selbst gesetzten Zielen in fast allen Unternehmen hinterher. Die Gründe dafür sind vielfältig und variieren im Detail erheblich. Betrachtet man aktuelle Studien, so zeigt sich immer wieder, dass gerade das Defizit an Informationen zur Unternehmens-IT einer der Hauptgründe ist. Aufgrund unzureichender Information werden falsche Annahmen getroffen und unrealistische Ziele formuliert.

Service Transition

Offshoring von Teilen des IT Service wird heute in fast allen Unternehmen diskutiert. Zur Beantwortung vieler operationeller Fragen bei der Service Transition ist man auf eine gute Informationsbasis angewiesen. Strategische Fragestellungen erfordern ein noch umfangreicheres Wissen über ihre IT. Wissen Sie, was genau Ihre Dienstleister tun? Sind Sie Herr über die wesentlichen Informationen geblieben und könnten Sie den Service bei Bedarf wieder insourcen oder an einen anderen Dienstleister übertragen?

IT Integration / IT Separation

Post-Merger-Integration von IT sowie die IT Separation gehören heute in den meisten Unternehmen fast zum Alltag. Viele dieser Ereignisse dauern lange oder werden nie abgeschlossen. Eine zuverlässige Informationsbasis ist entscheidend, um schneller und effizienter zu werden. Wie hoch ist Ihr Aufwand bei der Integration zweier schlecht dokumentierter IT Organisationen? Wie schnell können Sie einen Spin-off mit IT unterstützen und durchführen?

Summary

Geht es um Ihre IT, gilt: „Information is effectiveness and efficency“. Um strategisch zu entscheiden, und um schneller, besser und flexibler zu werden, brauchen Sie Wissen über Ihre Geschäftsprozesse und vor allem über Ihre IT. Um dieses Wissen aufzubauen, müssen Sie schnell alle wichtigen Informationen in einer eindeutigen und zuverlässigen Form zur Verfügung haben – mit Information Management erreichen Sie genau das.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: November 2019
Autor: avato
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.