A Chatbot as Your Website’s Receptionist: 3 Concepts From Practice

A Chatbot as Your Website’s Receptionist: 3 Concepts From Practice

There’s the dream of a chatbot functioning as an automated full-scale service desk: Answering questions even when asked in an atypical way using wrong terms, capable of recognizing the exact circumstances of a customer’s problem and forwarding solutions with the exact level of detail they need. We can get there, but it’s a lot of work. For the first step, we need a closer objective.

Instead of mimicking a service desk employee with all the knowledge and handling a wide scale of requests, let’s start out with a bot working as a receptionist with a single task: telling the users where to look for a solution. Why is this a good starting point? Because we already know how to navigate our website. Once the bot can tell where to find the answer, you can concentrate on enabling it to extract the information and directly provide it to the user.

There are three approaches on how to implement this functionality: full text search, guided search and using intents. They require different levels of development effort and data preparation, but that’s not a downside: you can move on from one to the other, starting small and building on what you already have. Let’s start with the easiest one.

 

Concept 1: Search Engine Interface

You probably already have a search engine implemented in your website. If you think about it, this engine does exactly what you want the chatbot to do. It takes a free text input and returns a list of places to look for information on the terms the user entered. Thus, think of your first chatbot as an enhanced interface for classic search. It asks the user for some keywords and pops out a list of pages, maybe in combination with a short summary stored in the page’s metadata.

One could argue that this won’t add any value because there is no new functionality. But functionality is not the only thing that adds value. You can use this first bot to test the performance of the tool you use. Your developers can collect first experiences on working with this kind of technology and on how to integrate it into your existing environment. Your conversation flow designer can experiment with ways on how to map the concept to a set of conversation nodes. And of course you can collect first feedback from your users without investing too much.

And to make it clear: Even for the users there will be added value. Providing an alternative interface may help some of them or enrich the user experience. Moreover, while the search engine is done when the result page is displayed, the bot can continue supporting the user, e.g. by asking whether these results answer the question and suggesting additional contact information in case they don’t.

 

Concept 2: Guided Search

Once the bot is working and executing at least this basic task, you can increase its helpfulness. A good search engine provides some kind of filtering, right? How do you implement this in the chatbot? Well, the chatbot can ask for specific information and provide options to select. This is where the bot can start to show something that at least looks like intelligence. For example, if there are many results to a certain request, it could ask the user to set exactly the filter that reduces the number of results the most (e.g. “Which Operating System do you use?” followed by a list of all OS in the result). Thus, instead of being overwhelmed by a huge range of options the user must only make the decisions that really help.

This concept requires your pages to be enriched with some additional metadata and the bot needs direct access to this information, without the search engine functioning as a broker in between. But this is only a small adaption and since your developers already know how the bot processes data, they probably won’t run into big issues.

If your data has an accurate structure you can even remove the free text input and use only a set of questions with pre-set options as answers for setting filters. This prevents users getting wrong results due to wrong terms in the query. However, to some users this might seem like a step backwards.

 

Concept 3: Understanding the Intent

Your bot is already capable of having a conversation – without even trying to understand the user. Now your developers know how to modify the bot, your conversation designer is experienced in developing flows and the bot is integrated well into your website. Time to tackle the last missing step to a real chatbot with all the AI stuff running in the background.

For those new to the topic: Chatbots use Machine Learning to match a text input to one of several pre-defined intents. The more intents, the harder the task. Thus, it is best to start with a small set of things the users might be interested in. For a first attempt, in order to get experience in working with intents, you might want to train the bot on intents related to the conversation itself like “explain one of the options you asked me to choose from” or “I want to change a filter I set earlier”. This is a lot easier than letting the bot recognize what information the user is looking for, since there is less variety.

Later you can try to replace the search engine integration by connecting pages to intents. Nevertheless, keeping search as a fallback in case the bot fails in recognizing the intent is a better idea.

 

 

You started out with a search engine interface and got to a navigation assistant. With some additional training, the bot will be able to predict the correct location to point the user to with high accuracy. From that point on, it is only a small step to the bot answering questions by itself. This is how you get the service desk bot you dreamed of in the beginning.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Januar 2020
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

Die 7 größten Fehler von Knowledge Management und ECM

Die 7 größten Fehler von Knowledge Management und ECM

Die 7 größten Fehler von Knowledge Management und ECM

Warum Information Management? Ein Plädoyer für einen innovativen Ansatz.

 

Warum scheitern Knowledge Management (KM) oder Enterprise Content Management (ECM) seit Jahrzehnten? Warum erzeugen sie eigentlich keinen Mehrwert für die Organisation?

Die einfache Antwort lautet: Wenn man immer wieder den gleichen Ansatz nutzt, darf man sich nicht wundern, wenn es immer wieder gleich endet!

Eine Organisation wird meist von außen zum ungeliebten Thema „Dokumentation“ gedrängt. Aus Sicht der Betroffenen hat das aber höchstens zweite Priorität und verlangt etwas von der Organisation, was nicht zu ihren Kernkompetenzen gehört. Unter hohem Aufwand werden dann Ergebnisse produziert, die lediglich formale und regulatorische Anforderungen erfüllen, für die Organisation aber praktisch keinen Mehrwert bieten oder nur punktuell und kurzzeitig von Nutzen sind.

Die 7 größten Fehler

Was wie ein Naturgesetz aussieht, ist aber eher ein hausgemachtes Problem. Beispiele aus der Industrie (Technische Dokumentation/Kommunikation) zeigen, dass mit innovativen Ideen und Methoden sowie den richtigen Technologien sehr schnell erstaunliche Ergebnisse mit vergleichsweise geringen Aufwänden erzielt werden. Konzentrieren wir uns auf die 7 größten Fehler von ECM- und KM-Projekten. Information Management überwindet durch seine methodischen Ansätze und durch innovative Technologien.

1. Fehlender übergreifende Ansatz. 

Information Management (IM) ist komplex. „Think big!“ Jede Organisation muss IM übergreifend und integriert betrachten. Es gilt, viele unterschiedliche Personengruppen, divergierende Informationsbedarfe (Information Need) und IM Technologie in ein Gesamtbild zu bringen. Das beginnt mit den Zielen aller relevanter Stakeholders, bezieht die Anforderungen der Informationsnutzer ein und identifiziert die relevanten SMEs (Information Provider).

2. Fokussierung auf IM Technologie

In klassischen Projekten stehen weder Nutzer noch Information im Mittelpunkt. Projekte werden schnell durch Diskussionen über IM Technologien geprägt, vor allem wenn die Unternehmens IT eine wesentliche Rolle beim Aufsetzen der Projekte spielt.

3. Unzureichendes Know-how

Prozesse, Technologien, Standards oder Services – um nur ein paar Aspekte zu nennen – gut und verständlich zu beschreiben, ist kein leichtes Unterfangen. Man muss Inhalte verstehen, mit den Spezialisten effizient zusammenarbeiten, erkennen, wer Information nutzt und Information dann zielgruppengerecht, interessant und verständlich aufbereiten. Spezialisten, die genau dieses können, sind rar und teuer. Ihre Wichtigkeit wird gerne unterschätzt.

4. Methodenfreies Arbeiten

Methodik konzentriert sich gerne auf Versionierung und Freigabeverfahren. Das sind aber allenfalls zweitrangige Methoden. Information muss in kleine Einheiten (Information Units) heruntergebrochen werden und über Metadaten einer Taxonomie zugeordnet werden. So werden Redundanzen vermieden und Information wird wartbar. Es muss eine Priorisierung bei der Erstellung von Inhalten geben, Inhalte müssen bewertet werden (Evaluate) und es muss ein Governance auf Inhalte aufgebaut werden. Hier sollte jederzeit das Feedback von Nutzern einbezogen werden. Diese zentralen Methoden beherrschen ECM- oder KM-Projekte, die wesentlich aus der IT getrieben werden, eigentlich nie.

5. Schwerfällige unflexible Prozesse, wenig Inhalt und viel Formalismus

Traditionelles KM und ECM sind weder schlanke noch agilen Prozesse. Sie arbeiten im Grunde nach der Wasserfallmethode, sind langfristig angelegt und konzentrieren sich auf formale Prozesse. Sie arbeiten in aller Regel ohne Bewertung auf inhaltliche Ergebnisse. Damit sind sie oftmals lediglich eine Fortsetzung von traditioneller Dokumentation verbunden mit neuen Tools und einem umfassenden aber vielfach leider auch oberflächlichen Anspruch.

6. Kulturelle Defizite

Organisationen neigen dazu, den Zustand wie ein Naturgesetz zu betrachten: Relevante und gut aufbereitete Information im schnellen Zugriff gibt es nicht. Im Ergebnis herrscht keine Kultur der Kommunikation, des Feedbacks und des strukturierten Informationsteilens. Alle kümmern sich ausschließlich um ihren eigenen kleinen Bereich. Information jeder Art wird gesammelt und gehortet. So entsteht die digitale Deponie, die am Ende nicht mehr handhabbar ist.

7. Managementversagen

Halbherzigkeit drückt sich durch vieles aus: Unklare Verantwortlichkeiten, unzureichende Priorisierung und keine Erfolgsmessung sind nur die sichtbarsten Zeichen. Management „mag“ das Thema eben nicht. Zudem verstehen Manager meist weder die Bedeutung für die eigene Organisation, noch können sie die Komplexität von Information Management einschätzen. Im Ergebnis schleppt die Organisation permanent ein Thema mit sich herum, das keiner mag, alle halbherzig beschäftigt und das kaum praktischen Mehrwert für die Organisation bietet.

Stattdessen

Wenn man es nur richtig angeht, und die 7 größten Fehler vermeidet, kann selbst dokumentieren schnell gehen und Spaß machen. Und das Beste ist: Information Management funktioniert für alle Organisationen. Sie werden besser, schneller, flexibler sowie geschäfts- und kundenorientierter.

Und wie macht man es richtig: Information Management betrachtet in einem integrierten Ansatz Menschen, Informationen und IM Technologien. Zuverlässige und nützliche Information ist immer eine Momentaufnahme. Deshalb ist IM ein schneller und agiler Prozess, nutzt innovative Ansätze und lernt methodisch aus etablierten Verfahren anderer Industrien (Technische Kommunikation).

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: 20. Januar 2020
Autor: Gregor Bister
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

Produktionsmonitoring 4.0 in der Papierindustrie

Produktionsmonitoring 4.0 in der Papierindustrie

Ausgangssituation:

Wie viele Menschen braucht man, um eine Papiermaschine op­timal zu betreiben? Durch den hohen Automatisierungsgrad ist der eigentliche Betrieb mit einer sehr kleinen Betriebsmann­schaft möglich. Über die letzten 10 Jahren wurden bei einigen Papierherstellern die Produktionsmenge pro Mitarbeiter um einen Faktor 10 gesteigert! Gleichzeitig ist und bleibt die Pa­pierproduktion ein komplexer dynamischer Prozess mit vielen Einstell- und Einflussmöglichkeiten und einer komplexen Pro­duktionsanlage. Aufgrund der hohen und weiter steigenden Anzahl von Sensoren ist eine manuelle vollumfängliche Über­wachung der Produktion durch einige wenige Personen in der Praxis unmöglich. So werden Probleme in der Anlage oder den Betriebseinstellungen oft nicht erkannt. Die Folge sind unge­plante Stillstände und Qualitätseinbußen im Endprodukt. Oft sind nur noch zeitaufwändige ex-post Analysen möglich. Prozessleitsysteme bieten zwar umfassende Alarmierungsfunk­tionen an, diese überprüfen jedoch nur regelbasiert und mit statischen Grenzen ohne Betriebszustände, Sorten oder Ände­rungen in den Einstellungen zu berücksichtigen. In der Folge werden Anwender mit Alarmen überflutet und die Alarmierungsfunktionen nur eingeschränkt genutzt.

Smart Data Ansatz:

Durch eine vollautomatisierte und dynamische Überwachung von Tausenden von Messstellen und die Alarmierung bei unge­wöhnlichen Mustern in Sensordaten werden Probleme in der Produktion frühzeitig identifiziert. Mit diesem neuen aus Daten abgeleiteten Erkenntnissen können Stillstände vermieden und die Produktqualität verbessert werden. In dem Smart Data Alarmierungssystem wird das normale Verhalten der Maschine unter Berücksichtigung von Sortenabhängigkeiten und Be­triebszuständen laufend dynamisch aus der Historie ermittelt. Abhängige Alarme werden zusammengefasst und nach Wich­tigkeit priorisiert. Die Überwachung kann über Sensordaten hinaus auch flexibel auf andere Daten wie Qualitätsparameter, berechnete Kennzahlen wie z.B. Rohstoffverbräuche etc. ange­wendet werden. Die Alarme werden in einer benutzerfreundli­chen Oberfläche dargestellt und können hier vom Anwender mit erweiterten Analysefunktionen untersucht und bearbeitet werden.

Vorteile:

  • Steigerung OEE/ GAE – Einsparpotentiale von mehreren hunderttausend Euro im Jahr
  • Vermeidung von Stillständen
  • Verbesserte Qualität des Endproduktes
  • Vorausschauende Wartung

Funktionen:

  • Überwachung in Echtzeit
  • Dynamische Berechnung von Grenzwerten
  • Berücksichtigung von Sorten- und Produktions­zuständen
  • Priorisierung von Alarmen
  • Automatische Überwachung von Rohstoff- und Energieverbräuchen

Produktionsmonitoring 4.0 in der Papierindustrie – Weniger Stillstände, verbesserte Qualität, vorausschauende Wartung

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum 
Datum: Januar 2020
Autor: Leon Müller
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2020.
All Rights Reserved.

5 Grundregeln für ein gutes Metadatenschema

5 Grundregeln für ein gutes Metadatenschema

Automatisierung ist das Leitthema der Gegenwart. Die Flut an zu verwaltenden Informationen macht es unmöglich, jede Datei und jeden Datensatz einzeln oder gar händisch zu pflegen. Metadaten sind der Schlüssel zur Lösung dieses Problems. Sie ermöglichen es, die Informationen anhand von festgelegten Eigenschaften zu gruppieren und stapelweise zu verarbeiten. Für den reibungslosen Ablauf solcher Prozesse sollten Metadaten in strukturierter Form erfasst werden. Warum die Verwendung einer Struktur, eines Metadatenschemas, wichtig ist und was bei der Entwicklung eines Schemas zu beachten ist, verraten wir Ihnen in diesem Artikel.

 

Weshalb brauche ich ein Metadatenschema?

Maschinen – ob nun simple kleine Skripte oder KIs – sind nicht gut darin, unstrukturierte Daten zu verarbeiten, weil ihnen die Fähigkeit zur Interpretation fehlt. Erst eine feste Struktur ermöglicht ihren Einsatz. Je mehr Kontext zu einer Information vorhanden ist und je präziser ihr Aufbau und ihre Bedeutung definiert sind, umso geringer ist der Aufwand bei der automatisierten Verarbeitung und umso fehlerfreier und nützlicher sind die Ergebnisse. Ein Metadatenschema ist im Grunde nichts anderes als eine Definition mit dem Zweck, genau solche Kontexte für die Maschinen bereitzustellen.

Aber nicht nur die Verwendung der Metadaten wird unterstützt – auch die Erfassung profitiert. Da ein Metadatenschema festlegt, wie die Daten aussehen müssen, können mit dessen Hilfe viele Fehler schon bei der Eingabe erkannt werden, egal ob diese manuell oder (teil-) automatisiert geschieht. Neben der Fehlervermeidung wirkt sich ein gutes Schema auch positiv auf den Arbeitsaufwand aus, denn wenn Bedeutung und Beziehungen der Metadaten klar definiert sind, können viele von ihnen automatisch erfasst oder aus anderen (Meta-) Daten generiert werden.

Zusammengefasst heißt das: Ein Metadatenschema…

  • …ermöglicht effektive automatisierte Datenverarbeitung und -verwaltung;
  • …erhöht die Qualität der Metadaten und damit deren Wert;
  • …verringert den Aufwand bei der Metadatenerfassung.

 

Was macht ein gutes Metadatenschema aus?

Das beste Schema ist jenes, welches die Dateneingabe und -verarbeitung am besten unterstützt und am meisten vereinfacht. Ein paar Grundregeln helfen Ihnen, ein Schema zu entwickeln, dass optimal zu Ihren Daten und deren Verwendungszweck passt.

 

1.      Den Anwendungsbereich bestimmen

Auf welche Daten soll das Metadatenschema angewendet werden? Ein Schema, dass auf alle vorhandenen Daten passt, ermöglicht es auch, alle Daten mit denselben Automatismen auf einmal zu bearbeiten. Allerdings haben sehr verschiedene Daten häufig auch wenig gemeinsame Eigenschaften. Machen Sie sich Gedanken darüber, welche Daten gemeinsam verarbeitet (verwaltet, gesucht) werden. Diese sollten sich ein Schema teilen. Andere Daten und Formate braucht das Schema nicht zu berücksichtigen. Es spricht natürlich nichts dagegen, Teile des Schemas für andere Daten wiederzuverwenden.

 

2.      Die richtige Auswahl der Felder

Ein Metadatenschema besteht aus sogenannten Feldern, wobei jedes Feld genau eine festgelegte Information enthält. Es lohnt sich, etwas Zeit in die Überlegung zu investieren, welche Felder gebraucht werden und woher die Daten kommen sollen. Die Leitfrage lautet: Wozu sollen die Metadaten verwendet werden? Es ist Zeitverschwendung, ein Feld zu definieren, das gar nicht benötigt wird. Selbiges gilt für Felder, die für einen großen Teil der Datensätze nicht ausgefüllt werden können, weil die Erschließung der Information entweder zu aufwändig oder überhaupt nicht möglich ist.

Die Informationen sollten in möglichst kleine Bestandteile aufgespalten werden, denn zwei klar definierte Felder zusammenzuführen ist leichter und weniger fehleranfällig, als den Inhalt eines Feldes zu zerlegen. Prüfen Sie also jedes Feld, das Sie nutzen wollen, darauf, ob es nicht zwei oder mehr unabhängige Informationen vereint. Bei einer Kombination von Informationen, die häufig in dieser Form benötigt wird, spricht nichts dagegen, sie in einem zusätzlichen Feld zu speichern – dieses sollte dann aber unbedingt automatisch ausgefüllt werden, damit keine Widersprüche entstehen.

 

3.      Das Rad nicht neu erfinden

In vielen Bereichen wird bereits seit langem mit Metadaten gearbeitet. Die Notwendigkeit, Daten auszutauschen, hat dabei zur Entwicklung robuster, gut dokumentierter Metadatenschemata und ‑austauschformate geführt, welche die meisten Bedürfnisse einer Sparte abdecken. Die Verwendung eines Standards bringt eine ganze Reihe von Vorteilen mit sich. Daten, die Ihnen von anderen zur Verfügung gestellt werden, können Sie sofort und ohne Anpassung verwenden, wenn dasselbe Standardschema verwendet wird. Für verbreitete Schemata gibt es Tools und Masken, welche die Datenpflege noch weiter erleichtern. Und natürlich sparen Sie sich den Aufwand, selbst ein Schema zu definieren. Wenn also iiRDS, Dublin Core oder MODS alles bietet, was Sie brauchen, fahren Sie damit vermutlich besser als mit einem eigenen, allein auf Ihre Daten optimierten Schema.

 

4.      So eng und exakt wie möglich

Je weniger Auswahlmöglichkeiten und Freiräume ein Schema bietet, umso besser. Jede Alternative ist eine Gelegenheit, die falsche Wahl zu treffen. Legen Sie genau fest, welche Information in welcher Form in ein bestimmtes Feld eingetragen werden kann. Datentypen, Auswahllisten und Reguläre Ausdrücke (eine Sprache zur Beschreibung von Zeichenketten) sind hier großartige Helfer. Sie vermeiden Tippfehler und sorgen dafür, dass dieselbe Information immer in der gleichen Form gegeben ist. Aber auch einfachere Mittel bringen schon einen großen Nutzen. Erlauben Sie für ein Feld „Bewertung“ im Schulnotensystem nur die Zahlen eins bis sechs. Sogar eine kurze Erklärung, für welche Information genau das Feld gedacht ist, kann schon helfen.

 

5.      Optional vs. obligatorisch

Wenn Sie planen, Metadaten automatisch oder durch Experten zu erfassen, sollte das Ausfüllen aller Felder verpflichtend sein, von denen Sie wissen, dass sie auf alle Instanzen zutreffen. Jede Person hat einen Namen, jede Datei ein Format, jeder digitale Text eine Kodierung. Bleibt ein Feld leer, kann der Datensatz bei allen Prozessen, die darauf zugreifen, nicht mehr verarbeitet werden oder benötigt zumindest eine Sonderbehandlung. Dadurch sinkt der Nutzen des Schemas erheblich.

Es gibt jedoch eine Ausnahme, bei der die Einengung des Schemas durch einen möglichst hohen Anteil obligatorischer Felder ein Nachteil sein kann; nämlich dann, wenn die Metadaten manuell von Leuten eingegeben werden, deren Hauptaufgabe nicht die Verwaltung dieser Daten ist. Zu viele verpflichtende Angaben bedeuten einen gewissen Zeitaufwand, was wiederum zu geringer Motivation führen kann und damit zu unüberlegten, fehlerhaften oder gar zufälligen Eingaben. In solchen Fällen ist also ein Abwiegen zwischen zumutbarem Aufwand und optimaler Datenqualität notwendig.

Optionale Felder sind natürlich trotzdem auch bei automatischer Erfassung nützlich. Ein Feld „Letzte Renovierung“ im Metadatensatz zu einem Haus ist eine gute Idee – aber bei einem Neubau nicht zutreffend. Optionale Felder haben überall dort einen Wert, wo auch das Fehlen der Angabe eine Aussage darstellt.

 

Neben diesen Grundregeln gilt natürlich noch die Regel der Umsetzbarkeit. Wenn der Aufwand, eine Auswahlliste zu erstellen oder zu pflegen, nicht zu stemmen ist, oder wenn die technische Umsetzung des optimalen Schemas zu lange dauern würde, lassen sich Abstriche bei der Genauigkeit nicht vermeiden. Wer aber von vorneherein nicht weiß, was das optimale Metadatenschema wäre, wird auch Schwierigkeiten haben, das bestmögliche Schema umzusetzen.

Metadatenschema fertig? Dann auf zum nächsten Schritt – dem Capturing! Oder vielleicht doch lieber Create?

5 Grundregeln für ein gutes Metadatenschema

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum 
Datum: Juni 2019
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2019.
All Rights Reserved.

avato Kunde Steinbeis gewinnt SAP Quality Award

avato Kunde Steinbeis gewinnt SAP Quality Award

avato Kunde Steinbeis Papier GmbH gewinnt den SAP Quality Award 2019 in der Kategorie Innovation für Industrie 4.0 Projekt.

Industrie 4.0, IoT, Big Data, KI – nur Schlagworte oder Zutaten für die erfolgreiche Digitalisierung im Mittelstand?

Der Fokus auf relevante Geschäftsergebnisse, ein exzellentes Team kombiniert mit dem intelligenten Einsatz moderner Technologien führen bei dem mittelständischen Hersteller von nachhaltig hergestellten Recyclingpapieren zu überzeugenden Resultaten. Die Jury des SAP Quality Awards hat das mit der Unterstützung von avato durchgeführte Projekt Industrie 4.0@Steinbeis deshalb mit Gold in der Kategorie Innovation ausgezeichnet.  

Wenn Sie mehr über das Projekt, Steinbeis Papier und die Leistungen von avato consulting kennenlernen möchten, lesen Sie weiter…