Wie automatisiert man ein Glossar für die Inhaltserstellung?

Wie automatisiert man ein Glossar für die Inhaltserstellung?

Knowledge Management (KM) wird immer wichtiger. Verkaufszahlen, Effizienz und Mitarbeiterzufriedenheit können dadurch gesteigert werden. Doch KM ist eine Aufgabe, die sich nur bewältigen lässt, wenn Themenspezialisten, IT, Autoren und Management kooperieren. Gemeinsam können sie eine Wissensplattform aufbauen, die allen Beteiligten als Grundlage für Zusammenarbeit, Kommunikation und alltägliche Abläufe dient.

Damit das funktionieren kann, müssen sich alle über die Bedeutung der zentralen Begriffe einig sein. Ist das nicht gegeben, ist Verwirrung bei den Nutzern der Information die Folge und der Mehrwert geht größtenteils verloren. Um das zu verhindern nutzt man Glossare, die verbindliche Definitionen, Abkürzungen und Listen von erlaubten und verbotenen Synonymen bereitstellen. Nur: Soll wirklich jeder, der Inhalte erstellt, jedes Wort nachschlagen? Woher sollen die Autoren wissen, welche Begriffe definiert sind und welche nicht?

Das Glossar müsste die Autoren automatisch, proaktiv informieren. Das lässt sich mit den folgenden Schritten erreichen, je nach Wunsch mit simplen oder ausgefeilteren technischen Mitteln.

 

1. Den Geltungsbereich festlegen

Der erste Schritt ist der schwierigste, aber zum Glück ist er nur für umfangreichere Glossare nötig, die für dasselbe Wort verschiedene Definitionen je nach Kontext anbieten. Wenn Ihr Glossar zwischen mehreren Kontexten unterscheidet, muss bestimmt werden, welche Kontexte für den jeweiligen Text relevant sind. Am einfachsten geht das, indem man den Autor die Geltungsbereiche angeben lässt.

Wer die nötigen Ressourcen hat, kann dafür eine einfache Benutzeroberfläche entwickeln. Alternativ reicht es aber auch, automatisch eine Liste aller Kontexte zu erzeugen, die das Glossar kennt, und den Autor zu bitten, in einer CSV-Datei ein X hinter jeden zutreffenden Kontext zu setzen. Solche Listen lassen sich leicht auslesen. Ist der Kontext bekannt, kann dann eine Liste aller relevanten Begriffe und Definitionen erstellt werden.

Noch mehr Automatisierung lässt sich mit Text Analytics und KI erzielen. Damit ist es möglich, die relevanten Kontexte automatisch auszuwählen. Da es allerdings doch einigen Aufwand bedeutet, so ein System aufzusetzen, sollte man sich vorher genau überlegen, ob es die Mühe wert ist.

 

2. Den Text vorbereiten

Im Glossar stehen die Wörter in ihrer Grundform. Im Text sind die Wörter hingegen durch Grammatik verändert. Bei Sprachen, in denen Wörter nur minimal verändert werden (z.B. Englisch), verliert man nicht viel, wenn man diesen Fakt ignoriert (vor allem, wenn das Glossar überwiegend Substantive beinhaltet). Für Sprachen mit stärkerer Beugung oder wenn zuverlässigere Ergebnisse gewünscht sind, sollte man alle Wörter im Text auf ihre Grundform zurückführen. Je nach Sprache lässt sich das bewerkstelligen, indem man schlicht die häufigsten Endungen entfernt, oder indem man mit speziellen Techniken wie Stemming oder Lemmatisierung arbeitet.

 

3. Die verwendeten Begriffe finden

Mit einem simplen Such-Skript kann man nun den Text nach den Termen, Abkürzungen und Synonymen durchsuchen, die auf der Liste aus Schritt 1 stehen. Zusätzlich sollte man nach allen Wörtern suchen, die mehrere Großbuchstaben enthalten, da es sich dabei sehr wahrscheinlich um Abkürzungen handelt. Um den vollen Nutzen aus den Ergebnissen zu ziehen, muss man die Treffer in wenigstens 3 Kategorien unterteilen lassen:

  1. Treffer, bei denen es sich (fast) garantiert um eine falsche Verwendung handelt; das beinhaltet:
  • Verbotene Synonyme, die nicht als bevorzugte Bezeichnung oder erlaubtes Synonym eines anderen Begriffs aufgeführt sind
  • Abkürzungen, die nicht im Glossar enthalten sind
  1. Treffer, bei denen es sich möglicherweise um eine falsche Verwendung handelt; das betrifft vor allem Wörter, die für einen Begriff als verbotenes Synonym gelistet sind, für einen anderen Begriff aber erlaubt sind.
  2. Treffer, bei denen es sich vermutlich um eine korrekte Verwendung handelt; das beinhaltet:
  • Wörter, die nur als bevorzugte Bezeichnung oder erlaubtes Synonym aufgeführt sind
  • Abkürzungen, die im Glossar stehen

Die Kategorisierung hilft dabei, zu entscheiden, welche Treffer geprüft werden müssen, und wo man das Risiko eines Fehlers eingehen möchte.

  • Bei Treffern der Kategorie 1 hat entweder der Autor einen Fehler gemacht, oder das Glossar ist unvollständig. Diese Treffer müssen daher immer überprüft
  • Treffer der Kategorie sollten im Normalfall ebenfalls überprüft werden. Bei weniger wichtigen Texten oder besonderem Zeitdruck kann es aber akzeptabel sein, sie zu ignorieren.
  • Treffer der Kategorie müssen nur bei besonders wichtigen Texten geprüft werden, um auszuschließen, dass der Autor das Wort in einer anderen Bedeutung verwendet hat, als im Glossar definiert. Davon ausgehend, dass das Glossar weitgehend vollständig ist und der Autor sich in seinem Thema auskennt, ist es allerdings unwahrscheinlich, dass sich in dieser Kategorie größere Fehler finden.

Man kann die dritte Kategorie auch noch einmal unterteilen, um zwischen der Verwendung der bevorzugten Bezeichnung und eines erlaubten Synonyms zu unterscheiden.

 

4. Fehler korrigieren

Auch hier gibt es einen leichten Weg und einen eindrucksvolleren. Der leichte Weg: Lassen Sie das Such-Skript eine Liste aller Treffer mit folgender zusätzlicher Information ausgeben:

  • Die Position des Treffers im Text (z.B. die Nummer des Absatzes oder Satzes)
  • Einige Wörter umgebenden Text
  • Den Glossar-Term, der den Treffer erzeugt hat (dieser kann sich vom Wort im Text unterscheiden, z.B. wenn ein Synonym verwendet wurde)
  • Die Definition des Begriffs
  • Die Trefferkategorie

Auf Grundlage dieser Informationen kann der Autor falsch verwendete Wörter austauschen und überprüfen, ob seine Verwendung mit der Definition übereinstimmt. Falls der Kontext in der Ergebnisliste nicht ausreicht, kann er die Stelle im Text finden und dort prüfen.

Der Eindrucksvolle Weg besteht darin, eine Oberfläche oder ein Plugin zu entwickeln, dass die Ergebnisliste als Input verwendet. Die UI springt von Treffer zu Treffer und gibt die oben genannten Informationen an. Über Knöpfe kann man den Treffer ignorieren oder ersetzen oder eine Ergänzung des Glossars beantragen.

 

Mit dieser Vorgehensweise können Sie Ihren Autoren und Editoren die Arbeit bedeutend erleichtern und gleichzeitig einen einheitlicheren Sprachgebrauch erwirken. Alles, was Sie brauchen, ist ein simples Skript und ein Glossar in einem Format, das vom Skript ausgelesen werden kann. Von der ersten, basalen Version ausgehend können Präzision und Nutzerfreundlichkeit nach und nach mit komplexeren Technologien verbessert werden. Ihre Autoren werden Ihnen danken für die Unterstützung danken. Ihre Terminologen werden Ihnen danken für die bessere Sichtbarkeit ihrer Arbeit und den neuen Input durch die Autoren. Ihr Management wird Ihnen danken für die höhere Effizienz in der Inhaltserstellung. Und vor allem werden Ihre Nutzer Ihnen danken für die leicht verständliche Inhalte.

 

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Februar 2021
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2021
All Rights Reserved.

Vom „Customer Service“ zur „Customer Experience“

Vom „Customer Service“ zur „Customer Experience“

Warum sind KCS und Knowledge Management so wichtig?

 

Customer Service spielt eine immer wichtigere Rolle im Wettbewerb. Nicht wenige Analysten sehen in vielen Geschäftsbereichen den Customer Service als einen entscheidenden Wettbewerbsfaktor an. Die Liste der Veröffentlichungen zu Customer Service ist entsprechend schier endlos. In den letzten Jahren ist der Fokus erweitert worden und es entstanden Untersuchungen, in denen Customer Experience immer stärker in den Mittelpunkt rückte.

Eine gute Übersicht zu vielen Aspekten von Customer Experience finden Sie bei Gartner.

Der Ansatz „Running the Business through Your Customer’s Eyes“ ist nach einer Untersuchung von Bain & Company für Unternehmen zunehmend wichtiger. Danach ergab bereits 2014 eine Umfrage des Marktforschungsunternehmens Gartner, dass 89 % der Unternehmen davon ausgehen, dass sie vor allem über das Kundenerlebnis konkurrieren werden.

Firmen, die versucht haben das Kundenerlebnis zu verbessern, scheitern oft an der Diskrepanz zwischen dem, was die Kunden erwarten und erfahren, und den intern gemessenen und berichteten Metriken. Im Nebel des internen Konkurrenzkampfes erhalten Manager widersprüchliche Meldungen: Interne Messwerte zeigen, dass die Prozesse bestens funktionieren, doch in Foren häufen sich die negativen Berichte. Dabei ist jedem Beteiligten klar: Customer Service matters! Wie sieht also ein Lösungsansatz aus?

(Eine gute Zusammenfassung bietet die Bottom Line „Why customer service matters” in dem Artikel 8 Ways Customer Service Affects Your Business’s Bottom Line)

 

Die Kundenerwartungen erfüllen

 Und worum geht es im Kern? Um die Erwartungen der Kunden. Und hier zeigt sich, dass der beste Service „no-Service“ ist. Wenn der Kunde mit dem Customer Service in Kontakt tritt, sind seine Erwartungen bereits untererfüllt. Nach Untersuchungen des Consortium for Service Innovation gilt, dass die Kundenerwartungen sehr schnell unterschritten werden und dem Kontakt zum Customer Service meist viele Versuche der Selbsthilfe vorausgegangen sind.

Die folgende Grafik verdeutlicht die Entwicklung des Customer Value mit zunehmenden Bemühungen das Problem zu lösen:

(Quelle: Consortium for Service Innovation)

 

Auch Gartner hat in Veröffentlichungen wiederholt auf die Bedeutung von Self-Service hingewiesen. Hier können Sie auch die Studie „Does Your Digital Customer Service Strategy Deliver?“ kostenfrei herunterladen.

3 Regeln für optimale Customer Experience

Zusammenfassend lassen sich für eine optimale Customer Experience 3 wesentliche Regeln formulieren:

  1. Best Service is no-Service
  2. Der Kunde benötigt optimale Unterstützung beim Self-Service
  3. Der Customer Service muss optimal unterstützen können

 

Im Customer Service geht es immer um die Information

Betrachtet man diese Regeln, erkennt man schnell das Verbindende: Neben sehr guten Produkten und Services sind Informationen der größte Erfolgsfaktor für eine optimale Customer Experience.

Die Herausforderungen sind für die meisten Unternehmen sehr groß. Informationen liegen nur in unzureichender Form vor, sie sind veraltet, unvollständig und fehlerhaft. Zudem liegen sie in wenig integrierten Informationssilos. Daraus erwachsen große Nachteile im Wettbewerb.

Lassen Sie uns das für die oben formulierten Regeln in umgekehrter Reihenfolge detaillierter betrachten.

 

Regel 3: Der Customer Service muss optimal unterstützen können

Was gelingt den meisten Unternehmen bereits heute? Gut implementierte CRM-Systeme unterstützen den Customer Service in der Fallbearbeitung mit Informationen über den Kunden und bieten zudem gute statistische Auswertungen zum Kundenverhalten.

Ganz anders sieht es mit Informationen über Produkte und Services, Prozesse und technische Dokumentationen aus. Selbst wichtige Informationen zu Organisation und Zuständigkeiten liegen den Agenten in der Fallbearbeitung oft nicht vor, vor allem dann, wenn Service Partner ins Spiel kommen.

Die Lösung: Den Agenten nicht einem Informationschaos überlassen. Vertrauenswürdige, verständliche, vollständige und integrierte Informationen, die unmittelbar während der Fallbearbeitung zur Verfügung stehen, sind hier der Schlüssel zum Erfolg. Das gilt vor allem für die Einbindung von Service Partnern.

  

Regel 2: Optimale Unterstützung beim Self-Service

Den Self-Service überlassen die meisten Unternehmen weitgehend ihren Kunden. Informationen, die für den Kunden im Self-Service Prozess wichtig sind, finden sich verstreut oder existieren als Erfahrungsberichte anderer Kunden in unterschiedlichen Foren. Der Kunde sucht, und muss Informatives von Fehlerhaftem trennen. Vieles bleibt offen, ist unvollständig oder meinungsbehaftet. Mit jeder Minute, die bei der Suche vergeht, verliert Ihr Produkt oder Service an Wert (Value Erosion).

Die Lösung: Den Informationsbedarf des Kunden nicht (nur) einer Community überlassen. Leicht verständliche und vollständige Information, die bei der Recherche vom Kunden sofort gefunden wird, ist entscheidend für die Kundenzufriedenheit. Die kann im Zweifel jedes Unternehmen besser managen als eine Community.

 

Regel 1: Best Service is no-Service

Die no-Service Rate zu erhöhen ist sicher der Königsweg. Dazu muss man aber nicht nur Daten analysieren. Es reicht eben nicht, statistische Daten über Kundenvorgänge zu erheben oder seine Partner über Fallzahlen zu steuern – das kann im Zweifel jeder. Informationen zu nutzen ist der Schlüssel. Bedeutet: Informationen muss man aus allen Bereichen und bei möglichst vielen Prozessschritten erheben, man muss sie zusammenführen, und man muss sie analysieren.

Die Lösung: Kommunizieren, das Feedback erweitern, analysieren und proaktiv verbessern. Kommunizieren sollte man auf allen Ebenen, mit allen Beteiligten und zu jeder Zeit. Zu den „Information Providers“ gehören Kunden, Agenten im Service, Partner sowie die gesamte Unternehmensorganisation. Diese Informationen zu integrieren und mit Daten aus dem Customer Service zusammenzubringen, ist die beste Voraussetzung für Verbesserungen und eine Erhöhung der no-Service Rate. Ein sehr simples und einfaches Beispiel: Missverständlich beschriebene Produktfeatures können zu falschen Kundenerwartungen führen. In der Folge häufen sich negative Beiträge in Foren und Kontakte mit dem Service Desk. Dessen aktives Feedback führt zu einer verständlicheren Version der beschriebenen Features.

  

Information / Knowledge Management

Intelligente Informationen sind der Schlüssel zum Erfolg – aber sie sind nicht einfach da, sie sind nicht einfach gut und sie sind nicht integriert. Und leicht nutzbar sind sie eigentlich nie. Intelligente Informationen benötigen Information Management – „There is no Operational Excellence Without a Correctly Working Knowledge / Information Management“.

Denken Sie über den Customer Service hinaus. Informationen benötigt am Ende jeder Beteiligte und alle Beteiligten tragen zum Dokumentationsprozess bei. Alle erstellen und überarbeiten Informationen und sichern so die Qualität. Hierzu gehört eben nicht nur der Customer Service, sondern die gesamte Unternehmensorganisation, Kunden, Partner sowie Lieferanten.

5 Machine Learning Applications in Knowledge Management

5 Machine Learning Applications in Knowledge Management

Most knowledge subject to a formal management process is available in written form. Those text collections contain more information than what is written in each of the documents. Analyzing the collections with AI methods like Machine Learning (ML) can support the knowledge management process in multiple ways and makes it possible to gain additional insights and advantages. This article provides some ideas on how to gain additional benefits from Knowledge Management (KM) using ML.

 

Example 1: Problem Management

Let’s start with knowledge in its second most common form: informal text with little to no structure in some document that is not subject to any KM process. (The most common form is within people’s heads.) Examples are error reports, maintenance reports or repair work protocols. They may come from technicians trying to solve the issue or users contacting the support. There is a lot of valuable information hidden in a collection of such documents. Which are the most common errors? What is the solution with the highest success rate? Are there areas where additional employee or user training might be needed? This is how you get that information:

First, we need to tag each report with the error described in it. This can be done either with supervised or unsupervised ML.

In supervised ML, you first manually tag a large enough number of documents and then train the system to guess the error from the description. In case the error is described with a code, this part is trivial. If the description is a free text listing symptoms, it is more complicated. If the number of possible errors is high and symptoms vary a lot, unsupervised learning might be the better choice. The system will group the descriptions by similarity of symptoms. Afterwards you manually tag each group with the corresponding error. The drawback is that you might not get one group per error. There might be cases where the system can only limit the number of possible errors, but not provide a clear decision.

Now the system can tell what issue the document is about. Thus, you can monitor how often which issue occurs. Here are some examples for the advantages you get from this:

  • You can find the weaknesses of a product by looking at its most common errors.
  • You know there is an issue with a new update or a special product batch if numbers rise right after the release.
  • You can optimize your training programs to focus on the common issues.

 

Example 2: Suggesting Solutions

Guessing the error was only step one. Step two is to train the system not only to recognize the error, but also to suggest a solution. Take the repair protocols for an error and train the system to detect similar procedures. (If you have information on whether the solution worked, use only the successful procedures.) For each group you write an instruction. You can do this either manually, especially for common or high impact issues, or use a text generation algorithm to create an instruction based on the repair description you already have.

The system can now suggest the most common solution to an error (and if you want, also the second most common in case the first one did not work or is not applicable for some reason). It can tell the error from the description. This makes the investigation process much more efficient. And as a bonus, your technicians do not need to write the repair protocols any longer as the system can pre-fill them in most cases.

How well a system like this works depends on several factors. Most important are the number of available documents, the number of errors and the variety among the solution descriptions. The more documents per error and the less variety, the better the system will perform. Even with a great AI model, you should not blindly trust the suggestions. But having them definitely is of big advantage.

 

Example 3: Efficient Search

The next level is having the information in some sort of central system like a wiki, SharePoint or a knowledge module of a ticketing system. In that system you most likely have some search implemented to allow users to quickly find what they need. Search engines are very sophisticated these days and sometimes even employ AI technologies for various purposes like ranking or spellchecks. Especially a good result ranking is important for search. If the result you are looking for is on position 24 on the result list there is only a minor difference to not being included at all.

The number of times your terms are used in a document does not necessarily determine its usefulness in your situation nor does its click rate. What you need are the pages most used in your case. While ranking results, the search engine should consider which pages users with a similar interest read, which results they skipped or closed after a short look, and which document they finally used. Web analytics and user tracking can provide such data.

To find out which users are looking for the same information, several techniques can be used. Comparing the search terms is straight forward, but might suffer from use of synonyms, different languages, or even misuse of terms. Defining and training intents is an alternative. The technique is primarily used in chatbots to extract the information need from free text input. But as the use case is similar in search it can easily be transferred. Collect search queries that aim for the same information, use them to train the system on recognizing the intent and then let the search check if a new query matches one of the intents. If so, rank results usually used by users with this intent higher.

The drawback of this method is that defining intents is not that easy. However, there are other ML techniques that can suggest new intents to add based on the search requests.

 

Example 4: Personalization

For KM systems with a wide user range there is the challenge to provide everyone with what they need and keep them updated on changes – without making them search for it among content not relevant to them or burying them in notifications. You need to personalize your content delivery. Content should know to which users it is relevant.

To get there, again we collect information via web analytics and user tracking. This time we are interested in who uses which content. Then we use ML to build user groups based on user behavior. In most scenarios, every user will be a member of multiple groups. Once learned, the system can add the users to groups automatically. However, assigning them manually should be possible in addition to that.

For the content, you do the same. You train the system to predict which user groups might be interested in it by looking at the groups interested in similar documents. Now when adding a new document, the system can notify the users it is relevant for, add it at a prominent spot in their view of the interface, and hide it for other users.

 

Example 5: Quality Monitoring

User Feedback is vital to KM. Without it, you are missing out an important stakeholder group and risk the acceptance of the KM program. There are many ways to gather feedback: Ratings, surveys, user tracking… The best way to gather feedback is enabling comments. Comments allow the user to give a detailed opinion. They can ask questions, point out minor weaknesses and engage the user in the improvement process directly as they can give input. And in contrast to a survey, they do not need too much preparation and, on a small scale, little interpretation.

However, when the number of comments on your content grows large, moderating discussions can get time intense. In addition, it becomes nearly impossible to grasp the overall mood of all comments on a document. Luckily, both issues can be addressed with the same method: Tag a set of comments with the information you need for your comment monitoring. Then train the system to recognize these categories from the text. In marketing context, this is called sentiment analysis since the desired information is whether customers like or dislike a brand or product. In KM however, other categories are important, e.g. whether a comment is a question, critique, a suggestion, or a praise. Questions and critique should be addressed by the moderator or content responsible within a short period of time, while a suggestion might be relevant only with the next content review. A praise, while being the reaction you hope for, might not require any reaction at all. By sorting comments that way using ML, the workload for moderators and responsibles decreases.

The same information can be used for quality monitoring. While a high number of comments tells you that a piece of content is perceived, it does not tell you whether it does so for being useful and important or for being insufficient. The ratio of different kinds of comments can tell a lot more. The meaning of praise and critique is obvious. High numbers of questions and suggestions mean the content is important and used (thus has some quality) but might need refinement. This way, you can use the comments to monitor the quality of the content, improving where the need is greatest and noticing early if the quality drops or is not met.

These where only 5 examples on the benefits of combining KM and ML. The implementation of AI often fails because of missing data – but KM can provide data in form of text. And with the data available, all you need to start is knowing what you want to know. There is so much more possible if you keep in mind that in KM the whole provides more information that its parts.

Gemeinsam experimentieren – avato und die Uni Würzburg

Gemeinsam experimentieren – avato und die Uni Würzburg

Ende Oktober fand das erste Netzwerktreffen des Zentrums für Digitales Experimentieren (ZDEX) der Universität Würzburg statt. Das Ziel des Zentrums: Wissen austauschen und gemeinsam an konkreten Problemstellungen des digitalen Wandels arbeiten. Das Programm wird vom Europäischen Sozialfonds und vom Land Bayern gefördert und läuft bis Ende 2022.

Innovation, Digitalisierung und Automatisierung sind zentrale Bestandteile von avato Information Management. Daher sind die Schnittstellen mit den themenbezogenen Netzwerken des ZDEX Programms zahlreich: Von Suchoptimierung über Analytics und KI bis hin zu virtuellen Assistenten reichen die geplanten Projekte. Die Umsetzung einiger der Projektideen, die aufkamen, als die Universität uns zur Teilnahme einlud, hat bereits begonnen.

Mit dem Netzwerk Digitale Medien und Soziale Agenten (organisiert vom Lehrstuhl für Medieninformatik) werden wir daran arbeiten, unseren digitalen Assistenten Liibot optimal an die Nutzerbedürfnisse anzupassen. Intuitive Gesprächsverläufe, eine angenehme Persönlichkeit und eine enge Abstimmung mit dem Nutzungskontext sind unabdingbar für einen gelungenen Chatbot. Im Rahmen des ZDEX werden wir diese Aspekte des Liibots auf Basis aktueller wissenschaftlicher Standards analysieren und optimieren.

Gleich mehrere Themen sind geplant für die Zusammenarbeit mit dem Netzwerk Datenanalyse und Verarbeitung natürlicher Sprache, das am Lehrstuhl für Digital Humanities angesiedelt ist. Für die KI-gestützte Analyse von Nutzerfeedback sind schon erste Versuche gestartet. Hier soll automatisch erkannt werden, ob es sich bei einem Kommentar von einem Informationsnutzer um Kritik, ein Lob, eine Anregung oder eine Frage handelt. Diese Information kann dann genutzt werden, um die Qualität der kommentierten Inhalte zu bewerten. So kann gezielt dort optimiert werden, wo der Bedarf am größten ist.

Die Qualität von Information und Dokumentation lässt sich auch auf anderen Wegen messen. Zum Beispiel kann eine KI anhand formaler Kriterien die Verlässlichkeit einer Information einschätzen. Das ist vor allem dann sinnvoll, wenn große Mengen historisch gewachsener Dokumentation in ein modernes Information Management System überführt werden sollen. Durch die automatische Vorsortierung lässt sich genauer eingeschätzt werden, wie hoch der Aufwand einer Migration ist. Auch hier arbeiten wir mit dem Netzwerk Datenanalyse zusammen.

Weitere Projekte sind in Planung. Messung der Textverständlichkeit, langfristige Qualitätssicherung und Prozessoptimierung sind nur einige der Themen, in denen die Kombination aus KI und Information Management große Potentiale bietet. Durch die Möglichkeit, unsere Partner und Kunden einzubinden, können umso mehr Personen und Unternehmen vom ZDEX profitieren. Wir freuen uns sehr auf das gemeinsame Experimentieren und die innovativen Lösungen, die daraus hervorgehen werden.

Regionale Innovation treibt globale Digitalisierung

Regionale Innovation treibt globale Digitalisierung

Der folgende Artikel gibt Einblicke in ein Projekt, in dem Unternehmen gemeinsam mit der avato consulting ag und der Hochschule München Information Management (IM) erfolgreich umgesetzt haben. Übergeordnetes Ziel des Projekts war es, Nutzerinformation intelligent bereitzustellen.

2 Projekte. Weg von alten Ablagen, hin zu modernem Information Management. Sie erhalten Einblicke in verwendete Methoden und Herausforderungen, wie beispielsweise die Metadatenmodellerstellung, Informationserstellung, Modularisierung von Content, Kulturwandel im Umgang mit Information, virtuelle, globale Teams und unternehmensweites Informationsmanagement trotz (oder wegen) Corona.

Die zwei Erfahrungsberichte zeigen wie ein IM Projekt mit einem virtuellen Team aus unterschiedlichen Organisationen (Hochschule, Konzern, Beratungsunternehmen) geplant und durchgeführt werden kann. Das beinhaltet auch die Auswahl geeigneter Methoden und Lösungsansätze für auftretende Herausforderungen.

Wie ist es zu der Kooperation gekommen? Es begann auf dem tekom Jahreskongress 2019, während eines Austauschs von avato mit Herrn Prof. Dr. Ley, Professor für Informationsmanagement an der Hochschule München. Schnell wurde deutlich, dass auf beiden Seiten großes Interesse an einem gemeinsamen studentischen Projekt besteht. Das geplante Projekt soll sich mit Informationsmanagement im Unternehmen befassen. Die Studierenden sollen während des Projekts von Prof. Dr. Ley sowie von avato begleitet werden. Die Durchführung soll in zwei Partnerunternehmen avatos stattfinden, durch die Studierenden des 7. Semesters der Studienrichtung „Technische Redaktion und Kommunikation“ an der Hochschule München.

Die Anforderungen. Die Aufgabenstellung muss fachlich zum Studiengang passen und im Rahmen des Projekts umsetzbar sein. Es muss eine aktuelle Aufgabe für die Partnerunternehmen gelöst werden. Es muss ein Mehrwert sowohl im Bereich der Methodik als auch im Bereich der Technologien entstehen. Da das Projekt im Partnerunternehmen parallel zum Tagesgeschäft läuft, muss der Zeitaufwand für die Partner gering bleiben.

Ergebnisse. Die Ergebnisse sind ein nach neuesten wissenschaftlichen Standards erarbeitetes und mit Hilfe innovativer Technologie implementiertes Klassifizierungs- und Metadatenmodell sowie ein mit Inhalt befülltes Informationsportal für beide Partnerunternehmen.

Ziele von Informationsmanagement

  1. Schneller werden: Informationssuche auf ein Minimum reduzieren, jeder Einzelne wird produktiver
  2. Besser werden: Die richtige und erforderliche Information jederzeit bereitstellen, Information mit geringem Aufwand aktuell halten und Feedback der Nutzer aktiv aufnehmen und für Verbesserungen nutzen
  3. Flexibler werden: Mitarbeiter schneller in verschiedene Themen einarbeiten und zu mehr unterschiedlichen Aufgaben befähigen
  4. Kosten reduzieren

1.       Ausgangssituation in den Partnerunternehmen

1.1   Globaler IT Provider

Ein outgesourcter Data Center Service für einen globalen Cloud Service ist von dem einen an einen anderen Service Provider, „Partner1“, übergegangen. Im Zuge dessen ist auch ein bestehendes Wiki an „Partner1“ übergeben worden. Dieses Wiki enthält Informationen über die Data Centers, Service Providers, eingesetzte Technologien, Technologiehersteller sowie über Serviceprozesse bereit. Anhand dieser Informationen werden im Fall von Incidents oder für Wartungsarbeiten Service Requests in einem komplexen Geflecht der unterschiedlichen Beteiligten koordiniert.

Die Qualität des „geerbten“ Wikis ist nicht ideal. Inhalte sind nicht (mehr) korrekt, fehlen oder sind mehrfach vorhanden. Von Nachteil ist auch, dass die Informationen verstreut sind und nicht den komplexen Serviceprozess unterstützen. Diese Nachteile führen dazu, dass die Mitarbeiter die Tickets nicht ideal bearbeiten können:

  • Bei einem Drittel der Service Requests entstehen Fehler durch nicht ausreichende Informationen (Mängel in Vollständigkeit und Qualität).
  • Bei den restlichen zwei Drittel der Service Requests entstehen zeitliche Probleme in der Bearbeitung. Tickets könnten schneller bearbeitet werden, wenn besser strukturierte Information vorlägen.

So kommt es zu zahlreichen Beschwerden des Servicenehmers.

Daher soll die bestehende Dokumentation überarbeitet und in Zukunft in einem neuen Informationssystem bereitgestellt werden, mit den folgenden Projektzielen:

  • Durch eine neue Strukturierung sollen Informationen schneller auffindbar sein
  • Durch eine Überarbeitung der Informationen soll die Qualität der Inhalte steigen
  • Der modulare Aufbau der Dokumentation soll helfen, die einzelnen Informationen später auch für andere Ausgaben zu verwenden, beispielsweise im Service Management Tool ServiceNow
  • Durch die Steuerung durch Information Managers soll sichergestellt werden, dass das Informationssystem nicht veraltet und regelmäßig inhaltlich und technisch gewartet wird
  • Die Technologie soll einen stetigen Verbesserungsprozess unterstützen, z. B. durch Gamification und Kommentarfunktion

1.2   Globales Klima- und Wärmetechnikunternehmen

Ein Ausschnitt aus einem bestehenden Wiki soll in das neue Informationssystem iPortal überführt werden. Es handelt sich um historisch gewachsene Informationen, die in einem System liegen, das in die Jahre gekommen ist. Erstellt wurden und werden die Information durch den 3rd Level Support sowie Forschung und Entwicklung. Genutzt werden die Informationen im Schwerpunkt durch den Aftersales (1st und 2nd Level Support). Bei den Informationen im Altsystem handelt es sich um Informationen zu Fehlerbehebungen und Wartungen der Produkte.

Die Dokumentation soll in Zukunft in einem neuen Informationssystem bereitgestellt werden, mit den folgenden Projektzielen:

  • Durch eine bessere Aufbereitung und Darstellung sollen höhere Erstlösungsraten im Aftersales erzielt werden, sowohl im 1st als auch im 2nd Level Support
  • Durch die Steuerung durch Information Managers soll sichergestellt werden, dass das Informationssystem nicht veraltet, sondern regelmäßig inhaltlich und technisch gewartet wird
  • Die Information Managers sollen sicherstellen, dass die Inhalte besser verstanden werden, indem einheitliche Templates und eine einheitliche Sprache verwendet werden
  • Durch die Mehrsprachigkeit und schnelle Übersetzung durch Information Managers sollen die europäischen Landesgesellschaften besser unterstützt werden
  • Durch die Möglichkeit auf kleinster Ebener Berechtigungen zu vergeben (auch innerhalb eines Artikels), sollen die Artikel auch für Service-/Vertriebspartner geöffnet werden können
  • Der modulare Aufbau der Dokumentation soll helfen, die einzelnen Informationen später auch für andere Ausgaben zu verwenden, beispielsweise für einen Chatbot/Voicebot oder in anderen Systemen, wie z. B. salesforce oder SAP
  • Die Technologie soll einen stetigen Verbesserungsprozess unterstützen, z. B. durch Gamification und Kommentarfunktion

 

2.       Planung und Auswahl der Methoden

Vor Semesterbeginn begannen die Vorbereitungen seitens der Partnerunternehmen und avato. Im Rahmen von Kickoff-Terminen startete offiziell das Projekt MagIM – Magic of Information Management.

Das avato Vorgehensmodell sollte als Grundlage in den beiden Projekten dienen. Für den Soll-Ist-Vergleich fand im Anschluss eine Bestandsaufnahme der vorhandenen Dokumentation/Informationen statt. In der Regel, so auch in diesen beiden Projekten, ist ein Altbestand an Informationen vorhanden. In diesem Fall empfiehlt sich die Methode Evaluate, um einzuschätzen, ob sich eine Übernahme lohnt (Methode Capture) oder die Informationen neu erstellt werden müssen (Methode Create).

Die Inhalte in den Altsystemen der beiden Partnerunternehmen mussten glücklicherweise nicht vollständig neu erstellt werden, sondern konnten durch einen gründlichen Review, Anwendung von Templates und Implementierung des Style Guide auf das gewünschte Qualitätsniveau gebracht werden. Anschließend wurden die Inhalte von den Information Managers im neuen Informationssystem iPortal veröffentlicht (Methode Publish), wo sie in Zukunft mit Hilfe der Methode Governance & Maintenance regelmäßigen Reviews unterzogen werden.

Details zu den einzelnen angewendeten Methoden sind hier im iPortal beschrieben (Zugang nach kostenloser Registrierung).

Infobox avato Vorgehensmodell

Das avato Vorgehensmodell im Information Management sieht 6 Schritte vor. Im ersten Schritt werden die Stakeholders festgelegt, im zweiten Schritt die Ziele der Stakeholder. Schritt drei befasst sich mit den auf das Informationssystem heruntergebrochenen groben Ziele und die neue, grobe Zielstruktur. Im vierten Schritt werden die groben Ziele auf detaillierte Ziele heruntergebrochen. Außerdem wird die Zielstruktur im Detail definiert. Im fünften Schritt können die Methoden sinnvoll gewählt werden. Zum Schluss findet die Auswahl geeigneter Tools und Technologien statt.

Aufgabe der Studierenden war die Entwicklung eines Klassifizierungs-/Metadatenmodells für die Dokumentation in den Partnerunternehmen. Parallel dazu sollte eine Analyse und Evaluierung der Technologie, des iPortals, stattfinden. Die Studierenden unterteilten das Projekt in drei Sprints: die Analyse, die Konzeption und die Ausarbeitung der Konzepte. Zu Beginn bildeten die Teams folgende Untergruppen:

  • Das Kundenteam setzte sich mit der Sicht des Kunden auseinander und erfasst mögliche Probleme und Fragen
  • Das Alfresco Team befasste sich mit der technischen Umsetzung des iPortals CMS, um mögliche Anpassungen herauszufiltern
  • Das iPortal Team analysierte das iPortal CDS, um mögliche Probleme und Schwachstellen zu finden, und beschäftigte sich außerdem mit der Konzeption eines möglichen zukünftigen iPortals

Die Studierenden erstellten einen Projektplan, der alle drei Sprints umfasste. Die Auswahl der Methoden wird in den folgenden Abschnitten erläutert.

 

3.       Anforderungen der Partner

In den Interviews mit den Partnerunternehmen durch die Studierenden und avato wurden die Anforderungen schnell deutlich.

Bei der Konzeption eines Interviewleitfadens orientierten sich die Studierenden an der Value Proposition Canvas. Die alltäglichen Aufgaben der Mitarbeiter in den Partnerunternehmen sollten analysiert werden sowie deren Pains und Gains. Daraus sollten die Gain Creators, Pain Creators und die Anforderungen an das Informationssystem abgleitet werden. Durch die Interviews mit den Partnerunternehmen wurde deutlich, wie die Mitarbeiter arbeiten und auf welche Probleme sie stoßen. Außerdem äußerten die Partnerunternehmen Wünsche, wie ein hilfreiches Informationssystem aussehen müsste. Die Studierenden leiteten die Anforderungen ab und ordneten sie mit Hilfe der MoSCoW Methode (Must, Should, Could, Won‘t).

Die Studierenden entwickelten anschließend einen Vorschlag für eine Roadmap für die Umsetzung der Anforderungen. Viele der Anforderungen wurden sogar schon während des laufenden Projektes umgesetzt, wie zum Beispiel die verbesserte Suche, weitere Sprachen und Designanpassungen.

 

4.       Metadatenmodellentwicklung

Metadaten

  • sind die Voraussetzung für Automatisierung
  • werden von Text Analytics und von dem Chatbot verwendet
  • werden benötigt, um Inhalte besser zu suchen und schneller zu finden
  • werden benötigt, um Versionen zu managen und Workflows anzustoßen
  • sind die Grundlage für Dashboards

Mehr zum Thema Metadatenmodellerstellung lesen Sie hier.

Grundsätzlich gibt es inhaltsunabhängige Metadaten, die für jede Informationseinheit vorliegen sollten. Beispiele sind die Versionsnummer und Autor. Daneben gibt es auch inhaltsabhängige Metadaten. Ein Beispiel ist das „Thema“, welches in der Dokumentation eines IT Provider ein ganz anderes ist, als in der Dokumentation eines Klima- und Heiztechnikunternehmens.

Bei den inhaltsunabhängigen Metadaten lohnt sich ein Vergleich zwischen der gewählten Technologie (dem iPortal) und anderen Informationssystemen und den üblichen Standards. Abgesehen von punktuell unterschiedlicher Benennung der Metadaten ergaben sich dabei keine gravierenden Unterschiede. Dieser Teil des Metadatenmodells konnte erstellt werden, ohne die Dokumentation im Detail kennen zu müssen.

Anders sah es bei den inhaltsabhängigen Metadaten aus. Um hierfür ein gutes Modell entwickeln zu können, analysierten die Studierenden die vorhandene Dokumentation. Darüber hinaus führten sie Interviews mit den Partnerunternehmen. Auf diese Weise entstanden die umfassenden Metadatenmodelle für die Partnerunternehmen. Diese orientierten sich an etablierten Standards wie PI-Mod oder iiRDS.

Die Metadatenmodelle wurden in Mindmaps visualisiert, den Partnerunternehmen vorgestellt und mit Hilfe von Feedback im Anschluss verfeinert.

 

5.       Analyse von CDS und CMS

Im Rahmen der Projekte beschäftigten sich die Studierenden intensiv mit dem Content Delivery System und dem Content Management System.

Im Vergleich zu anderen Systemen schnitt das iPortal gut ab. Zwar ist die initiale Einarbeitung in das iPortal (noch) nicht trivial, jedoch bietet es viele Funktionen, in denen sich die Methoden des erfolgreichen Information Management widerspiegeln.

Ein weiterer großer Vorteil des iPortals sind die vergleichsweise geringen Lizenzkosten.

Von technischer Seite zeichnet sich das iPortal besonders dadurch aus, dass es über den Browser immer und überall erreichbar ist. Um Netzprobleme zu vermeiden, stehen die Inhalte jedoch auch als Download bereit – und es ist eine verbesserte offline Version geplant. Technisch sind CDS und CMS getrennt, was enorme Vorteile bringt. So kann das Informationssystem beliebig viele CMS und CDS umfassen und miteinander verbinden. Zusätzliche CDS’s sind der Chatbot und die App. Neben dem CMS für text-/bild-/tonbasierte Informationen können auch externe Datenbanken oder Ticketingsysteme als CMS dienen.

Am wichtigsten ist jedoch, dass das Tool den Benutzer optimal in der täglichen Arbeit unterstützt und die Nutzer zufrieden sind. Ein Tool, das nicht von den Nutzern akzeptiert wird, ist nutzlos. Interviews mit den Partnerunternehmen halfen den Studierenden herauszufinden, welche Anforderungen die späteren Nutzer an das iPortal stellen. Die gesammelten Anforderungen wurden mit Hilfe der MoSCoW Methode eingeordnet. Das Ergebnis war eine übersichtliche Priorisierung der Anforderungen (Must, Should, Could, Won‘t).

Auch die Benutzerfreundlichkeit und das Design wurden genau betrachtet. Die Studierenden ließen den Gedanken freien Lauf, um festzustellen, welches Design sie sich selbst wünschen würden. In den Gruppen entstanden so sehr unterschiedliche Designideen. Daraus ließen sich die Stärken und Schwächen des iPortals ableiten.

 

6.       Migration und Informationserstellung

Nach Analyse der vorhandenen Dokumentation und der Kundenanforderungen wurden Templates entwickelt und mit den Partnerunternehmen abgestimmt. Diese Templates wurden im neuen Informationssystem konsequent angewendet – sowohl bei neu erstellter Information als auch bei der Migration vorhandener Information.

Des Weiteren wurde eine Informationsstruktur entwickelt. Diese unterstützt die Arbeitsprozesse der Mitarbeiter. Informationen, die vorher verstreut waren, sieht das Partnerunternehmen jetzt auf einen Blick.

Im Zuge der Entwicklung der Informationsstruktur wurde entschieden, welche Units wo angezeigt werden sollen. Die Wiederverwendbarkeit von Units (Reuse) ist der Grund, warum es dabei nicht zu Redundanzen kommt.

Vor der Übernahme der bestehenden Inhalte wurden sie einem gründlichen Review durch avato Information Managers unterzogen. Die Information Managers entfernen Redundanzen, wenden Templates an und erstellen die Strukturen für die neuen Seiten. Außerdem achten sie auf eine verständliche, einheitliche Sprache und Benennung sowie auf die konsequente Anwendung des Style Guide. Das hilft dem Nutzer bei der Orientierung und somit bei der Informationsaufnahme.

Bei dem globalen Service Provider wurden 130 Seiten aus dem bestehenden Wiki übernommen. Bei dem globalen Klima- und Heiztechnikunternehmen waren es 30 Artikel in bis zu vier Sprachen.

 

7.       Ergebnisse

Die von den Studierenden erarbeiteten Ergebnisse wurden den Partnern im Rahmen einer Abschlusspräsentation vorgestellt und anschließend diskutiert. Neben den Templates, Inhaltsmigrationen und Metadatenmodellen sind Ergebnisse im Bereich Design und Features entstanden.

Der Projektplan sah für das Ende des PoCs eine umfassende Umsetzung der Ergebnisse vor. Die Erstellung von Templates und Taxonomien wurden somit abgeschlossen, ebenso wie schnell umsetzbare Ideen und Vorschläge im Bereich Design und Features, darunter auch die Einführung eines kontinuierlichen Verbesserungsprozesses (Nutzung von Gamification). Auch die Inhalte wurden in die neuen Informationssysteme migriert.

 

 

8.       Abschluss und Fazit

Die Studierenden lernten Information Management von einer anderen Seite kennen. Für viele war es neu in einem globalen Projekt mit Beteiligten auf mehreren Kontinenten und in unterschiedlichen Zeitzonen mitzuwirken.

Die Partnerunternehmen und avato hatten in diesem Projekt die Chance über 20 Studierenden kennenzulernen. Sie profitierten von der methodisch strukturierten und wissenschaftlichen Herangehensweise der Studierenden und können die guten Ergebnisse in Zukunft nutzen.

Das Projekt startete zu einer Zeit, wo kaum jemand die weiteren Entwicklungen von Covid 19 abschätzen konnte. Die persönlichen Zusammentreffen wurden durch virtuelle Treffen ersetzt. Die Gruppenarbeiten der Studierenden sowie deren Bewertung fanden ebenfalls remote statt. Diese Umstände erforderten umso mehr Disziplin und Abstimmung. Die Hochschule München, und hier besonders Herr Prof. Dr. Ley, zeichnete sich gleich zu Beginn als äußerst flexibel und engagiert aus. Somit konnte das Projekt trotz Corona ohne wesentliche Verzögerung starten und sehr erfolgreich durchgeführt werden. Auch bei den Partnerunternehmen waren das Interesse und das persönliche Engagement der Beteiligten sehr hoch und ein wichtiger Baustein des Projekterfolges.

Folgt auf Knowledge-Centered Service die Knowledge-Centered Organization?

Folgt auf Knowledge-Centered Service die Knowledge-Centered Organization?

Knowledge-Centered Service (KCS) ist nicht neu. Es verspricht, den Service schneller, besser und effizienter zu machen. Bevor wir auf KCO eingehen – was steckt hinter KCS, wie funktioniert das?

Knowledge-Centered Service ist ein Ansatz, der ursprünglich im Bereich IT als Knowledge-Centered Support entwickelt wurde und sich bis heute in der Version 6 zu Knowledge-Centered Service entwickelt hat. Die Weiterentwicklung wird gesteuert durch das Consortium for Service Innovation.

Der grundlegende Gedanke des Ansatzes geht davon aus, dass Verbesserungen im Service ihren wesentlichen Ursprung im Erfassen und der Verschriftlichung von Knowledge haben. Das Wissen der Organisation wird allen zur Verfügung gestellt. Das Anwenden dieses Wissens / dieser Informationen macht die Organisation effizienter und effektiver. „KCS is not something we do in addition to solving problems. KCS is the way we solve problems.”

Dies sind die wesentlichen Benefits für Organisationen, die KCS implementieren (siehe auch: The KCS Academy Website):

  • Solve cases / incidents faster
  • Optimize use of resources
  • Enable self-service strategy
  • Build organizational learning

KCS ist bei weitem keine Strategie in der Nische kleinerer Organisationen, sondern eine Erfolgsstrategie vieler Marktführer. Prominente Beispiele für erfolgreiche KCS Initiativen sind ServiceNow und Salesforce.

Weitere Informationen zur Organisation, zu Konzepten und zu Weiterbildungs- und Zertifizierungsangeboten bietet die KCS Academy.

 

Die wesentlichen Elemente von KCS

Zu den wesentlichen Bestandteilen von KCS gehören „Methodology“, vier grundlegende „Principles“ und 10 „Core Concepts“ (siehe auch: Consortium for Service Innovation Website).

Wenig überraschend liegt der Erfolg im Wesentlichen in der Methodik und ist nicht primär abhängig von den eingesetzten Technologien. Die Methodik lässt sich in 4 Punkten zusammenfassen (siehe auch: The KCS Academy Website):

  1. Integrate the reuse, improvement, and (if it doesn’t exist) creation of knowledge into the problem-solving process
  2. Evolve content based on demand and usage
  3. Develop a knowledge base of an organization’s collective experience to-date
  4. Reward learning, collaboration, sharing and improving

 

Man muss es nur machen: Die Knowledge-Centered Organization

Betrachten wir Organisationen allgemein, stellt sich die Frage: Was würde eine Knowledge-Centered Organization vom Ansatz des Knowledge-Centered Service unterscheiden? Muss der Ansatz erweitert werden, ist eine Überarbeitung erforderlich? Unsere Antwort lautet: Eine Überarbeitung ist nicht erforderlich, die aktuellen Ansätze bringen jeder Organisation Effektivitäts- und Effizienz-Gewinne.

Das „Consortium for Service Innovation“ entwickelt den Ansatz stetig weiter. Was würden wir aus der Perspektive des Information Management in die Diskussion zur Weiterentwicklung des Standards einbringen wollen? Zur Methodology, zu den Principles und zu den Benefits bieten sich aus unserer Sicht zusätzlich Aspekte für die weitere Diskussion an.

 

1) Methodology

KCS ist ein stark Bottom-up geprägter Ansatz. Wir würden langfristig die Rolle des Information Managers noch stärker betonen und neben dem Bottom-up Konzept noch etwas stärker das Element des Top-down betonen. Zu den Aufgaben des Information Managers gehören die Reduktion auf wesentliche Inhalte (weniger ist mehr), Vermeidung von Redundanzen zur besseren Wartbarkeit sowie die Ausrichtung an Stakeholder Zielen.

Der Information Manager ist für uns die Rolle, die den gesamten Knowledge / Information Management Prozess in drei Bereichen steuert:

  1. Manage Information
  2. Manage People: Information User, Information Provider, Stakeholder
  3. Manage Information Management Technology

Lesen sie dazu auch den Artikel Operational Excellence Without Correctly Working Knowledge.

  

2) Principles

Die Principles von KCS sind „Abundance”, “Create Value”, “Demand Driven” und “Trust”. “Demand Driven” ist ein wichtiger Teil jeder Knowledge-Centered Service / Knowledge-Centered Organisation Initiative und ist im Wesentlichen Bottom-up getrieben. Wissen ist in den Köpfen Einzelner und soll allen zugänglich gemacht werden. Aus unserer Erfahrung ist es aber wichtig, nicht alle Bereiche zeitgleich anzugehen. Hier gilt, „Think big, start small“. An diesem Punkt kommen die Stakeholders ins Spiel. Sie geben die Ziele vor und sind für die Priorisierung verantwortlich. In aller Regel gibt es in größeren Organisationen viele Stakeholders mit sehr unterschiedlichen Interessen. Die Steuerung des Kommunikationsprozesses zwischen den Stakeholders, der Abgleich von Zielen sowie die übergreifende Priorisierung fallen in den Aufgabenbereich des Information Managers.

 

3) Benefits

KCS bietet bei überschaubarem Aufwand einen enormen Mehrwert für jede Organisation. Neben den vom Consortium genannten (siehe auch: The KCS Academy Website) wollen wir an dieser Stelle drei weitere Vorteile betonen, die sich aus einem Knowledge-Centered Service / einer Knowledge-Centered Organisation für jede Organisation ergeben:

  1. Prozesse in der Organisation werden schneller und besser
  2. Die Organisation wird kunden- und geschäftsorientierter
  3. Die Zusammenarbeit mit Lieferanten und Partnern wird verbessert

     

    Organisationen und Prozesse neu gedacht: Der Kulturwandel ist einfach

    Knowledge-Centered Service hat sich in der Service-Praxis hervorragend bewährt und führt zu einem Kulturwandel in der Organisation. Bei geringem initialem Aufwand steigen Effizienz und Effektivität. Auch wenn an der einen oder anderen Stelle eine Weiterentwicklung sinnvoll sein kann, lassen sich die Grundsätze des Knowledge-Centered Service im Grunde schon heute auf jede Organisation anwenden.