Die Kunst der einfachen Informationsvermittlung: Wie Sie Fachartikel für Ihre Leser optimieren

Die Kunst der einfachen Informationsvermittlung: Wie Sie Fachartikel für Ihre Leser optimieren

Wenn Sie Fachartikel und Anleitungen schreiben, wissen Sie, dass es dabei so einiges zu beachten gibt: Sind alle notwendigen Schritte beschrieben? Stimmt jedes Detail? Sind die Informationen aktuell? Sollen Codeauszüge oder Flussdiagramme eingebunden werden? Bei so vielen Aspekten, die es unter einen Hut zu bringen gilt, kann leicht der wichtigste Faktor aus dem Blick geraten: Ihr Leser. Um diesen wieder in den Fokus zu bringen, haben wir eine Checkliste der einfachsten Mittel zusammengestellt, mit denen Sie die schnelle und einfache Verständlichkeit Ihrer Fachartikel und Anleitungen verbessern können. Einfachere Fachartikel helfen Ihren Lesern, erfolgreich und weniger frustriert durch ihren Arbeitstag zu kommen.

Einfachere Sprache

In den allermeisten Fällen überfliegen Leser die Dokumentation lediglich auf der Suche nach der Information oder dem Anleitungsschritt, den sie gerade benötigen. Ziehen Sie Informationen deshalb nicht unnötig in die Länge. Fassen Sie sich kurz und verständlich. Dazu gehört:

  • Eine einfache Sprache: Kurze Sätze und eine einfache Sprache helfen Ihrem Leser, den Text schneller und leichter zu überfliegen. Wenn Sie einen Satz auch in mehrere aufteilen können: tun Sie es. Wenn Sie ein kompliziertes Wort mit einem einfachen ersetzen können, umso besser. Machen Sie sich keine Sorgen, dass einfache Sprache von Ihren Lesern als herablassend oder langweilig wahrgenommen werden könnte. Sie lesen Ihren Fachartikel nicht zur Unterhaltung, sondern möchten schnell die Information finden, die sie suchen.
  • Reduziertes Vokabular: Verwenden Sie im gesamten Artikel oder der gesamten Anleitung konsistent dieselbe Benennung für einen Begriff. Auch wenn es monoton erscheint: Es hilft Ihren Lesern, der Anleitung zu folgen und auch die Verwendung der Suchfunktion liefert so passendere Ergebnisse.
  • Leitende Satzstrukturen: Damit ist gemeint, dass am Anfang jedes Satzes diejenigen Worte stehen, die Ihrem Leser am meisten bei der Orientierung helfen oder die zeitlich zuerst einzuordnen sind.

Das Auge leiten

Nicht nur die Sprache kann Ihren Fachartikel vereinfachen: Wenn Ihre Inhalte visuell leicht nachvollziehbar sind, vereinfacht dies sowohl das Lesen als auch das Überfliegen.

  • Eine Übersicht geben: Vor allem längere Artikel sollten ein interaktives Inhaltsverzeichnis haben, über das Leser mithilfe von Links direkt zu dem Teil springen können, den sie benötigen.
  • Den Text durch Strukturierung aufteilen: Kurze Absätze, Zwischenüberschriften und Strukturelemente wie Listen helfen Lesern, Inhalte zu überfliegen und die gesuchte Information zu finden.
  • Hervorhebungen: Verwenden Sie Elemente wie fettgedruckten Text und Farben, um wichtige Informationen ins Auge springen zu lassen. Aber achten Sie auf Ausgewogenheit. Wenn Sie jedes zweite Wort hervorheben, ist dem Leser nicht geholfen.

Konventionen einhalten

Versuchen Sie, gängige Konventionen einzuhalten, die ein intuitives Lesen ermöglichen, wie zum Beispiel:

  • Allgemeingültige Terminologie anstatt Eigenkreationen
  • Vertraute Farbschemata wie etwa Rot für Negativ- und Grün für Positivbeispiele

Leserfreundliche Illustrationen

Zuallererst: Sie müssen keine Illustrationen verwenden. Falls Illustrationen für den Inhalt nicht notwendig sind oder sogar Verwirrung stiften könnten, müssen Sie sich nicht die Mühe machen, ein Schaubild zu erstellen oder Stock-Fotos herauszusuchen. Was Sie wollen, ist ein einfacher Fachartikel ohne zu viel Ablenkung.

Wenn Ihr Inhalt jedoch von Illustrationen profitieren kann, ziehen Sie folgende Tipps in Betracht:

  • Welche Art von Illustration passt zu Ihrem Inhalt? Wenn Sie einen Prozess darstellen, bietet sich ein Flussdiagramm an. Wenn Sie Daten präsentieren möchten, erstellen Sie ein Diagramm. Wenn Sie die Bedienung einer Anwendung zeigen möchten, verwenden Sie einen Screenshot.
  • Minimalismus: Binden Sie in die Illustration nur Inhalte ein, die zum Verständnis notwendig sind, sodass diese schnell und ohne weitere Erklärungen aufgefasst werden können.
  • Hinweise geben: Falls die Illustration eine Erklärung benötigt, liefern Sie diese. Lassen Sie den Leser wissen, wofür verschiedene Farben, Symbole, Spalten oder Balken stehen.
  • Die Illustration barrierefrei machen: Indem Sie Illustrationen barrierefrei machen, helfen Sie allen Lesern, nicht nur denen mit Sehbeeinträchtigungen. Stellen Sie sicher, dass alle Details klar sichtbar sind und erklärt werden. Fügen Sie weitere Erklärungen im Text an, damit diese mit der Suchfunktion gefunden werden können.

Fragen Sie Ihre Leser nach ihren Bedürfnissen für einfachere Fachartikel!

Es kann herausfordernd sein, zu entscheiden, wie eine bestimmte Information oder ein Anleitungsschritt am besten darzustellen ist oder wie ein Fachartikel optimiert werden kann. Sollten Sie Schwierigkeiten haben, versetzen Sie sich in Ihren Leser hinein.

  • Erstellen Sie eine Persona Ihrer Leser: Notieren Sie ein paar typische Eigenschaften Ihrer Leser. So können Sie sich besser auf sie und ihre Bedürfnisse konzentrieren.
  • Fragen Sie einen Kollegen: Ein anderer Blickwinkel deckt womöglich Verbesserungspotenzial auf. Ihre Kollegen sind vielleicht nicht Ihre Leser, können aber trotzdem Stellen identifizieren, die genauer erklärt werden könnten oder Ideen haben, wie eine Abbildung vereinfacht werden kann.
  • Fragen Sie einen Leser: Letzten Endes ist es natürlich wichtig, die Leser nach ihrer Meinung zu fragen. Das muss nicht vor der Veröffentlichung geschehen. Feedback kann auch über eine Möglichkeit zur Bewertung, eine Kommentarfunktion oder ein Kontaktformular eingeholt werden. Alle diese Möglichkeiten bieten wertvolle Einblicke sowohl für den veröffentlichten Inhalt als auch für zukünftige Fachartikel.

Auf viele der hier in der Übersicht genannten Punkte kann noch näher eingegangen werden: mit Tipps zur Reduzierung des Vokabulars, Regeln für Hervorhebungen oder einem genaueren Blick auf Konventionen im Netz oder Richtlinien für die Barrierefreiheit. Bleiben Sie gespannt auf weitere Artikel, die Ihnen helfen, Ihre Inhalte weiter auf die Bedürfnisse Ihrer Leser zu optimieren.

Haben wir einen Punkt auf Ihrer persönlichen Checkliste für Fachartikel übergangen? Schreiben Sie uns gern Ihr Feedback an marketing@avato.net!

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: August 2021
Autor: Kris Schmidt
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2021 avato consulting ag
All Rights Reserved.

KI trifft KM: Synergie von Künstlicher Intelligenz und Knowledge Management

KI trifft KM: Synergie von Künstlicher Intelligenz und Knowledge Management

KI ermöglicht es, große Datenmengen schnell zu untersuchen und so den größtmöglichen Nutzen aus ihnen zu ziehen. Je komplexer das Problem, umso mehr Daten werden benötigt, damit die KI überhaupt funktioniert. Daher ist gerade für mittelständische Unternehmen die Datenakquise häufig eines der größten Hindernisse bei der Einführung von KI.

Auf der anderen Seite steht Knowledge Management oft vor dem entgegengesetzten Problem: Die große Menge an Daten – Knowledge Articles, Templates, Metadaten, Zugriffsdaten, … – macht es schwer, den Überblick zu behalten und den Wert der vorhandenen Information voll auszuschöpfen.

Genau deshalb sind KI und KM wie füreinander geschaffen: Die Stärken des einen sind die Lösung für das Problem des jeweils anderen. Dieser Artikel stellt einige Anwendungsfälle vor, in denen die Synergie von KM und KI neue Möglichkeiten eröffnet, die Effizienz erhöht und Qualität verbessert.

Wissen finden: Suche und Navigation

Je größer die Knowledge Base, umso schwieriger ist es, die gesuchte Information zu finden. KI kann dabei unterstützen und so Zeitaufwände minimieren und die Effizienz erhöhen. Hier einige Beispiele:

Empfehlungen

Eine schon häufig genutzte Methode, wie KI hier unterstützen kann, sind Empfehlungen in der Art von „Andere Nutzer interessierten sich für“. Diese Empfehlungen basieren meist darauf, welche Artikel Nutzer vor oder nach dem aktuellen Artikel angesehen haben. Artikel, die dabei besonders oft auftauchen, werden empfohlen. Noch etwas genauer kann die Vorhersage erfolgen, wenn die Nutzer in Gruppen unterteilt sind. Dann können die Interessen der Gruppe des jeweiligen Users stärker berücksichtigt werden.

Derselbe Mechanismus kann auch das Ranking von Suchergebnissen beeinflussen. Wird eine Seite von der eigenen Nutzergruppe häufiger verwendet, taucht sie weiter vorn in der Ergebnisliste auf.

Nutzergruppen erkennen

Nutzergruppen können z.B. aus der Stellenbeschreibung, Abteilung oder den Rechten des Nutzers abgeleitet werden. KI-Systeme sind in der Lage, Gruppen auch automatisch zu bilden und neue Nutzer einer Gruppe zuzuordnen. Das Grundkonzept: Nutzer mit ähnlichem Nutzerverhalten bilden eine Gruppe.

Menüs optimieren

Verwendet die Knowledge Base ein hierarchisches Menü für die Navigation, kann auch dieses von den Erkenntnissen über die Nutzergruppen profitieren. Das System kann vorschlagen, welche Seiten im Menü nebeneinanderstehen sollten, weil sie oft gemeinsam genutzt werden. Es kann sogar für jede Nutzergruppe eine eigene Menüstruktur erzeugt werden, die auf die jeweiligen Bedürfnisse angepasst ist.

Der Zeitpunkt der Suche

Neben der Frage, wer sucht, kann KI auch die Frage nach dem Wann berücksichtigen. Gibt ein Nutzer mehrere Suchanfragen hintereinander ein, ohne eines der Ergebnisse gründlich anzusehen, lohnt es vielleicht, proaktiv einen anderen Kommunikationskanal vorzuschlagen.

Auch kalendarische Information kann einfließen. Bestimmte Informationen werden nur zum Monatsende oder Jahreswechsel benötigt, oder in bestimmten Zeitintervallen. KI erkennt solche Regelmäßigkeiten und ermöglicht es, die jeweilige Information zum richtigen Zeitpunkt anzubieten, ohne dass erst danach gesucht werden muss.

KM Prozesse: Monitoring und Moderation

Information veraltet. Sogar die Anforderungen an einen Knowledge Artikel können sich mit der Zeit ändern. Daher muss die Qualität der Inhalte dauernd überwacht werden. Da der Aufwand für ein manuelles Monitoring zu hoch wäre, bietet es sich an, auch hier von KI Gebrauch zu machen. Eine ganze Reihe von KPIs sind denkbar und können maschinell erhoben werden.

Um ein Beispiel herauszugreifen: Viele Knowledge Bases bieten eine Kommentarfunktion an. KI kann mittels Sentiment Analyse bestimmen, ob die Kommentare loben, kritisieren oder Fragen stellen. In Kombination mit anderen Informationen, etwa der Zugriffshäufigkeit und der Zahl von Likes, kann daraus ermittelt werden, wie gut der Artikel aus Nutzersicht bewertet wird. Artikel mit schlechter oder schnell sinkender Bewertung setzt das System automatisch auf die Liste der Artikel, die Überarbeitet werden müssen.

(Mehr Details dazu, wie man die Qualität einer Knowledge Base überwacht, gibt es in dem Artikel „Schlankheitskur für Confluence-Wikis“.)

Wo immer es eine Kommentarfunktion gibt, muss es auch ein gewisses Maß an Moderation geben. Auch hier wäre es ineffizient, Inhaltsexperten regelmäßig die Kommentare nach Fragen und Anregungen absuchen zu lassen. Wenn eine KI aber die Kommentare nach ihrer Dringlichkeit beurteilt und nur wenn nötig den Verantwortlichen auffordert zu reagieren, erreicht man das bestmögliche Ergebnis bei kleinstmöglichem Aufwand.

Training: Wissenslücken erkennen und beseitigen

Zum Knowledge Management gehört nicht nur die Verwaltung von verschriftlichter Information. Auch das Wissen in den Köpfen von Kunden und Mitarbeitern kann und sollte gemanagt werden. Das geschieht über gezieltes Training. Personalisiertes Training ist dabei effektiver als ein vereinheitlichter Plan, der sich am Durchschnitt statt am Bedarf des Einzelnen orientiert. KI kann den Bedarf des Einzelnen erkennen und entsprechende Auffrischungen und Vertiefungen vorschlagen. Wer oft Informationen zu einem bestimmten Thema sucht oder immer wieder ähnlich Fehler macht, bekommt ein Training zu diesem Thema vorgeschlagen.

Die Trainings sind aufgrund ihrer Komplexität nur schwer automatisch zu generieren. Tests zur Kontrolle des Wissenstandes hingegen können automatisch erzeugt werden, zumindest in Fällen, in denen die Abfrage von Faktenwissen ausreicht. Moderne Methoden zur Wissensextraktion können aus einem Text eine Frage inklusive der dazugehörigen Antwort generieren. Nach redaktioneller Prüfung können diese Tests dann ebenfalls verwendet werden, um den individuellen Trainingsbedarf zu bestimmen.

Fazit

Die Mengen an Daten, die im und rund um das Knowledge Management entstehen, sind ohne KI nur zu einem geringen Prozentsatz nutzbar. KI wiederum benötigt diese Daten und kann auf ihrer Basis echten Mehrwert erzeugen. Dadurch lässt sich das Knowledge Management verbessern. Das Ergebnis: qualitativ hochwertige Inhalte, effiziente Nutzung und dadurch am Ende auch bessere Resultate und weniger Fehler. KI und KM: ein perfektes Team.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Juli 2021
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2021 avato consulting ag
All Rights Reserved.

FAQ Automatisierung: Das „F“ ausnutzen

FAQ Automatisierung: Das „F“ ausnutzen

Frequently Asked Questions (FAQs) gehören zu den ersten Anlaufstellen, wenn ein Nutzer Informationen benötigt. Der Vorteil von FAQs besteht darin, dass sie sich auf die wichtigsten Punkte und häufigsten Probleme beschränken. Daher sind sie leichter zu überschauen als die Gesamtdokumentation. Damit das auch funktioniert, müssen FAQs gut sortiert, leicht zu navigieren und vor allem aktuell sein. Anders ausgedrückt: Der Erfolg der FAQs steht und fällt mit den Kapazitäten der Redaktion. Aus der großen Zahl von Fragen ergeben sich große Aufwände für die FAQ-Redaktion. Die hohe Zahl und die Häufigkeiten der einzelnen Fragen haben aber auch ihre Vorteile: Das „F“ („Frequently“) in FAQ ermöglicht Automatisierung, die manuelle und / oder repetitive Redaktionsarbeit minimiert. Hier ein paar Ideen, wo man dabei ansetzen kann.

Ähnliche Fragen automatisch erkennen

Ein erster Schritt in Richtung FAQ Automatisierung ist die Erkennung ähnlicher Fragen. Können Nutzer ihre Frage nicht (schnell genug) über FAQs oder die Navigation lösen, wechseln sie auf andere Kanäle. Meistens sind das entweder eine Suche oder ein Service Center. Wird das Service Center via Ticket, Mail oder Chat kontaktiert, oder werden Anfragen protokolliert, erweitert sich die Sammlung von Nutzerfragen. Je nach Format und Quelle kann diese Sammlung automatisch und kontinuierlich nach Mustern durchsucht werden.

Häufige Begriffe in Suchanfragen zu identifizieren ist recht einfach. Um gemeinsame Themen und Ähnlichkeiten z.B. in der Problembeschreibungen in einem Ticket zu erkennen, sind komplexerer Methoden nötig. Diese stammen aus dem Bereich des Natural Language Processings (NLP). Mit Topic Modelling, Distanzmessung und Dendrogrammen kann man aber auch hier Gruppen und Muster erkennen.

Wird ein Thema erkannt, das besonders häufig auftaucht, kann das System die FAQ-Redaktion darauf aufmerksam machen. Es listet die Fragen und Suchen auf, die dem Thema zugeordnet wurden. Anstatt alle Fragen selbst durchzugehen, muss die Redaktion nur noch entscheiden, ob das erkannte Muster sinnvoll und relevant ist.

Duplikate automatisch erkennen

Ein weiterer Schritt hin zu mehr Automatisierung von FAQs ist die Erkennung von Duplikaten. Gibt es auf eine Frage zwei Antworten, hilft das dem Nutzer im Zweifel nicht. Im Gegenteil, es führt zu Verwirrung und Frust. Daher müssen Duplikate erkannt und beseitigt werden. Bevor eine Frage zu den FAQs hinzugefügt wird, gilt es zu prüfen, ob es sie schon gibt.

Bei einer guten Sortierung und wenigen Fragen ist der Aufwand hier gering. Bei komplexen Themen mit verschiedenen Unterteilungen und Perspektiven sieht es anders aus. Ebenso, wenn mehrere FAQs zusammengeführt werden sollen oder verschiedene Abteilungen ihre eigenen FAQs pflegen.

Duplikate zu erkennen funktioniert ähnlich wie die Erkennung ähnlicher neuer Fragen. In diesem Fall liegt die Schwierigkeit darin, dass die Texte sehr kurz sind, was für vielen NLP Techniken ein Problem darstellt. Hinzu kommt, dass es wenige Daten gibt, mit denen ein intelligentes System trainiert werden könnte. Denn in den meisten Fällen werden Duplikate einfach entfernt, und nicht als solche gekennzeichnet. Fragen mit ähnlichen Schlagworten und Kategorien aufzulisten, ist daher der effizientere Ansatz. Dann kann die Redaktion sie mit geringem Aufwand mit der neuen Frage abgleichen.

Automatische Sortierung

Eine weiter Möglichkeit zur FAQ Automatisierung liegt im Bereich der Sortierung. Um die FAQs übersichtlich zu halten oder für eine Suche zugänglicher zu machen, werden die Fragen fast immer in Kategorien unterteilt oder sogar in eine Themenhierarchie eingeordnet. Auch diese Einsortierung kann automatisch passieren. Dazu lernt eine KI die Gemeinsamkeiten der Fragen in einer Kategorie oder einem Zweig der Hierarchie. Anschließend überprüft sie, zu welcher Gruppe die neue Frage am ehesten passt. Wird eine Gruppe zu groß, kann das System auch untersuchen, welche Fragen sich innerhalb einer Gruppe thematisch am ähnlichsten sind, und so eine Unterteilung vorschlagen.

Wenn sich Themenfelder und Organisationen mit der Zeit ändern, kann es außerdem vorkommen, dass die alten Sortierungskriterien nicht mehr passen. Eine neue Gliederung kann anhand von Ähnlichkeiten zwischen den Fragen erstellt werden. Eine redaktionelle Nachbereitung ist aber dringend zu empfehlen. Denn das Resultat wird zwar den Vorteil haben, dass es sich an dem orientiert, was wirklich da ist, unabhängig von persönlichen Präferenzen; allerdings müssen die Unterteilungen nicht zwangsläufig für einen Menschen nachvollziehbar sein.

Fazit

KI und NLP können die Automatisierung von FAQs an vielen Stellen unterstützen. Sie verringern Aufwände und helfen bei der einheitlichen Strukturierung. Die Redaktion erhält so die Möglichkeit, sich auf inhaltliche und gestalterische Arbeit zu konzentrieren und so den Nutzen der FAQs und damit die Nutzerzufriedenheit kontinuierlich zu erhöhen.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Juli 2021
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2021 avato consulting ag
All Rights Reserved.

5 Ways to Use Machine Learning in Knowledge Management

5 Ways to Use Machine Learning in Knowledge Management

Most knowledge subject to a formal management process is available in written form. Those text collections contain more information than what is written in each of the documents. Analyzing the collections with AI methods like Machine Learning (ML) can support the knowledge management process in multiple ways and makes it possible to gain additional insights and advantages. This article provides some ideas on how to gain additional benefits from Knowledge Management (KM) using ML.

 

Example 1: Problem Management

Let’s start with knowledge in its second most common form: informal text with little to no structure in some document that is not subject to any KM process. (The most common form is within people’s heads.) Examples are error reports, maintenance reports or repair work protocols. They may come from technicians trying to solve the issue or users contacting the support. There is a lot of valuable information hidden in a collection of such documents. Which are the most common errors? What is the solution with the highest success rate? Are there areas where additional employee or user training might be needed? This is how you get that information:

First, we need to tag each report with the error described in it. This can be done either with supervised or unsupervised ML.

In supervised ML, you first manually tag a large enough number of documents and then train the system to guess the error from the description. In case the error is described with a code, this part is trivial. If the description is a free text listing symptoms, it is more complicated. If the number of possible errors is high and symptoms vary a lot, unsupervised learning might be the better choice. The system will group the descriptions by similarity of symptoms. Afterwards you manually tag each group with the corresponding error. The drawback is that you might not get one group per error. There might be cases where the system can only limit the number of possible errors, but not provide a clear decision.

Now the system can tell what issue the document is about. Thus, you can monitor how often which issue occurs. Here are some examples for the advantages you get from this:

  • You can find the weaknesses of a product by looking at its most common errors.
  • You know there is an issue with a new update or a special product batch if numbers rise right after the release.
  • You can optimize your training programs to focus on the common issues.

 

Example 2: Suggesting Solutions

Guessing the error was only step one. Step two is to train the system not only to recognize the error, but also to suggest a solution. Take the repair protocols for an error and train the system to detect similar procedures. (If you have information on whether the solution worked, use only the successful procedures.) For each group you write an instruction. You can do this either manually, especially for common or high impact issues, or use a text generation algorithm to create an instruction based on the repair description you already have.

The system can now suggest the most common solution to an error (and if you want, also the second most common in case the first one did not work or is not applicable for some reason). It can tell the error from the description. This makes the investigation process much more efficient. And as a bonus, your technicians do not need to write the repair protocols any longer as the system can pre-fill them in most cases.

How well a system like this works depends on several factors. Most important are the number of available documents, the number of errors and the variety among the solution descriptions. The more documents per error and the less variety, the better the system will perform. Even with a great AI model, you should not blindly trust the suggestions. But having them definitely is of big advantage.

 

Example 3: Efficient Search

The next level is having the information in some sort of central system like a wiki, SharePoint or a knowledge module of a ticketing system. In that system you most likely have some search implemented to allow users to quickly find what they need. Search engines are very sophisticated these days and sometimes even employ AI technologies for various purposes like ranking or spellchecks. Especially a good result ranking is important for search. If the result you are looking for is on position 24 on the result list there is only a minor difference to not being included at all.

The number of times your terms are used in a document does not necessarily determine its usefulness in your situation nor does its click rate. What you need are the pages most used in your case. While ranking results, the search engine should consider which pages users with a similar interest read, which results they skipped or closed after a short look, and which document they finally used. Web analytics and user tracking can provide such data.

To find out which users are looking for the same information, several techniques can be used. Comparing the search terms is straight forward, but might suffer from use of synonyms, different languages, or even misuse of terms. Defining and training intents is an alternative. The technique is primarily used in chatbots to extract the information need from free text input. But as the use case is similar in search it can easily be transferred. Collect search queries that aim for the same information, use them to train the system on recognizing the intent and then let the search check if a new query matches one of the intents. If so, rank results usually used by users with this intent higher.

The drawback of this method is that defining intents is not that easy. However, there are other ML techniques that can suggest new intents to add based on the search requests.

 

Example 4: Personalization

For KM systems with a wide user range there is the challenge to provide everyone with what they need and keep them updated on changes – without making them search for it among content not relevant to them or burying them in notifications. You need to personalize your content delivery. Content should know to which users it is relevant.

To get there, again we collect information via web analytics and user tracking. This time we are interested in who uses which content. Then we use ML to build user groups based on user behavior. In most scenarios, every user will be a member of multiple groups. Once learned, the system can add the users to groups automatically. However, assigning them manually should be possible in addition to that.

For the content, you do the same. You train the system to predict which user groups might be interested in it by looking at the groups interested in similar documents. Now when adding a new document, the system can notify the users it is relevant for, add it at a prominent spot in their view of the interface, and hide it for other users.

 

Example 5: Quality Monitoring

User Feedback is vital to KM. Without it, you are missing out an important stakeholder group and risk the acceptance of the KM program. There are many ways to gather feedback: Ratings, surveys, user tracking… The best way to gather feedback is enabling comments. Comments allow the user to give a detailed opinion. They can ask questions, point out minor weaknesses and engage the user in the improvement process directly as they can give input. And in contrast to a survey, they do not need too much preparation and, on a small scale, little interpretation.

However, when the number of comments on your content grows large, moderating discussions can get time intense. In addition, it becomes nearly impossible to grasp the overall mood of all comments on a document. Luckily, both issues can be addressed with the same method: Tag a set of comments with the information you need for your comment monitoring. Then train the system to recognize these categories from the text. In marketing context, this is called sentiment analysis since the desired information is whether customers like or dislike a brand or product. In KM however, other categories are important, e.g. whether a comment is a question, critique, a suggestion, or a praise. Questions and critique should be addressed by the moderator or content responsible within a short period of time, while a suggestion might be relevant only with the next content review. A praise, while being the reaction you hope for, might not require any reaction at all. By sorting comments that way using ML, the workload for moderators and responsibles decreases.

The same information can be used for quality monitoring. While a high number of comments tells you that a piece of content is perceived, it does not tell you whether it does so for being useful and important or for being insufficient. The ratio of different kinds of comments can tell a lot more. The meaning of praise and critique is obvious. High numbers of questions and suggestions mean the content is important and used (thus has some quality) but might need refinement. This way, you can use the comments to monitor the quality of the content, improving where the need is greatest and noticing early if the quality drops or is not met.

These where only 5 examples on the benefits of combining KM and ML. The implementation of AI often fails because of missing data – but KM can provide data in form of text. And with the data available, all you need to start is knowing what you want to know. There is so much more possible if you keep in mind that in KM the whole provides more information that its parts.

Schlankheitskur für Confluence-Wikis

Schlankheitskur für Confluence-Wikis

Ein Confluence-Wiki im Unternehmen ist eine tolle Sache. Jeder kann es mit seinem Wissen füttern. So entsteht mit der Zeit eine umfangreiche Knowledge Base, die Informationen zu allen Bereichen des Unternehmens bereitstellt.

Mit der Zeit fügen verschiedene Autoren immer mehr Informationen hinzu, bis das Unternehmens-Wikis schließlich Tausende (oder gar Zehntausende) von Seiten umfassen. Während all diese Informationen bei ihrer Erstellung wichtig gewesen sein mögen, ist vieles davon im Laufe der Zeit veraltet. Jetzt steht falsche Information neben noch relevantem Wissen. Das führt dazu, dass man länger braucht, um zu finden, was man sucht Es kommt zu Fehlern aufgrund falscher Informationen. Und es entsteht allgemein Misstrauen gegenüber dem Wiki. Die Nutzer verwenden das Wiki immer weniger, weil sie es als nicht hilfreich empfinden.

Um das zu verhindern, sollten Confluence-Wikis von Zeit zu Zeit auf Diät gesetzt werden. Duplikate und andere Inhalte, die nicht mehr benötigt werden, müssen entfernt werden. Was übrig bleibt, sollte in eine Struktur gebracht werden, die einfach zu navigieren und zu pflegen ist. Aber wie macht man das? Der Aufwand, alle Seiten manuell zu prüfen, die in der Geschichte des Unternehmens angelegt wurden, ist zu groß. Der Prozess muss zumindest teilweise automatisiert werden.

Und das erreichen Sie folgendermaßen:

Schritt 1: Wie ist die Lage?

Zunächst müssen Sie an die Daten kommen. Ein Export der Datenbank des Wikis oder eine Verbindung dorthin wäre perfekt, aber für eine erste Auswertung reicht auch ein einfacher Seitenexport. Den kann jeder Space-Admin über die Confluence UI machen.

Verschaffen Sie sich als nächstes einen Überblick. Dafür genügt einfachste Technik. Wer hat welche Seiten erstellt und bearbeitet? Gibt es Experten für die verschiedenen Teile des Wikis, die einschätzen könnten, was relevant ist? Suchen Sie nach veralteten Teamnamen und Ähnlichem. Das sind gute Indikatoren dafür, wie gut eine Seite gepflegt wird. Das Datum der letzten Bearbeitung ist auch einen Blick wert. Da sich verschiedene Themen in unterschiedlichem Tempo ändern, sollten Sie damit aber vorsichtig sein. Betrachten Sie außerdem die Menüstruktur des Wikis. Zu tiefe Menüs oder zu viele Seiten unter einem Menüpunkt erschweren die Navigation und machen Duplikaten wahrscheinlicher.

Konzentrieren Sie sich bei dieser Analyse nicht auf die einzelnen Seiten, sondern auf die Verteilung der Werte. Daraus können Sie abschätzen, wie nah Sie Ihrem Ziel im Großen und Ganzen sind.

Schritt 2: Analysieren

Zeit, tiefere Einblicke in die Inhalte zu gewinnen. Es gibt viele Aspekten, die Sie automatisch untersuchen können. Die Struktur einer Seite, ihre Lesbarkeit und die Verwendung von Abkürzungen zeigen an, wie schwer der Inhalt zu verstehen ist. Zu komplexe Seiten sollten entfernt oder zumindest überarbeitet werden. Sie können das System prüfen lassen, ob der Inhalt zu Zweck der Seite passt. Es kann nach ähnlichen Seiten suchen, um Duplikate zu erkennen oder Themen, die über verschiedene Zweige des Menüs verteilt sind.

Die Anzahl der Grafiken ist auch ein Hinweis, denn Grafiken helfen, eine Erklärung zu verstehen. Sie zu erstellen war ein zusätzlicher Aufwand, also waren die Inhalte und die Qualität dem Autor wichtig. Außerdem kann das Alter der Grafiken viel darüber aussagen, wie gut die Seite gepflegt ist.

Es gibt noch viele weitere Methoden, die Sie anwenden können. Welche Sie einsetzen, hängt davon ab, welche Qualität Sie erreichen möchten. Der Zweck des Wikis spielt auch eine Rolle. Und natürlich, welche Technik Ihnen zur Verfügung steht. Information Manager können Ihnen helfen, zu entscheiden, was nötigt ist, auf Basis Ihrer Ziele und der Erkenntnisse aus Schritt 1. Sie sind Profis in der Anwendung von Information Management Methoden und Technologien und in der Auswertung der Ergebnisse.

Schritt 3: Aufräumen

Jetzt bleibt nur noch ein letzter Schritt: die Entscheidung, was Sie behalten wollen, was überarbeiten und was entfernen oder archivieren. Das kann regelbasiert geschehen, mit Rücksicht auf die Bedürfnisse der verschiedenen Bereiche; oder mit einer Kombination aus maschinellem Lernen und Input von Experten. Sehr wahrscheinlich müssen Sie die Struktur des Wikis überarbeiten. Auch dabei können Ihnen die Information Manager helfen. Sie sind darin geschult, Informationen so zu ordnen, dass es die Ziele der Stakeholder optimal unterstützt.

Am Ende hat Ihr Confluence-Wiki überschüssiges Gewicht verloren – bis zu 70%. Es ist schneller und leichter zu bedienen. Das führt zu besseren Entscheidungen und Leistungen. Auch die Pflege ist einfacher, jetzt wo Sie den Überblick haben. Wenn Sie das Wiki im Auge behalten, können Sie erhalten, was Sie erreicht haben: eine schlanke, gesunde Knowledge Base, die die Effizienz erhöht, Fehler minimiert und mit der Ihre Nutzer gerne arbeiten.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: April 2021
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2020 avato consulting ag
All Rights Reserved.

Wie automatisiert man ein Glossar für die Inhaltserstellung?

Wie automatisiert man ein Glossar für die Inhaltserstellung?

Knowledge Management (KM) wird immer wichtiger. Verkaufszahlen, Effizienz und Mitarbeiterzufriedenheit können dadurch gesteigert werden. Doch KM ist eine Aufgabe, die sich nur bewältigen lässt, wenn Themenspezialisten, IT, Autoren und Management kooperieren. Gemeinsam können sie eine Wissensplattform aufbauen, die allen Beteiligten als Grundlage für Zusammenarbeit, Kommunikation und alltägliche Abläufe dient.

Damit das funktionieren kann, müssen sich alle über die Bedeutung der zentralen Begriffe einig sein. Ist das nicht gegeben, ist Verwirrung bei den Nutzern der Information die Folge und der Mehrwert geht größtenteils verloren. Um das zu verhindern nutzt man Glossare, die verbindliche Definitionen, Abkürzungen und Listen von erlaubten und verbotenen Synonymen bereitstellen. Nur: Soll wirklich jeder, der Inhalte erstellt, jedes Wort nachschlagen? Woher sollen die Autoren wissen, welche Begriffe definiert sind und welche nicht?

Das Glossar müsste die Autoren automatisch, proaktiv informieren. Das lässt sich mit den folgenden Schritten erreichen, je nach Wunsch mit simplen oder ausgefeilteren technischen Mitteln.

 

1. Den Geltungsbereich festlegen

Der erste Schritt ist der schwierigste, aber zum Glück ist er nur für umfangreichere Glossare nötig, die für dasselbe Wort verschiedene Definitionen je nach Kontext anbieten. Wenn Ihr Glossar zwischen mehreren Kontexten unterscheidet, muss bestimmt werden, welche Kontexte für den jeweiligen Text relevant sind. Am einfachsten geht das, indem man den Autor die Geltungsbereiche angeben lässt.

Wer die nötigen Ressourcen hat, kann dafür eine einfache Benutzeroberfläche entwickeln. Alternativ reicht es aber auch, automatisch eine Liste aller Kontexte zu erzeugen, die das Glossar kennt, und den Autor zu bitten, in einer CSV-Datei ein X hinter jeden zutreffenden Kontext zu setzen. Solche Listen lassen sich leicht auslesen. Ist der Kontext bekannt, kann dann eine Liste aller relevanten Begriffe und Definitionen erstellt werden.

Noch mehr Automatisierung lässt sich mit Text Analytics und KI erzielen. Damit ist es möglich, die relevanten Kontexte automatisch auszuwählen. Da es allerdings doch einigen Aufwand bedeutet, so ein System aufzusetzen, sollte man sich vorher genau überlegen, ob es die Mühe wert ist.

 

2. Den Text vorbereiten

Im Glossar stehen die Wörter in ihrer Grundform. Im Text sind die Wörter hingegen durch Grammatik verändert. Bei Sprachen, in denen Wörter nur minimal verändert werden (z.B. Englisch), verliert man nicht viel, wenn man diesen Fakt ignoriert (vor allem, wenn das Glossar überwiegend Substantive beinhaltet). Für Sprachen mit stärkerer Beugung oder wenn zuverlässigere Ergebnisse gewünscht sind, sollte man alle Wörter im Text auf ihre Grundform zurückführen. Je nach Sprache lässt sich das bewerkstelligen, indem man schlicht die häufigsten Endungen entfernt, oder indem man mit speziellen Techniken wie Stemming oder Lemmatisierung arbeitet.

 

3. Die verwendeten Begriffe finden

Mit einem simplen Such-Skript kann man nun den Text nach den Termen, Abkürzungen und Synonymen durchsuchen, die auf der Liste aus Schritt 1 stehen. Zusätzlich sollte man nach allen Wörtern suchen, die mehrere Großbuchstaben enthalten, da es sich dabei sehr wahrscheinlich um Abkürzungen handelt. Um den vollen Nutzen aus den Ergebnissen zu ziehen, muss man die Treffer in wenigstens 3 Kategorien unterteilen lassen:

  1. Treffer, bei denen es sich (fast) garantiert um eine falsche Verwendung handelt; das beinhaltet:
  • Verbotene Synonyme, die nicht als bevorzugte Bezeichnung oder erlaubtes Synonym eines anderen Begriffs aufgeführt sind
  • Abkürzungen, die nicht im Glossar enthalten sind
  1. Treffer, bei denen es sich möglicherweise um eine falsche Verwendung handelt; das betrifft vor allem Wörter, die für einen Begriff als verbotenes Synonym gelistet sind, für einen anderen Begriff aber erlaubt sind.
  2. Treffer, bei denen es sich vermutlich um eine korrekte Verwendung handelt; das beinhaltet:
  • Wörter, die nur als bevorzugte Bezeichnung oder erlaubtes Synonym aufgeführt sind
  • Abkürzungen, die im Glossar stehen

Die Kategorisierung hilft dabei, zu entscheiden, welche Treffer geprüft werden müssen, und wo man das Risiko eines Fehlers eingehen möchte.

  • Bei Treffern der Kategorie 1 hat entweder der Autor einen Fehler gemacht, oder das Glossar ist unvollständig. Diese Treffer müssen daher immer überprüft
  • Treffer der Kategorie sollten im Normalfall ebenfalls überprüft werden. Bei weniger wichtigen Texten oder besonderem Zeitdruck kann es aber akzeptabel sein, sie zu ignorieren.
  • Treffer der Kategorie müssen nur bei besonders wichtigen Texten geprüft werden, um auszuschließen, dass der Autor das Wort in einer anderen Bedeutung verwendet hat, als im Glossar definiert. Davon ausgehend, dass das Glossar weitgehend vollständig ist und der Autor sich in seinem Thema auskennt, ist es allerdings unwahrscheinlich, dass sich in dieser Kategorie größere Fehler finden.

Man kann die dritte Kategorie auch noch einmal unterteilen, um zwischen der Verwendung der bevorzugten Bezeichnung und eines erlaubten Synonyms zu unterscheiden.

 

4. Fehler korrigieren

Auch hier gibt es einen leichten Weg und einen eindrucksvolleren. Der leichte Weg: Lassen Sie das Such-Skript eine Liste aller Treffer mit folgender zusätzlicher Information ausgeben:

  • Die Position des Treffers im Text (z.B. die Nummer des Absatzes oder Satzes)
  • Einige Wörter umgebenden Text
  • Den Glossar-Term, der den Treffer erzeugt hat (dieser kann sich vom Wort im Text unterscheiden, z.B. wenn ein Synonym verwendet wurde)
  • Die Definition des Begriffs
  • Die Trefferkategorie

Auf Grundlage dieser Informationen kann der Autor falsch verwendete Wörter austauschen und überprüfen, ob seine Verwendung mit der Definition übereinstimmt. Falls der Kontext in der Ergebnisliste nicht ausreicht, kann er die Stelle im Text finden und dort prüfen.

Der Eindrucksvolle Weg besteht darin, eine Oberfläche oder ein Plugin zu entwickeln, dass die Ergebnisliste als Input verwendet. Die UI springt von Treffer zu Treffer und gibt die oben genannten Informationen an. Über Knöpfe kann man den Treffer ignorieren oder ersetzen oder eine Ergänzung des Glossars beantragen.

 

Mit dieser Vorgehensweise können Sie Ihren Autoren und Editoren die Arbeit bedeutend erleichtern und gleichzeitig einen einheitlicheren Sprachgebrauch erwirken. Alles, was Sie brauchen, ist ein simples Skript und ein Glossar in einem Format, das vom Skript ausgelesen werden kann. Von der ersten, basalen Version ausgehend können Präzision und Nutzerfreundlichkeit nach und nach mit komplexeren Technologien verbessert werden. Ihre Autoren werden Ihnen danken für die Unterstützung danken. Ihre Terminologen werden Ihnen danken für die bessere Sichtbarkeit ihrer Arbeit und den neuen Input durch die Autoren. Ihr Management wird Ihnen danken für die höhere Effizienz in der Inhaltserstellung. Und vor allem werden Ihre Nutzer Ihnen danken für die leicht verständliche Inhalte.

 

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: Februar 2021
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© avato consulting ag – Copyright 2021
All Rights Reserved.