Handicaps of easy-to-use machine learning

Handicaps of easy-to-use machine learning

Nowadays machine learning is everywhere. The various types of models are applied to a wide variety of applications: They are used in classical predictive analysis, but also for image and speech recognition, in playing games like Jeopardy!, Go or World of Warcraft and are the backbone of autonomous driving cars.

Many different types of models are available now, from simple linear regression to boosted decision trees and various types of neural networks. Some of the models are dedicated to a specific task, for example word2vec for text processing, while others can easily be applied to all kinds of problems, like boosted decision trees.

The huge success of machine learning models over the past years has made them incredibly popular and they have gained a lot of interest not only inside the data science community but can also be found in almost any context that has to do with data. Part of this success comes from the fact that machine learning is easy to use. The code is usually openly available and comparably little computing power is required for the basic tasks. Thus, a chunk of data together with a regular notebook and a dedicated toolkit like R or python is sufficient to build a machine learning model.

The algorithms themselves are wrapped in convenient functions within the available machine learning libraries and many options exist to automate the different steps in the training. This has strongly simplified the full process. Only a few lines of code are needed and out comes a fancy machine learning model. The algorithms and sometimes even the data preparation and the application itself have become a black box, which tempts us to apply the methods without thinking much.

In addition, the model performance is usually evaluated by certain metrics like the RMSE, which boil the prediction quality down to a few numbers. Since those metrics are generally model independent and the data is usually quite complex, fully understanding and assessing the model outcome has become a challenge.

In this context, one might simply pick the model with the best metrics and implement it in the foreseen application. However, the model might perform poorly on new data. How did this happen?

In the following, three potential obstacles will be introduced, that just might lead to this scenario.

 

Data range

Let’s start with an obvious example from image classification to explain the problem at hand. An algorithm well suited for this task has been trained to identify images with animals present. However, the training data only consisted of cats and dogs. The full data will also include other animals like birds or fish. It is quite clear that the algorithm will not perform well, since the range of the test data vastly exceeds the range of the training data.

However, in most cases the discrepancy between training data and new data might be less obvious. Consider for example a numeric dataset with two variables x (input variable) and y (target variable). The goal is to model the linear dependence of the two variables by predicting the value of y for a given x. The dataset consists of datapoints in a range of x between 10 and 40 and between 60 and 80 (see the plot below, yellow data points).

A regression model has been trained on this data. What is the model’s behavior for new data that falls within the gap, from 40 to 60? The outcome strongly depends on the model. Some models might be capable to interpolate well, others might return senseless predictions. A regression model can be able to make good predictions by applying the trained formula, which might be valid in this region. A decision tree on the other hand did not learn anything about the behavior outside the range of the training data and simply predicts the value of the data point that is closest to the new data point. Unfortunately, no information stating the reliability of the individual predictions is provided out of the box, for example indicating whether the new data point lies within the training data’s range.

 

Data Quality

The second example is a rare event classification task. A classification algorithm is trained to distinguish between two classes, A and B. One class, A, is abundant, while the other, B, is quite rare. This example might come from credit card fraud detection, where a few illegal transactions (here class B) are embedded in data, that is mostly normal (class A). Let’s say that 2% of all events are fraud.

A corresponding model has been trained on this type of data and is applied to unseen data. It does very well on classifying new events of type A. However, it does not recognize any event of class B. Instead they are regarded falsely as class A as well. The model shows an accuracy of 98%, which determines how precise the predictions are. Actually, this number does not sound too bad. However, the precision of class B events is as low as 0, since none of these events have been labeled correctly.

One of the reasons for this might lie in the quality of the training data, which might not be good enough. This can be the case if the data is especially noisy and imbalanced. The true pattern, that allows to distinguish the few rare events of class B from the large amount of data from class A, is invisible within the general noise present. Thus, the training data does not represent the task at hand well. The only solution is to improve the data quality by collecting more events, that are better distinguishable or by cleaning the data and trying to reduce the noise.

 

Performance metrics

The usual metrics, which are calculated to assess a model’s performance, are the RMSE (root mean squared error) and MAE (mean absolute error ):

N denotes the number of data points, y the target variable and ȳ the prediction.

In the following example two models are compared to a given dataset, where the target variable y fluctuates around zero. The first model predicts the average of all datapoints, which is 0. The second model represents a sine curve.

For both models, the corresponding RMSE is 1 and MAE is 0. However, the models are far from identical. Which model does describe the data correctly? Without more information on the data, this is not clear at all. If the data is fluctuating for a reason, like temperate measured once during daytime and once every night, then the first model does not capture this. If the fluctuations are totally random, then the second model has clearly overfitted the data.

 

Conclusion

These examples highlighted only on a few of the pitfalls that come with black box modeling. Obviously there are many more, for example the sometimes large set of hyperparameters, which come along with most models and which provide different tunes or variants of the original model. However, choosing the correct set of parameters is not intuitive and might even lead to the wrong model.

As a summary, the following guidelines may help to avoid a few of the shortcomings of poor modeling.

  1. Training data coverage: The training data should cover the full input space that is to be expected for the use case. Otherwise, the model should be able to extrapolate or interpolate well to the unknown regions.
  2. Data Quality: Models, which are supposed to perform on noisy and/or unbalanced data, can be much improved, if the data is cleaned beforehand. This could include outlier removal, smoothing (noise) or resampling (imbalanced data).
  3. Model choice: While choosing the type of model, the model’s basic assumptions should be considered. For example, a linear model, like regression, is only valid to model a linear dependency between input and target variable. It will not consider interactions between different input variables.
  4. Hyperparametertuning: The model’s own parameters can significantly influence the performance. For example, overfitting can be prevented by adjusting a certain parameter. Hence, tuning the hyperparameters might significantly improve a model’s quality. Unfortunately, this task requires a fair amount of knowledge on the hyperparamters and a lot of computing power and time to test as many combinations of hyperparameters as possible.
  5. Crosschecking the results: It is crucial to not only rely on the main performance metrics but also to have a look at the predictions. Residuals and time series plots can be immensely helpful.

And as always, a careful and skeptical look at everything is a good starting point.

Do you have any question? Simply email to: marketing@avato.net

Imprint: 
Date: December 2019
Author: avato
Contact: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

avato Smart Data Methode – Ein Leitfaden für Smart Data Projekte (Whitepaper)

avato Smart Data Methode – Ein Leitfaden für Smart Data Projekte (Whitepaper)

 Warum Smart Data?

Big Data, Advanced Analytics, Industrie 4.0, Internet der Dinge, selbstlernende Maschi­nen – offensichtlich liefern diese Themen den Stoff für viele faszinierende Ideen. Das können effizientere Prozesse, neue und optimierte Produkte sowie Dienstleistungen, oder sogar komplett neue Geschäftsmodelle sein.

Der Einsatz dieser neuen Werkzeuge und Technologien liegt – in unterschiedlichsten Formen – inzwischen für die meisten Unternehmen fast jeder Größe und in den meis­ten Branchen im Bereich des Möglichen oder sogar Notwendigen.

avato Leistungsangebot

Unter der Überschrift Smart Data bietet avato Kunden ein umfassendes Leistungsan­gebot, um aus verfügbaren Daten Innovation und relevante geschäftliche Resultate zu machen. Einzelheiten hierzu sowie Beispielprojekte sind in diesem White Paper beschrieben. Das vorliegende White Paper beschreibt ein Vorgehensmodell, wie Smart Data Projek­te angegangen werden können und gibt Hinweise auf wichtige Erfolgsfaktoren und in der Praxis beobachtete Problemfelder.

Smart Data Projekte gibt es in vielen Facetten

Smart Data Projekte gibt es in einem sehr breiten Spektrum. Auslöser reichen von kon­kreten Einzelproblemen, die datenbasiert gelöst werden sollen, bis hin zu strategi­schen Initiativen unter der Überschrift „Industrie 4.0“, Big Data, Einsatz von Künstlicher Intelligenz etc. Auch die Ziele variieren von der Entwicklung von Ideen für den Smart Data Einsatz und strategischer Roadmaps, über Prototypen oder Produktivsetzung einzelner Use Cases bis zum Aufbau umfassender Smart Data und IT-Architekturen ein­schließlich entsprechender Aufbau- und Ablauforganisationen. Unabhängig vom kon­kreten Auslöser, der Zielsetzung und des vorgesehenen Umfangs des einzelnen Smart Data Projektes ist allen eines gemeinsam: Um erfolgreich zu sein, bedarf es eines struk­turierten und systematischen Vorgehens.

Das avato Smart Data Vorgehensmodell

Die üblicherweise eingesetzten Methoden für Projekte rund um Big Data, Advanced Analytics, Data Science etc. konzentrieren sich fast alle auf den Datenanalyseprozess selbst und basieren meist auf dem CRISP-DM Modell. Dieses Vorgehensmodell ist für den eigentlichen Datenanalyseprozess entworfen und hierfür auch gut geeignet. Ein praxisgerechtes und strukturiertes Vorgehen muss weitere erfolgsrelevante Aspekte berücksichtigen. Dazu zählen insbesondere neben den datenanalytischen Aspekten die geschäftlichen Aspekte, die IT-Aspekte, Data Governance und Security sowie ein angemessenes Projektmanagement und Changemanagement. Dies alles ist vor dem Hintergrund des „Smart Data Reifegrades“ des Unternehmens und der hohen Dynamik im gesamten Markt zu betrachten. avato hat ein Smart Data Vorgehensmodell entwickelt, das diese Aspekte integriert berücksichtigt. Es liefert einen strukturierten Rahmen, der abhängig von der Ausgangs­situation, den Projektzielen und verschiedenen Rahmenbedingungen auf die Kunden- und Projektsituation angepasst und in einen Projektplan übersetzt wird.

Wir empfehlen in folgenden logischen Phasen vorzugehen:

Am Beginn steht die strukturierte Entwicklung eines Plans (Alignment & Discovery), es folgen die Implementierung eines oder mehrerer Anwendungsszenarien – häufig auch nach Machbarkeitsprüfungen oder Prototypen (Proof-of-Concept) – mit der Überfüh­rung in die produktive Umgebung (Deployment) und der anschließenden Betriebs- und Optimierungsphase. Wesentlich ist auch ein adäquates Projekt- und Veränderungsma­nagement von Beginn an. Die Erfahrung zeigt, dass Smart Data Projekte oft zunächst unerwartete Herausforderungen bringen. Sie erfordern die enge Zusammenarbeit von Menschen aus Bereichen, die traditionell nicht oder nur wenig miteinander gearbeitet haben und teilweise sehr unterschiedliche Arbeitsweisen und „Sprachen“ gewohnt sind. Auch sind die Ängste der Belegschaft vor weitreichenden Veränderungen durch diese Projekte nicht zu unterschätzen.

Erfolgskritische Fachdomänen und Projektrollen

Smart Data Projekte sind Teamarbeit. Geschäfts- und Prozessexpertise, Data Science-und Datenmanagement-Expertise, IT-Expertise für die vorhandene Unternehmens-IT und spezielle Advanced Analytics IT-Themen müssen zusammenkommen. Wie immer in Projekten mit interdisziplinären Teams und einer gewissen Komplexität werden auch Projektmanager gebraucht, die strukturiert durch das Projekt führen und das Team motivieren können. Je nach Zielsetzung und Umfeld können auch zusätzlich speziali­sierte Changemanagement Experten eine wichtige Rolle spielen.

avato bietet Ihnen die für Smart Data Projekte erforderliche fachliche Expertise:

Data Engineers und Data Scientists sind zentrale Profile, aber auch Busi­ness Consultants, IT-Architekten, Entwickler und selbst Projektmanager brauchen spe­zielle Expertise in Smart Data Projekten. Physiker, Informatiker und Wirtschaftsinfor­matiker bilden den Kern unseres avato Smart Data Teams. Wir erwarten von unseren Kunden neben einem Projektsponsor aus dem Führungskreis einen verantwortlichen Ansprechpartner (Projektleiter) und die Bereitstellung der fachlichen Expertise im jeweiligen Geschäfts- oder Fertigungsprozess sowie die Mitarbeit der relevanten inter­nen IT-Experten. Wir stellen dann projekt- und aufgabenbezogen in Absprache mit Ih­nen das avato Team zusammen, um die erforderlichen Projektrollen in hoher Qualität zu besetzen. Die Seniorität unserer Berater hält dabei das Team klein und erhöht gleichzeitig Effektivität und Effizienz­

Organisatorische Aspekte

Wir finden bei unseren Kunden sehr unterschiedliche Situationen vor, wie Verantwort­lichkeiten und Prozesse rund um Stammdaten, Datensicherheit, Datenschutz, Daten­qualität usw. organisatorisch gehandhabt werden. Mit Smart Data wird die Bedeutung dieser Themen weiter zunehmen und erfordert zumindest mittelfristig organisatori­sche Anpassungen.

Ein Proof-of-Concept für einige Predictive Analytics Anwendungsszenarien erfordert sicher nicht gleich eine organisatorische Änderung der Datenorganisation im Unter­nehmen. Bei strategischeren Initiativen und zunehmendem Einsatz von Big und Smart Data ist allerdings eine frühzeitige Auseinandersetzung mit der Frage geboten, wie sich ein Unternehmen organisatorisch auf die weiter wachsende Bedeutung von Daten und die damit verbundenen internen und externen Anforderungen einstellt.

Auch neue fachliche Rollen wie Data Engineers und Data Scientists müssen so in die Organisation eingebaut werden, dass sie ihren Mehrwert effizient erbringen können. Nicht zuletzt kommen auf die IT-Organisation neue Aufgaben zu – insbesondere im Be­trieb neuer Smart Data Applikationen.

Wir helfen Ihnen, auf Ihre Situation zugeschnittene Antworten auf diese Fragen zu fin­den.

avato Smart Data – Ein Leitfaden für Smart Data Projekte  (PDF)
Das avato Smart Data Vorgehensmodell. Für die vollständige Version des White Papers laden Sie bitte das PDF herunter.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: November 2019
Autoren: Wolfgang Ries
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

avato Smart Data – Innovationen aus Daten (Whitepaper)

avato Smart Data – Innovationen aus Daten (Whitepaper)

Von der Idee zu Resultaten

 

Warum Smart Data?

Big Data, Advanced Analytics, Industrie 4.0, Internet der Dinge – kaum eine Führungskraft wird diese Themen als irrelevant für die eigene Branche und das eigene Unternehmen abtun. Offensichtlich liefern Big Data Analytics, Vernetzung, immer leistungsfähigere Algorithmen und selbstlernende Maschinen oder autonome Fahrzeuge den Stoff für viele faszinierende Ideen. Das können effizientere Prozesse, neue und optimierte Produkte oder Dienstleistungen, oder sogar komplett neue Geschäftsmodelle sein.
Der Einsatz dieser neuen Werkzeuge und Technologien liegt – in unterschiedlichsten Formen – inzwischen für die meisten Unternehmen fast jeder Größe und in den meisten Branchen im Bereich des Möglichen oder sogar Notwendigen.

Herausforderungen

  • Wie können Unternehmen diese Themen angehen?
  • Welche konkreten Ergebnisse können erzielt werden?
  • Welche zusätzliche Fachexpertise wird benötigt?
  • Welche Investitionen sind erforderlich?
  • Was ist die beste Vorgehensmethodik?
  • Welche Tools sind erforderlich?
  • Müssen große Investitionen in die IT-Landschaft oder Maschinen als Vorleistung getätigt werden?

avato Leistungsangebot in der Übersicht

Wir von avato helfen Ihnen Antworten auf Ihre Fragen zu finden und aus Ideen Resul­tate zu erzielen. Wir arbeiten leidenschaftlich mit Ihnen gemeinsam daran, Ihre Daten in verwertbares Wissen und schließlich echte Innovationen mit Mehrwert zu überfüh­ren. Unter der Überschrift Smart Data haben wir hierfür auf der Basis unserer beste­henden Kernkompetenzen rund um Technologien, Organisation, Betrieb und Optimie­rung großer IT-Umgebungen und technologiebasierte Transformationsprojekte ein umfassendes Leistungsangebot entwickelt.

 Unser Leistungsangebot umfasst:

  • Data Analytics Strategie 

Ausgehend von Ihren unternehmerischen Zielsetzungen ent­wickeln wir mit Ihnen gemeinsam einen geeigneten Projekt­ansatz. Wir nutzen unser avato Smart Data Vorgehensmodell als methodischen Rahmen, um in enger Zusammenarbeit mit Ihnen alle relevanten Aspekte Ihrer Strategie zu beschreiben.

  • Data Lab 

Wir bieten Ihnen mit unserem Data Lab die Möglichkeit, Ihre Daten ohne große Vorabinves­titionen mit modernsten Mitteln zu visualisieren, zu analysieren und die Möglichkeiten zu erkunden, wie diese Daten z.B. mit Verfahren des maschinellen Lernens für Ihre Use Cases nutzbar gemacht werden können.

  • Smart Data Engineering

Bevor Daten analysiert und zu Modellen verarbeitet werden können, müssen sie zunächst aus den unter­schiedlichen Quellen beschafft, überprüft, aufbereitet und angereichert werden, so dass die nachfolgenden Analyse- und Modellierungsschritte sinnvoll durchge­führt werden können. Unsere Spezialisten beraten und unterstützen Sie hierzu oder übernehmen auf Wunsch diese Data Engineering Aktivitäten für Sie.

  • Smart Data Lösungen 

avato stimmt die einzusetzenden Technologien und Soft­ware-Produkte mit dem Kunden ab, um eine größtmögliche Kompatibilität mit Kundenstandards sicher­zustellen, vorhandenes Know-how zu nutzen und die Gesamtkosten zu minimieren. Dabei setzen wir be­vorzugt auf vorhandene kommerzielle Produkte namhafter Hersteller oder etablierte Open Source Produkte. Lücken in den Lösungsarchitekturen schließen wir mit eigenen Lösungskompo­nenten. Diese können zur Beschleunigung des Projekfortschritts sowie zur Senkung der Projektkosten in Ihre Projekte eingebracht und nach Bedarf an­gepasst werden.

  • Data Science-as-a-service

avato hat in den letzten Jahren ein Team von Data Engineers und Data Scientists aufgebaut, die mit Ih­nen gemeinsam Ihre Daten analysieren und geeignete Analyse- und Data Science Methoden für Ihre Anwendungsszenarien auswählen und anwenden. avato unterstützt Ihre Projekte mit erfahrenen IT-Experten, die sich mit den speziellen Anforderungen von Smart Data Projekten, Smart Data Architektu­ren und vielen bei unseren Kunden typisch vorhandenen IT-Systemen ausken­nen.

  • System Integration 

Der Einsatz moderner KI- und ML-Verfahren wird nur eine dauerhaft positive Wirkung entfalten, wenn diese Metho­den in die Produktions- und Geschäftsprozesse integriert und für die betroffenen Mitarbeiter einfach nutzbar ge­macht werden. Das avato Smart Data Framework ist durch die modulare und serviceorientierte Archi­tektur konsequent auf diese Anforderungen ausgelegt. Verschiedene technische An­sätze unterstützen eine für Smart Data Projekte besonders wichtige iterative Vorge­hensweise, die schnelle Implementierungs- und Optimierungszyklen und einen hohen Automatisierungsgrad optimal unterstützt.

Zusammenfassung

Unsere Beraterinnen und Berater bieten Seniorität und Erfahrung in allen relevanten Disziplinen: Business, Data Science, Daten und IT-Architekturen, Softwareentwick­lung, Projekt- und Changemanagement. Unser Anspruch ist es, Sie mit kleinen Teams und minimalem Abstimmungsaufwand mit allen relevanten Services aus einer Hand zu bedienen. Wir sind anbieterneutral und insbesondere unabhängig von Software-Anbietern.

Wir investieren kontinuierlich in die Weiterentwicklung unserer Berater und unserer Smart Data Lösungskomponenten. So helfen wir Ihnen nutzbare Lösungen schnell verfügbar zu machen.

avato Smart Data: Innovationen aus Daten – von der Idee zu Resultaten (PDF)

Das avato Smart Data Profil. Laden Sie hier die vollständige Version des Whitepapers herunter.

Haben Sie weitere Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: November 2019
Autoren: Wolfgang Ries
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

Von DevOps zu DocOps

Von DevOps zu DocOps

IT Informationsmanagement 4.0

Wie hoch sind Ihre Reibungsverluste im Informationstransfer?

Teams haben eigene Informationssilos; der Austausch von Informationen zwischen Teams erfolgt willkürlich.

 

Wir beleuchten im Folgenden den Begriff DocOps und geben Anregungen für ein professionelles IT Informationsmanagement.

Die Arbeitsweise von Organisationen wird in unserer Zeit auf den Kopf gestellt. Mit der Integration von Development und Operations (DevOps), wurde in der IT ein Verständnis davon entwickelt, wie entscheidend es ist, Teams aufzustellen, die Blickwinkel und Wissen aus verschiedenen Bereichen mitbringen und eng zusammenarbeiten.

DocOps baut auf diese Erfahrung und betrachtet die Komponente des Informationsmanagements. Dabei steht DocOps als Schlagwort für einen Wandel im Mindset. DevOps Teams werden erweitert, indem man Informationsmanagement hinzufügt. Dieser neue Skill soll dem Umstand entgegenwirken, dass in DevOps Teams zumeist nicht kontinuierlich dokumentiert, sondern nur „single purpose documents“ erstellt werden. Diese Dokumentationsanforderungen werden willkürlich in den Teams verteilt, ohne ein Konzept für notwendige Qualifikationen und Ziele für die Ausführung dieser Aufgabe. Durch DocOps werden diese Aufwände transparent, planbar und durch Experten gemanagt. Einfach gesagt ist DocOps die notwendige Konsequenz aus DevOps.

Der DocOps Ansatz wurde aus der Technischen Redaktion entwickelt, um ihr Wissen in die moderne (agile) Methodik einfließen zu lassen. Das Know-how und die Werkzeuge der technischen Redaktion füllen diese Lücke im Umfeld von DevOps: Wie können Informationen kontinuierlich auf effiziente, einfache und professionelle Weise allen zur Verfügung gestellt werden?

Und wie können zudem innerhalb des Teams die Dokumentationsaufwände sogar noch reduziert werden?

 

Überblick

Bevor wir auf die Details und Unterschiede zwischen traditioneller und kontinuierlicher Dokumentation eingehen, werfen wir einen Blick auf die Definition von „DocOps“ sowie auf die Schlüsselprinzipien dahinter.

 

Definition

Eine sehr gute Definition von DocOps hat Mary Connor in ihren Interviews, Präsentationen und ihrer Website geliefert (siehe „Links“).

Bei DocOps geht es darum, ein kontinuierliches Dokumentieren (Continuous Documentation) zu etablieren um DevOps (Continuous Delivery) erfolgreich zu machen. Dazu sollen in interdisziplinären Teams sowohl Abteilungen als auch Anwender in den Prozess der Dokumentationserstellung integriert werden. Idealerweise soll eine neue Rolle „Information Manager“

  • sämtliche Dokumentationsanforderungen verwalten
  • die Erstellung und Wartung von Informationen steuern
  • Informationen auf einem standardisierten Portal verfügbar machen.

 

Schlüsselprinzipien

  • Kollaboratives Informationsmanagement
    Die Erstellung von Informationen erfolgt kollaborativ. Information und Produkt sind eins und werden nicht losgelöst voneinander betrachtet. Informationen werden inkrementell erstellt und sind direkt verfügbar.
  • Aggregation
    Die Informationen liegen zentral. Der Zugriff darauf ist über Rechte und Rollen geregelt. Zumindest lesend kann jede*r in der Organisation darauf zugreifen.
  • Anwenderintegration
    Die Anwender*innen haben Einfluss auf den Content, direkt oder indirekt werden so Informationen laufend aktualisiert und verbessert.

 

Von klassischer Dokumentation zu DocOps Informationsmanagement

Im Folgenden soll anhand von 2 Grafiken der Unterschied zwischen traditioneller und DocOps-Vorgehensweise beschrieben werden.

 

Beispiel aus der Technischen Dokumentation

1. Traditionelle Vorgehensweise

In der Technischen Redaktion arbeiten Technische Autoren, die den Inhalt verschiedener Informationsbereitsteller (Information Provider) vielen Stakeholdern (Information User) zur Verfügung stellen müssen. Die Ablage, Erstellung und Verteilung dieser Informationen ist nicht zentral geregelt und wird in Teams unterschiedlich gehandhabt. Teams haben eigene Informationssilos wie SharePoint, Netzlaufwerke oder digitale Boards. Nur in der Redaktion kommen alle Informationen zusammen, um daraus Dokumente (z.B. Handbücher) zu erstellen. Die Verteilung der Infos ist extrem aufwändig und es ist nicht sichergestellt, dass immer nur die aktuellen Informationen verwendet werden, oder dass alle Teams auf dem gleichen Wissenstand sind, da sie keinen Zugriff auf das zentrale Content Management haben und auf Zulieferungen von der Redaktion angewiesen sind. Das Erstellen und Verteilen dieser Dokumente ist für die meisten Redaktionen zeitaufwändig. Aus unserer Erfahrung betreffen diese Aufwände je nach System bis zu 10% der Arbeitszeit.

 

2. Wie könnte es mit DocOps aussehen?

Durch DocOps ist das Informationsmanagement klar geregelt. Es existiert eine einheitliche Plattform wo alle Informationen zum (Software-)Produkt liegen. Die Erstellwege sind durch Rollen und Zugriffsrechte standardisiert. Die Verbreitung der Informationen passiert automatisiert über Metadaten, Informationen müssen nicht als Dokumente produziert und verteilt werden. Die Mitarbeiter*innen sind in der Lage, sich eigenständig im Portal zu informieren und Informationen bei Bedarf zu exportieren (z.B. PDF).

Technische Autoren werden in diesem Umfeld zum Information Manager (IM). Dieser ist dafür verantwortlich, dass die Informationen der Teams strukturiert und zentral verfügbar sind. Ein IM ist außerdem für Sprachqualität, Übersetzungen und Wartung von Information (Information Governance) verantwortlich. Zudem stellt der IM erforderliche Informationssysteme für Stakeholder (Kunden, Lieferanten) zur Verfügung. In den neuesten cloudbasierten Applikationen geht das über ein automatisiertes Deployment durch Metadaten und stellt so nur sehr geringe Aufwände dar.

 

Entwickler sollen dokumentieren?!

Einer der größten Widerstände liegt hier in der Vorstellung, dass für Nicht-Redakteur*innen neue Dokumentationsaufwände entstehen. In unseren Projekten zeigt sich, dass das Gegenteil der Fall ist. An der Stelle machen Fachexperten nichts, was sie nicht eh schon tun würden. Nur eben anders, in einem anderen Setup und Tool. Und am Ende des Tages wird das dazu führen, dass Fachexperten wie Entwickler erheblich weniger Dokumentationsaufwände haben und durch DocOps effizienter ihren eigentlichen Job machen können.

 

Links

Einen guten Überblick über das Thema geben die folgenden Seiten:

 

Fazit

DocOps ist ein Beitrag zur Professionalisierung des Informationsflusses. Es ermöglicht allen Beteiligten eine Konzentration auf Ihre Kernaufgaben.

Durch die Einführung von neuen Qualifikationen rund um das Thema Informationsmanagement in DevOps werden Anforderungen und Aufwände sichtbar und dadurch steuerbar. Diese Transparenz und Professionalisierung durch aktuelle und zuverlässige Information auf einer zentral gesteuerten Plattform unterstützt alle Mitarbeiter effizienter zu werden. So ist DocOps ein Schlüsselfaktor im DevOps Umfeld, der entscheidend zu besseren Lösungen beiträgt.

Wir freuen uns über Ihre Kommentare und Anregungen und beantworten gerne Ihre Fragen. Auch wenn Sie mehr darüber erfahren möchten, wie Sie DocOps mit der avato Lösung iPortal umsetzen, kontaktieren Sie uns unter av-itim@avato.net.

 

Auch interessant:

Haben Sie weitere Fragen? Wir beraten Sie gerne: av-itim@avato.net

Impressum: 
Datum: Oktober 2019
Autor: Martin Lieneke
Kontakt: av-itim@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.

Motiviert Gamification Ihre Teammitglieder? Nein, aber…

Motiviert Gamification Ihre Teammitglieder? Nein, aber…

…das liegt daran, wie Gamification heute verstanden und umgesetzt wird. Werfen wir einen Blick darauf, warum es in den meisten Fällen nicht funktioniert – und wie man daran etwas ändert!

 

1. Problem: Was ist Gamification?

Wenn von Gamification die Rede ist, geht es für gewöhnlich darum, Elemente aus Spielen zu einem System hinzuzufügen, um den Spaßfaktor bei der Arbeit zu erhöhen. Und hierin liegt auch schon die Ursache, warum das Ergebnis meist hinter den Erwartungen zurückbleibt. Eine langweilige Aufgabe oder die Arbeit mit einem nervtötenden Tool werden nicht unterhaltsam, nur weil man ein Punktesystem und Errungenschaften hinzufügt. Vielleicht gibt es ein paar Nutzer, die bereit sind, etwas mehr Zeit und Aufwand in eine ermüdende Aufgabe zu stecken, wenn sie dadurch eine hohe Punktzahl erreichen, aber das war vermutlich nicht die Absicht hinter der Einführung eines Gamification Systems. Eigentlich geht es darum, dass die Teammitglieder mehr Elan und Hingabe für die Aufgabe entwickeln und sich ihrer Arbeit mehr verbunden fühlen. Stattdessen suchen sie nun bloß nach dem schnellsten Weg, Punkte zu sammeln. Möglicherweise verringert sich dadurch sogar die Produktivität.

Damit Gamification funktioniert, muss sie ein Teil des Systems sein, kein nachträglicher Zusatz. Das wird offensichtlich, zieht man Spiele als Vergleich heran: Wenn das Spielen keinen Spaß macht, ändert auch ein Sieg nichts daran; und am Lieblingsspiel hat man auch dann noch Spaß, wenn man verliert. Die Aufgabe zu erledigen muss von sich aus befriedigend sein. Hier zwei Tipps, wie man das erreicht:

  1. Wir empfinden eine Tätigkeit dann als lohnend, wenn wir am Ende stolz auf das sind, was wir getan und erreicht haben. Lassen Sie Ihr Team wissen, wie ihre Aufgaben mit dem großen Ganzen zusammenhängen und warum sie notwendig sind. Dadurch können sogar kleine, widerkehrende Aufgaben zu etwas werden, in das man gern Energie hineinsteckt.
  2. Überlegen Sie sich, was Ihr Team erreichen möchte, und machen Sie die fragliche Aufgabe zu einem Schritt auf dem Weg dorthin. Wenn Ihre Mitarbeiter etwa als Experten für ein bestimmtes Thema wahrgenommen werden wollen, kann jede Aufgabe eine Möglichkeit sein, Wissen und Fähigkeiten unter Beweis zu stellen. (Im Falle simpler Aufgaben können das auch Softskills sein, zum Beispiel die Fähigkeit, auch bei monotonen Aufgaben konzentriert zu bleiben.)

 

2. Problem: Konkurrenz und Motivation

Konkurrenz kann durchaus motivierend sein. Die Evolution hat das Streben, der oder die Beste (oder wenigstens besser als manch andere) zu sein, fest in unser Gehirn integriert. Allerdings ist das nicht der einzige Motivator, der in unserer Psyche verankert ist, und es ist auch keineswegs der beste, vor allem, wenn man in Teams arbeitet. Weshalb? Weil gesunder Wettbewerb schnell in einen harten Konkurrenzkampf ausarten kann. Mobbing von Nutzern mit geringer Punktzahl ist ein extremes Beispiel. Öfter kommt es dazu, dass Nutzer resignieren. Zu erkennen, dass man es nie schaffen wird besser zu werden (zum Beispiel einen höheren Rang auf der Bestenliste zu erreichen) gehört zu den demotivierendsten Erfahrungen überhaupt. Außerdem schwindet die Bereitschaft zur Zusammenarbeit und zur Weitergabe von Wissen.

Die gute Nachricht ist, dass sich diese Probleme leichter lösen lassen, als man glaubt. Es gibt viele Möglichkeiten, einen Konkurrenzkampf zu entschärfen. Überlegen Sie sich genau, wer mit wem konkurrieren soll. Ein Wettbewerb zwischen den Teams anstatt unter Einzelpersonen ist viel schwächer von den negativen Effekten betroffen. Oder warum tritt nicht jeder gegen sein früheres Selbst an? Für besonders große Verbesserung gibt es zusätzliche Belohnungen. Auch Formulierung und Darstellung können großen Wirkung haben. Aus der „Bestenliste“ wird die „Liste der aktivsten Nutzer“, die von niemandem komplett eingesehen werden kann und die auch nicht die genauen Punktzahlen zeigt. Dadurch werden die Führenden weiter belohnt, ohne dass weniger gut platzierte Nutzer abgestraft werden.

Noch besser: Nutzen Sie andere Motivatoren. Oft steckt hinter dem Wunsch, die oder der Beste zu sein, das Bedürfnis nach Anerkennung. Ein System, das Kollegen und Vorgesetzte über außergewöhnliche Leistungen und vollendete Arbeitsschritte informiert und es ihnen ermöglicht, sofort ihre Wertschätzung für die erbrachte Arbeit auszudrücken, hilft Ihnen mehr dabei, Ihr Team zu motivieren, als es jede Bestenliste je könnte. Und ja, auch das ist Gamification. Errungenschaften sind nichts anderes als die automatisierte Anerkennung bemerkenswerter Leistung. Dabei ist jedoch zu bedenken, dass die Anerkennung durch eine Maschine weniger motivierend wirkt als die Anerkennung durch unsere Mitmenschen.

 

3. Problem: Gamification und Usability

Allzu oft wird bei der Debatte um Gamification die Rolle von Usability und Ästhetik vernachlässigt. Wir Menschen mögen es, schöne Dinge anzusehen, vor allem, wenn sie sich bewegen, und wir haben Freude daran, Werkzeuge zu benutzen, um mit weniger Aufwand mehr zu erreichen. Beliebte Gamification-Elemente in ein schlechtes Tool zu integrieren kann komplizierter und weniger effektiv sein, als das Tool selbst zu verbessern. Ein intuitiveres Menü, ein kleiner Popup oder eine kurze Animation wirken vielleicht nebensächlich, doch sie können die Bereitschaft, mit dem Tool zu arbeiten, enorm erhöhen und uns sogar zum Lächeln bringen. Es hat seinen guten Grund, dass Ästhetik ein wichtiger Punkt im Konzept jedes neuen Spiels ist. Sie hilft uns, konzentriert, interessiert und begeistert zu bleiben. Wenn Sie also keine Zeit in ein komplexes Gamification System investieren wollen, sollten Sie etwas davon ins Oberflächendesign stecken. Wenn das Tool spielend leicht zu bedienen ist, finden die Nutzer schon von selbst heraus, wie man damit Spaß haben kann.

 

Zusammengefasst

Kann Gamification also Teams motivieren? Ja, aber nur, wenn man es richtig macht. Überlegen Sie sich, was Ihre Teammitglieder wollen und nutzen Sie Gamification dann, um hervorzuheben, wie die Aufgaben und Tools sie darin unterstützen. Erwarten Sie nicht, dass es all Ihre Probleme löst. Gamification kann unliebsame Aufgaben aufheitern, Potentiale freisetzen und so die Effizienz erhöhen. Nicht mehr und nicht weniger.

Haben Sie Fragen? Wir beraten Sie gerne: marketing@avato.net

Impressum: 
Datum: September 2019
Autor: Isabell Bachmann
Kontakt: marketing@avato.net
www.avato-consulting.com
© 2019 avato consulting ag
All Rights Reserved.