How to – Projektmanagement mit Vorhersagen

Ein How to für das Projektmanagement soll Licht auf das Thema künstliche Intelligenz und Projektmanagement mit Big Data werfen und erklärt die ökonomischen Abwägungen bei der Durchführung solcher Projekte.

Für Unternehmen wird es zukünftig immer einfacher passende Angebote für den Kunden zu schnüren. Das liegt unter anderem daran, dass wir alle verbunden sind. Mit dem Handy, Laptop und dem iPad etc. Trotz aller Regularien hinterlassen wir viel Daten im Netz und sind gewollt mit unseren Daten für bessere Services, eine Prämie etc. zu bezahlen. Viele Unternehmen fragen sich nun, wie werde ich ein datenbasiertes Business und wie erreiche ich die Implementierung von künstlicher Intelligenz, um für die Zukunft gewappnet zu sein.

K.I. benötigt Daten aus drei Gründen

Künstliche Intelligenz oder auch A.I. benötigt viele Daten verschiedener Kategorien aber auch für verschiedene Zwecke, die wie folgt sind:

1) Trainingsdaten:

Daten, die den Algorithmus oder das Modell erstellen. Diese Daten haben für gewöhnlich Info über das angenommene Ziel.

2) Input Daten:

Daten für den Algorithmus, die eine Vorhersage erzeugen.

3) Feedback Daten:

Daten, die den Algorithmus verbessern und trainieren. Sie messen die Unterschiede zwischen den Input und den Trainingsdaten und werden wieder in den Algorithmus eingebracht.

Diese Daten werden im Deep Learning in mehreren Schichten simuliert, indem diese Daten durch ein Netz geschickt werden, ähnlich eines menschlichen, neuronalen Netzes. In dem Prozess werden die eingespeisten Daten mit einem Bespiel abglichen. Diese numerische Auswertung über den Abgleich wird zurück an die Maschine gesendet, die dadurch lernen kann. Dadurch wird künstliche Intelligenz geschaffen, die es Maschinen ermöglicht Vorhersagen anzufertigen, Bilder oder Stimmen zu erkennen. Ganz einfach aus dem Grund, weil die Maschine nun eine numerische Übersetzung zu einem Bild, einer Stimme oder einer Entscheidung hat.

Ein verständliches Video zur generellen Einordnung von Machine Learning, Deep Learning und K.I. kommt vom Growth Tribe:

Daten sind ein Investment

Das Sammeln von Daten kann unter Umständen teuer sein, insbesondere in Gegenden oder bei Geschäften, die nicht digital und vernetzt sind. Somit wird K.I. auch nicht überall Einzug halten, zumindest nicht unmittelbar und im gleichen Umfang.

Viele kommerzielle K.I. Anwendungen haben die folgende Struktur: Sie nutzen eine Kombination aus Input Daten, d.h. Daten, in denen ein bestimmtes Ereignis beobachtet werden soll und Daten über das Ereignis. Wie z.B. Gewinn eines Fußballteams aktuelle Saison und Gewinn eines Fußballteams letzte Saison. Dadurch wird der Algorithmus erstellt und Vorhersagen gemacht. Verbessert wird der Algorithmus mit Hilfe von Feedback Daten. Das ist die Auswertung der über die Genauigkeit der Vorhersage.

Datenakquise als wichtigster Baustein im Projektmanagement

Im Projektmanagement beinhaltet es das Planen von der Datenakquise, um zielgerichtet in Daten investieren zu können. Hierbei werden folgende Fragen gestellt:

1) Wieviele verschiedene Typen an Daten benötige ich?
2) Wieviele verschiedene Objekte werden benötigt für das Training?
3) Wie oft muss ich Daten sammeln? Bzw. welcher Zeithorizont genügt?

Eine durchdachte Datenakquise ist wichtig, weil schlechte oder unbrauchbare Daten selbst durch ausgeklügelte Algorithmen nicht aufgewogen werden können. Selbst wenn Datensammlung und Vorbereitung viel Zeit in Anspruch nehmen, sollte deshalb in diesen Phasen Zeit und Genauigkeit eingeräumt werden.

Wieviele Personen oder Individuen man tatsächlich befragen muss, hängt hierbei von folgenden zwei Faktoren ab, einer herkömmlichen Kosten-Nutzen Analyse:

1) Verlässlichkeit der Vorhersage, d.h. die Qualität des Vorhersagefaktors oder der Korrelationsfaktor zwischen zwei Variablen und
2) Benötigte Genauigkeit oder wie genau die Vorhersage sein muss, um für das Business sinnvoll zu sein. Bei 50-50 kann man auch genauso gut eine Münze werfen.

Wenn der Korrelationsfaktor oder Zusammenhang zwischen zwei Variablen wie z.B. Fußballteam gewinnt diese Saison und die vergangene Performance eines Fußballteams gering ist, werden mehr Daten benötigt und das Vorhersageprojekt wird teurer.

Eine aktuelle Prognose mittels Machine Learnings für die Fußballweltmeisterschaft ist hier zu lesen und geht aus einer 100,000-fachen Simulation hervor. Wenn die Daten qualitativ hochwertig waren und verschiedene Modelle getestet wurden, trifft das Resultat dieser Vorhersage ein. Wir können gespannt sein.

Das Gesetz der abnehmenden Grenzerträge

Gut, dann fügen wir einfach so viele Daten zu unserem Vorhersagealgorithmus hinzu wie wir nur können. Ist das eine gute Idee? Nicht ganz. In Ökonomen-Sprache, ist die Rede von fallenden Grenzerträgen. Das ist ein Zusammenhang, der sich wie folgt abspielt. Mit jeder zusätzlicher Einheit an z.B. Daten, sinkt der Ertrag, sie verlieren an Wert oder anders gesagt, ab einem bestimmten Zeitpunkt bringt es zunehmend weniger, weitere Daten in den Algorithmus hinzuzufügen. Ab diesem Zeitpunkt gilt es andere Daten zu nutzen oder zu sammeln.

Alternativ und das ist bereits mit Tools wie Dataiku möglich, können fehlende Daten oder fehlende Qualität teilweise dadurch aufgewogen werden, wenn anstatt nur einer Vorhersagemethode gleich drei oder sechs mit den Daten aufgestellt werden. Dadurch lässt sich das effizienteste Modell für den Umfang der Daten auswählen. Man passt das Modell den vorhandenen Daten an. Doch das ist keine generelle Regel oder Weisheit. Hier muss genau abgewägt werden.

Was ist für ein Business wichtig?

Aus der Geschäftsperspektive betrachtet ist es am wertvollsten, detaillierte und einzigarte Daten über ein Thema und auch mehr Daten als die Konkurrenz zu haben. Es werden somit zukünftig sehr spezifische Business Modelle entwickelt, die sich mit gängigen Themen beschäftigen aber zusätzlich dazu Infos zu weiteren, bislang unbedachten Charakteristika nutzen. Wie z.B. Reiseversicherung für weibliche Astronauten mit erhöhtem Blutdruck. Hört sich noch eigenartig an, wird wahrscheinlich aber so sein.

Aus dem ökonomischen Standpunkt ist es so. Sobald der Preis für eine Technologie sinkt, diese günstig genug und käuflich für Jedermann wird, findet sie Einzug bei den Konsumenten und dem Markt. Günstige Vorhersagen werden in Zukunft einen starken Einfluss auf Unternehmen und die Gesellschaft haben und zudem kostengünstig verfügbar sein. So ist es nunmehr möglich für nur 100$ seine DNA entschlüsseln zu lassen. Ein Service der noch vor 10 Jahren mehrere Tausend Dollar gekostet hat.

Wo steht der Mensch oder Projektmanager in diesem Szenario?

Nicht nur Maschinen werden für Vorhersagen nötig sein, sondern auch die Urteilskraft des Menschen, um dann basierend auf den Vorhersagen Entscheidungen treffen zu können. Zum einen werden Vorhersagen günstiger, schneller und besser werden und zum anderen wird der Wert der menschlichen Urteilskraft zunehmen, weil wir mehr davon benötigen werden. Wir werden mehr Kraft darin investieren genauere Entscheidungen zu treffen, wo wir uns vorher entschlossen haben nicht so viel zu investieren.

Für den Projektmanager ist eine Sensibilisierung für das Thema Menschliches Verhalten, Ethik und Entscheidungen sehr wichtig, um Algorithmen passend einzustellen und vorzubereiten. Hierzu gibt es den folgenden, empfehlenswerten Blog zur Algorithmenethik.

Kategorisierung von Urteilen kann kostspielig werden

Auch wird es sich mit der Verbesserung von Maschinenvorhersagen zunehmend lohnen, Urteile vorbereitend zu kategorisieren. Das Beantworten von Anfragen durch Kunden kann vereinfacht werden und eine Unterstützung durch z.B. einen Chatbot statt dem herkömmlichen FAQ eingeholt werden.

Hierfür ist Erfahrung wichtig, um basierend darauf kodieren zu können. Allerdings ist vieles von dem was wir erfahren haben, nicht greifbar, nicht beschreibbar oder kann nicht so einfach ausgedrückt werden. Es geht hierbei um Wissen welches wir nicht wissen. In diesem Fall lässt sich das Verhalten und das Urteil schwer kodieren.

Ein Beispiel für eine Business Lösung ist Ada Support. Es ist eine K.I. Software aus Kanada, die Unternehmen in der Beantwortung von Support Fragen unterstützt in dem künstliche Intelligenz einfache Fragen in der Kundenbetreuung beantwortet und schwere Fragen zu dem menschlichem Support schickt. Ada identifiziert die herkömmlichen und oft gestellten Fragen auf der einen Seite und zieht die technische Kompetenz des Kunden, die bisherige Anfragenhistorie und das Medium über welches die Anfrage kommt, mit in die Beratung.

Gleichzeitig wird eine Kategorisierung kostspielig, wenn es zunehmend viele mögliche Situationen und Alternativen gibt. Wenn nach der einmaligen Kategorisierung oder Vorbereitung von Daten und Mustern noch weitere Möglichkeiten für ein Verhalten bestehen, muss zwischen Fehlerquote und dem zusätzlichen Aufwand entschieden werden.

Implizites Wissen lässt sich nicht kodieren

Sobald eine Beurteilung in das Muster „Wenn X passiert, dann tue X“, eingefügt werden kann, ist die kodifizierbar. Damit lässt sich für vielerlei Situationen ein Urteil artikulieren und auch als Code ausdrücken. Das ist aber nicht für alle Aufgaben möglich.

Menschen nutzen in vielen Situationen implizites Wissen (tacit knowledge). Die Zeppelin Universität beschäftigt sich mit implizitem Wissen, aber auch Amin Toufani von der Singularity University in den USA unterstützt die Anreicherung für implizites Wissen durch eine Plattform Reversopedia.

Machine Learning hält Einzug in die Beratung

Ein Beispiel wie Machine Learning und Big Data in der Beratung unterstützen kann ist ZipRecruiter. ZipRecruiter Unternehmen hilft qualifiziertes Personal für einen Job zu finden. Der Kern von ZipRecruiter ist ein Matching Algorithmus, der effizient die Zuteilung der Bewerber zu den Unternehmen vornimmt, nach bestimmten Kriterien. Deutsche Beispiele für dieses Business Modell sind TalentsConnect oder auch Skillster.

Für ZipRecruiter war es nicht von vornherein kar, was es Unternehmen berechnen sollte. Würde es zu wenig für seine Dienstleistung verlangen würde das Unternehmen Umsatz verlieren. Auf der anderen Seite, würde es zu viel für seine Dienstleistung berechnen, würden die Kunden zur Konkurrenz gehen.

Um die perfekte Preisstrategie zu bestimmen wurden in einem Experiment verschiedene Preise bei verschiedenen Kundentypen angeboten und daran die Wahrscheinlichkeit eines Kaufs je Gruppe bestimmt. Der beste Preis ergab sich dann im nächsten Schritt aus der Abwägung von Kurzzeit- und Langzeitzielen.

In dem Business Modell von ZipRecruiter würde es auf den ersten Blick Sinn machen einen geringen Preis anzusetzen, um das Abwandern von Kunden zu verhindern, was ein Langzeitziel ist. Dadurch könnte auch gleichzeitig die Empfehlungsquote erhöht werden.

Was ZipRecruiter letztendlich tat, war einen unterschiedlichen Preis für bestimmte Arten an Kunden anzubieten. Es beobachtete eine Fokusgruppe an höher zahlenden Kunden über vier Monate und stellte fest, dass diese Kunden nicht abwanderten. Somit wurde aufgrund von vorhandenen Daten über den Kunden, ein angepasster Preis gesetzt.

Um den Bogen zum Anfang zu spannen. Hierzu wurden natürlich Kundendaten nötig und verschiedene Charakteristika, um die Kunden zu klassifizieren, was den Ball wieder zum Sammeln der Daten spielt.

Was denkt ihr? Soll es eine DSGVO für Prognosen geben? Besser wäre es, denn nicht alles und jeder sollte vorhergesagt werden. Oder doch? In China geht’s ja auch.

 

Foto von Hitesh Choudhary auf Unsplash

    Schreibe einen Kommentar

    * Die DSGVO-Checkbox ist ein Pflichtfeld

    *

    Ich stimme zu

    ×
    ×

    Warenkorb