Statistik auf Steroiden – Deep Learning & Co.

Aktuelle Entwicklungen im Bereich der Vorhersage bedienen sich des „Deep Learnings“. Basierend auf der Forschung von Künstlicher Intelligenz und des Machine Learnings, entwickelte sich „Deep Learning“ im Zeitraum der 2000er. Damit ist Deep Learning ein relativ neues Set an Methoden, welches Machine Learning fundamental erweitert.

Maschinen mit „tiefen neuronalen Netzwerken“ haben es geschafft sich zu unterhalten, Autos zu fahren, Videospiele und eines der schwersten Spiele „Go“ zu spielen (schaut euch dazu den Film an: Alpha Go Movie), sie träumen, malen Bilder und helfen wissenschaftliche Entdeckungen zu machen. Diese Maschinen lernen selbständig, indem sie die Funktionsweisen des Menschlichen Gehirns imitieren. Wenn ein so genannter „Magic Leap“ stattfindet, beschreiten Maschinen den Schritt vom Lernen von speziellen Fällen hin zum Generalisieren.

Bisherige Vorhersage Modelle

Erinnert ihr euch an die Finanzkrise 2009? Viele Ökonomen in Banken und Ratingagenturen saßen an ihren Vorhersagemodellen, die die Wertigkeit von Hauspreisen in Amerika prognostizierten. Es waren OLS Regressions Modelle. Dafür nutzen Ökonomen theoretische Annahmen für Modelle, die auf Erfahrungen und weiteren Informationen basieren, sammeln Daten für diese Modelle. Bei diesen Modellen kann man nicht falsch liegen – das ist das Gute. Aber auch nicht komplett richtig. Man kann im Durchschnitt komplett Recht haben, was aber bedeuten kann, dass man sich auch jedes Mal irrt.

Dies ist das Feld der Ökonometrie. Regressions Modelle stellen eine Vorhersage basierend auf den Durchschnittswerten von dem was in der Vergangenheit passiert ist her. Werden verschiedene Bedingungen in diese Modelle reingenommen, nennen sie sich multivariate Regressions Modelle.

Beispiel Regression:

Hauspreis in den USA =  Region + Hausgröße + Preissegment + Zeitpunkt + Marktentwicklung + Fehlerterm

Diese Vorhersagen der traditionellen Statistik ergaben in dem Fall inkorrekte Vorhersagen aufgrund der Tatsache, dass diese Modelle wichtige Kausalitäten, sprich noch weitere Zutaten, wie z.B. die Korrelation oder den Einfluss von Hauspreisen in verschiedenen Märkten aufeinander, nicht beinhalteten. Denkt man an die Finanzmarktkrise, wurde der Shock als solches durch diese Korrelation verstärkt und von Ökonomen nicht bedacht.

Neue Vorhersagemodelle – Deep Learning & Co.

Machine Learning findet unvorhergesehene Effekte und Kombinationen, die in der Theorie nicht vermutet werden. Nur ist zum Schluss nicht klar, wie die Maschine auf diese Ergebnisse kommt. Auch können sich Maschinen bei schlechten Daten in deren Analysen komplett irren.

Deep Learning bedient sich der Fertigkeit des Lernens aus Beispielen. Es basiert auf dem „back propagating“ oder der Fehlerrückführung. Dabei muss man sich vorstellen, der Algorithmus ist wie ein Netz aufgebaut, ein neuronales Netz, wo eine Information anfangs eingespeist wird, durch dieses Netz geht und dann mit der Erwartung abgeglichen wird. Je nachdem wie genau man die Erwartung trifft, werden einzelne Bestandteile des Netzes mehr oder weniger gewichtet. Dieser Lernprozess findet statt genauso wie im menschlichen Gehirn.

Z.B. du möchtest, dass ein Kind lernt, dass das Tier eine Katze ist. Jedes Mal, wenn du und das Kind eine Katze sehen, sagst du „das ist eine Katze“. Dadurch lernt das Kind das Tier und die Bezeichnung. Das Gleiche passiert beim Deep Learning. Du gibst dem Algorithmus z.B. Bilder mit einer Katze drauf, die mit „Katze“ beschriftet sind. Wichtig ist, dass die Bilder variieren und dass es sehr viele sind. Angefangen mit dem Verständnis was eine Katze ist, kann im nächsten Schritt mit der Frage weitergemacht werden: „Ist in diesem, nicht gekennzeichneten Bild eine Katze?“ Und diese Frage wird aufgrund von den trainierten Vorhersagemodellen beantwortet. D.h. wir bauen keine Modelle aufgrund von Theorie und leiten uns dadurch unsere Vorhersage ab, sondern bedienen uns Beispielen.

Wendet man z.B. Deep learning bei der Erkennung von Hautkrebs an, so ist es in der Lage mit einer höheren Sorgfalt den Hautkrebs zu erkennen. Der Hautarzt hingegen ist aber zusätzlich dazu in der Lage, die Gründe für die Analyse zu geben, der Deep Learning Algorithmus hingegen nicht.

Wieso ist es denn nun Künstliche Intelligenz?

Doch wieso ist nun Deep Learning eine Form der künstlichen Intelligenz?

  1. Deep Learning Systeme lernen kontinuierlich und verbessern sich selbständig.
  2. Diese Systeme erzeugen präziseste Vorhersagen.
  3. Diese Systeme können Aufgaben übernehmen, die zuvor nur Menschen erfüllen konnten.

Objektidentifizierungen, etwas was Menschen zuvor vorbehalten war, können nun verlässlich von Computern übernommen werden. Bei Menschen, so meint Jeff Hawkins, Neurowissenschaftler und Deep Learning Experte, ist der Cortex, eine Region im Gehirn für die Vorhersagen zuständig. Kennt ihr das? Ihr seid auf Reisen und müsst ständig eure Ankunftszeit überprüfen und durch erwartete aber auch unerwartete Ereignisse anpassen. Und in einigen Ländern ist dies die Königsdisziplin. 😉 Dazu nutzt ihr euren Cortex.

Doch, sind Maschinen nun schon soweit, dass sie als Mensch durchgehen könnten? Bestehen sie den sogenannten Turing Test?  Das ist der Test, bei dem eine Maschine dem Menschen vorgibt, ein Mensch zu sein. Obgleich, dass die Vorhersagen so genau und korrekt sind, bei dem Test würde die Maschine nicht erklären können, woher ihre Vorhersagen stammen. Da sind wir wieder beim „Black Box“ Problem.

Achillesferse

Doch funktionieren Algorithmen wirklich am besten, wenn sie auf Daten und nicht auf theoretisch fundierten, statistischen Modellen basieren? Nicht ganz, Deep Learning hat die folgenden Nachteile:

  • Black Box. Du weißt nicht wie der Algorithmus auf das Ergebnis gekommen ist und kannst keine weiteren Insights aus der Analyse ziehen oder auf andere Beispiele übertragen. Z.B. Google DisplayAds Insights Targeting für Kunden. Du kannst einem Google Algorithmus überlassen für dich die Anzeigenschaltung zu übernehmen, weißt aber dann zum Schluss nicht, wieso der Algorithmus auf gerade dieses Ergebnis gekommen ist.
  • Shocks und Abweichungen. Der Algorithmus kann bei unbekannten oder unvorhergesehenen Ereignissen keine guten Prognosen machen. Dafür wird zusätzlich die Einsicht von Menschen gebraucht.
  • Aufwendige Daten. Der Algorithmus trifft Falschaussagen bei zu wenig Daten oder zu schlechten Daten oder auch einseitigem Training.
  • Doppelte Kausalität und Omitted Variable Bias. Algorithmen oder auch Deep Learning Systeme brauchen Training, um sich nicht in den Kausalitäten zu irren. Welcher Parameter führt zu welchem Effekt? Das weißt der Algorithmus nicht unbedingt. Gleichzeitig gibt es Einflüsse, die der Mensch und die Maschine nicht kennen, die eine Vorhersage verfälschen können. Das so genannte „Unwissende Wissen“ – ein Faktor, den wir weder weg trainieren noch bewusst in unsere Aussagen mit einplanen können.

Alles in allem empfiehlt es sich Prognoseansätze und Methoden zu kombinieren und verschiedene Auswertungen zur Rate zu ziehen. Gleichzeitig ist es manchmal einschränkend auf eine Black Box zu vertrauen, da man einfach nicht weiß worauf die Analyse basiert. Dadurch können schwer Analogien auf andere Themenbereiche gezogen werden und jede Analyse wird zu einem eigenen, spezifischen Trainingslager.

Photo by Nicolas Hoizey on Unsplash

Schreibe einen Kommentar

* Die DSGVO-Checkbox ist ein Pflichtfeld

*

Ich stimme zu

×
×

Warenkorb