Die Geschichte des maschinellen Lernens – eine Zeitreise

Avatar for Robert Koch

Author

Robert Koch

I write about AI, SEO, Tech, and Innovation. Led by curiosity, I stay ahead of AI advancements. I aim for clarity and understand the necessity of change, taking guidance from Shaw: 'Progress is impossible without change,' and living by Welch's words: 'Change before you have to'.

Geschichte des maschinellen Lernens

Maschinelles Lernen ist ein Teilbereich der künstlichen Intelligenz (KI). Maschinelles Lernen verwendet Algorithmen, um aus Daten neue Erkenntnisse zu gewinnen. Wenn Sie mit der KI vertraut sind und Nachrichten im Zusammenhang mit der Abwehr von Cyberangriffen oder der Verursachung von Unfällen durch selbstfahrende Autos verfolgt haben, dann werden Sie dies leicht verstehen. Die Idee, dass Maschinen lernen können, ohne von Menschen programmiert zu werden, reicht jedoch weiter zurück als nur bis in die letzten Jahre. Denken Sie an die ersten Computer in der Geschichte des maschinellen Lernens und daran, dass diese nur eine Sache auf einmal tun konnten.

Effizientere Gestaltung von Geschäftsprozessen, optimierter Kundenservice und automatisierte E-Mails – das sind nur einige der Gründe, warum maschinelles Lernen heute für Unternehmen so wichtig ist. Es bietet auch großartige Werkzeuge, um anderen Menschen neue Dinge wie Geografie oder historische Ereignisse beizubringen!

Inhalt

Was ist maschinelles Lernen?

Maschinelles Lernen ist ein Bereich der Informatik, der sich mit der Entwicklung von Algorithmen beschäftigt, die aus Daten lernen können. Maschinelles Lernen hat in den letzten Jahrzehnten viele Forschungsbereiche revolutioniert – vor allem in Bereichen wie der Verarbeitung natürlicher Sprache (NLP) und der Bilderkennung. Das liegt daran, dass Algorithmen des maschinellen Lernens in der Lage sind, die Effizienz und Genauigkeit zu verbessern, wenn es um Aufgaben wie die Vorhersage von Ergebnissen oder die Interpretation von Daten geht.

Diese Eigenschaften machen das maschinelle Lernen unglaublich nützlich für so unterschiedliche Bereiche wie Finanzen, Gesundheitswesen, Einzelhandel und Produktion. Ein Beispiel dafür, wie SEO maschinelles Lernen nutzen kann, ist die Verwendung von prädiktiven Modellierungstechniken. Diese sagen voraus, wie sich Nutzer auf einer bestimmten Seite oder Website verhalten werden. Die Informationen können dann verwendet werden, um den Inhalt oder das Design einer Website entsprechend anzupassen.

Es gibt verschiedene Arten von Algorithmen für maschinelles Lernen, die jeweils ihre eigenen Stärken und Schwächen haben. Zu den beliebtesten gehören

  • das überwachte Lernen (bei dem der Algorithmus einen Satz von Trainingsdaten erhält),
  • das unüberwachte Lernen (bei dem der Algorithmus unmarkierte Daten erhält),
  • das Verstärkungslernen (bei dem ein Agent lernt, positives und negatives Feedback mit Verhaltensweisen zu verknüpfen),
  • tiefe neuronale Netze (DNNs),
  • genetische Algorithmen,
  • Bayes’sche Netze und mehr.

Es ist jedoch wichtig zu wissen, dass es nicht nur einen besten Algorithmus für maschinelles Lernen gibt. Jeder hat seine eigenen Vor- und Nachteile. Daher ist es wichtig, alle verfügbaren Optionen zu prüfen, bevor man eine endgültige Entscheidung trifft.

Die Frühgeschichte des maschinellen Lernens

Das maschinelle Lernen hat seit den Anfängen der Computer viele Entwicklungsphasen durchlaufen. Im Folgenden werden wir uns einige der wichtigsten Ereignisse genauer ansehen.

Geschichte des maschinellen Lernens 1943-1979
Geschichte des maschinellen Lernens 1943-1979

1943: Das erste neuronale Netz mit Stromkreislauf

Das erste neuronale Netzwerk mit elektrischem Schaltkreis wurde 1943 von Warren McCulloch und Walter Pitts entwickelt. Ziel des Netzwerks war es, ein Problem zu lösen, das von John von Neumann und anderen aufgeworfen worden war: Wie könnte man Computer dazu bringen, miteinander zu kommunizieren?

Dieses frühe Modell zeigte, dass es möglich war, zwei Computer ohne menschliches Zutun miteinander kommunizieren zu lassen. Dieses Ereignis ist wichtig, weil es den Weg für die Entwicklung des maschinellen Lernens ebnete.

1950: Turing-Test

Der Turing-Test ist ein von dem Mathematiker Alan Turing vorgeschlagener Test der künstlichen Intelligenz. Der Test soll herausfinden, ob eine Maschine wie ein Mensch handeln kann. Dabei wird geprüft, ob Menschen bei gegebenen Antworten nicht zwischen Mensch und Maschine unterscheiden können.

Ziel des Tests ist es, festzustellen, ob Maschinen intelligent denken können und eine gewisse Form von emotionalen Fähigkeiten aufweisen. Dabei spielt es keine Rolle, ob die Antwort wahr oder falsch ist. Es kommt vielmehr darauf an, ob die Reaktion vom Fragesteller als menschlich angesehen wird oder nicht. Es hat mehrere Versuche gegeben, eine KI zu schaffen, die den Turing-Test besteht, aber noch keine Maschine hatte dabei Erfolg.

Der Turing-Test wurde kritisiert, weil er misst, inwieweit eine Maschine einen Menschen imitieren kann, anstatt ihre wahre Intelligenz zu beweisen.

1952: Das Checkers-Programm

Arthur Samuel war ein Pionier des maschinellen Lernens. Er gilt als Schöpfer des ersten Computerprogramms, das Dame auf Meisterschaftsniveau spielen konnte. Sein Programm Checkers, das er 1952 entwickelte, nutzte eine Technik namens Alpha-Beta-Pruning, um die Gewinnchancen eines Spiels zu ermitteln. Diese Methode wird auch heute noch häufig bei Spielen eingesetzt. Darüber hinaus entwickelte Samuel auch den Minimax-Algorithmus, eine Technik zur Minimierung von Spielverlusten.

1957: Frank Rosenblatt – das Perceptron

Frank Rosenblatt war ein Psychologe, der vor allem mit seinen Arbeiten zum maschinellen Lernen bekannt wurde. Im Jahr 1957 entwickelte er das Perceptron, einen Algorithmus für maschinelles Lernen. Das Perceptron war einer der ersten Algorithmen zur Verwendung künstlicher neuronaler Netze, die im maschinellen Lernen weit verbreitet sind.

Das Perceptron wurde entwickelt, um die Genauigkeit von Computervorhersagen zu verbessern. Das Ziel des Perceptrons war es, aus Daten zu lernen, indem es seine Parameter so lange anpasst, bis es eine optimale Lösung erreicht. Der Zweck des Perceptrons bestand darin, Computern das Lernen aus Daten zu erleichtern und die damaligen Methoden, die nur begrenzt erfolgreich waren, zu verbessern.

Tipp:

KI braucht Trainingsdaten, um zu lernen, wie sie Dinge selbständig tun kann. Um einen Algorithmus für maschinelles Lernen zu trainieren, benötigen Sie große Mengen an gekennzeichneten Daten – Daten, die mit Informationen über die verschiedenen Arten von Objekten oder Ereignissen versehen wurden. Leider ist es oft schwierig, an diese Daten heranzukommen. An dieser Stelle kommen die Datensätze von clickworker ins Spiel! Datensätze sind Sammlungen von sorgfältig kuratierten Beispielen, die speziell für die Verwendung in der Forschung oder Anwendung des maschinellen Lernens aufbereitet wurden.


Datensätze für maschinelles Lernen

1967: Der Algorithmus des nächsten Nachbarn (Nearest Neighbor)

Der Nearest Neighbor Algorithmus wurde entwickelt, um automatisch Muster in großen Datenbeständen zu erkennen. Ziel dieses Algorithmus ist es, Ähnlichkeiten zwischen zwei Elementen zu finden und festzustellen, welches Element dem im anderen Element gefundenen Muster näher ist. Dies kann z. B. dazu verwendet werden, Beziehungen zwischen verschiedenen Daten zu finden oder zukünftige Ereignisse auf der Grundlage vergangener Ereignisse vorherzusagen.

1967 veröffentlichten Cover und Hart einen Artikel über Nearest neighbor pattern classification. Es handelt sich um eine Methode der induktiven Logik, die beim maschinellen Lernen verwendet wird, um ein Eingabeobjekt in eine von zwei Kategorien einzuordnen. Das Muster klassifiziert dieselben Objekte, die in dieselben Kategorien wie seine nächsten Nachbarn eingeordnet sind. Diese Methode wird zur Klassifizierung von Objekten mit einer Reihe von Attributen verwendet, von denen viele kategorisch oder numerisch sind und Werte aufweisen können, die sich überschneiden.

1974: Die Rückpropagierung

Backpropagation (Rückpropagierung, Fehlerrückführung) wurde ursprünglich entwickelt, damit neuronale Netze lernen Muster zu erkennen. Sie wurde jedoch auch in anderen Bereichen des maschinellen Lernens eingesetzt, beispielsweise zur Steigerung der Leistung und zur Verallgemeinerung von Datensätzen auf neue Instanzen. Ziel der Backpropagation ist es, die Genauigkeit eines Modells zu verbessern, indem seine Gewichte so angepasst werden, dass es zukünftige Ausgaben genauer vorhersagen kann.

Paul Werbos legte den Grundstein für diesen Ansatz des maschinellen Lernens in seiner Dissertation von 1974, die in dem Buch The Roots of Backpropagation enthalten ist.

1979: Der Stanford-Wagen

Das Stanford Cart ist ein ferngesteuerter Roboter, der sich unabhängig im Raum bewegen kann. Er wurde erstmals in den 1960er Jahren entwickelt und erreichte 1979 einen wichtigen Meilenstein in seiner Entwicklung. Die Aufgabe des Stanford Cart ist es, Hindernissen auszuweichen und ein bestimmtes Ziel zu erreichen. Im Jahr 1979 gelang es The Cart zum ersten Mal, einen mit Stühlen gefüllten Raum in 5 Stunden ohne menschliches Zutun zu durchqueren.

Der KI-Winter in der Geschichte des maschinellen Lernens

AI Winter
Während des KI-Winters sank die Finanzierung und damit auch die Stimmung unter den Forschern und in den Medien (Quelle: HBO)

Die künstliche Intelligenz hat im Laufe der Jahre eine Reihe von Hochs und Tiefs erlebt. Der Tiefpunkt der KI war der so genannte KI-Winter, der in den späten 70er bis 90er Jahren stattfand. In dieser Zeit liefen die Forschungsgelder aus. Viele Projekte wurden aufgrund ihres mangelnden Erfolgs eingestellt. Und eine Reihe von Hype-Zyklen führte zur Enttäuschung und Desillusionierung bei Entwicklern, Forschern, Nutzern und Medien.

Der Aufstieg des maschinellen Lernens in der Geschichte

Der Aufstieg des maschinellen Lernens im 21. Jahrhundert ist eine Folge des Mooreschen Gesetzes und seines exponentiellen Wachstums. Eine immer bessere Rechenleistung machte es möglich, KI-Algorithmen mit mehr Daten zu trainieren. Das führte zu einer Steigerung der Genauigkeit und Effizienz dieser Algorithmen.

Geschichte des maschinellen Lernens 1997-2017
Geschichte des maschinellen Lernens 1997-2017

1997: Eine Maschine besiegt einen Menschen im Schach

1997 besiegte der IBM-Supercomputer Deep Blue den Schachgroßmeister Garry Kasparov in einem Match. Es war das erste Mal, dass eine Maschine einen Schachprofi besiegt hatte, und es löste in der Schachwelt große Besorgnis aus. Ein bahnbrechendes Ereignis. Es zeigte, dass KI-Systeme in der Lage sind, den menschlichen Verstand bei komplexen Aufgaben zu übertreffen.

Der Sieg von Deep Blue markierte einen magischen Wendepunkt im Bereich des maschinellen Lernens. Die Welt wusste jetzt, dass die Menschheit ihren eigenen Gegner geschaffen hatte: eine künstliche Intelligenz, die selbständig lernt und sich ständig weiterentwickelt.

2002: Software-Bibliothek Torch

Torch ist eine Softwarebibliothek für maschinelles Lernen und Datenwissenschaft. Torch wurde von Geoffrey Hinton, Pedro Domingos und Andrew Ng ins Leben gerufen: die erste groß angelegte kostenlose Plattform für maschinelles Lernen. Im Jahr 2002 schufen die Gründer von Torch eine Alternative zu anderen Bibliotheken. Sie waren der Meinung, dass ihre spezifischen Bedürfnisse von anderen Bibliotheken nicht erfüllt wurden.

Im Jahr 2018 hat Torch über 1 Million Downloads auf Github und ist eine der beliebtesten Bibliotheken für maschinelles Lernen, die heute verfügbar sind.

Bitte beachten Sie: Torch wird nicht mehr aktiv entwickelt, es kann jedoch PyTorch verwendet werden, das auf der Torch-Bibliothek basiert.

2006: der Vater des Deep Learning

Im Jahr 2006 veröffentlichte Geoffrey Hinton seinen A Fast Learning Algorithm for Deep Belief Nets. Diese Arbeit war die Geburtsstunde des Deep Learning. Er zeigte, dass ein Computer mit Hilfe eines Deep Belief Network darauf trainiert werden kann, Muster in Bildern zu erkennen.

Hinton beschrieb in seiner Arbeit den ersten Deep-Learning-Algorithmus, der bei schwierigen und komplexen Mustererkennungsaufgaben eine Leistung auf menschlichem Niveau erreichen kann.

2011: Google Brain

Google Brain ist eine Forschungsgruppe von Google, die sich mit künstlicher Intelligenz und maschinellem Lernen beschäftigt. Die Gruppe wurde 2011 von Google X gegründet und befindet sich in Mountain View, Kalifornien. Das Team arbeitet eng mit anderen KI-Forschungsgruppen innerhalb von Google zusammen, zum Beispiel mit der DeepMind-Gruppe, die AlphaGo entwickelt hat – eine KI, die den Weltmeister im Go-Spiel besiegt hat. Ihr Ziel ist es, Maschinen zu entwickeln, die aus Daten lernen, Sprache verstehen, Fragen in natürlicher Sprache beantworten und mit gesundem Menschenverstand argumentieren können.

Die Gruppe wird seit 2021 von Geoffrey Hinton, Jeff Dean und Zoubin Ghahramani geleitet und konzentriert sich auf Deep Learning. Deep Learning ist ein Modell künstlicher neuronaler Netze, das in der Lage ist, komplexe Muster aus Daten automatisch zu lernen, ohne explizit programmiert zu werden.

2014: DeepFace

DeepFace ist ein Deep-Learning-Algorithmus, der ursprünglich 2014 entwickelt wurde. Er ist Teil des Unternehmens Meta. Das Projekt erhielt große Aufmerksamkeit in den Medien, nachdem es die menschliche Leistung im bekannten Faces in the Wild-Test übertroffen hatte.

DeepFace basiert auf einem tiefen neuronalen Netz, das aus vielen Schichten künstlicher Neuronen und Gewichten besteht, die jede Schicht mit den benachbarten Schichten verbinden. Der Algorithmus nimmt als Eingabe einen Trainingsdatensatz von Fotos, wobei jedes Foto mit der Identität und dem Alter der Person versehen ist. Das Team war in den letzten Jahren sehr erfolgreich und hat zahlreiche Informationen über seine Forschungsergebnisse veröffentlicht. Sie haben auch mehrere tiefe neuronale Netze trainiert, die bei Aufgaben der Mustererkennung und des maschinellen Lernens beachtliche Erfolge erzielt haben.

Gesichtserkennung und maschinelles Lernen
Die Bild- und Gesichtserkennung ist auf dem Vormarsch

2017: ImageNet Challenge – ein Meilenstein in der Geschichte des maschinellen Lernens

Die ImageNet Challenge ist ein Wettbewerb im Bereich der Computer Vision, der seit 2010 stattfindet. Der Wettbewerb konzentriert sich auf die Fähigkeiten von Programmen, Muster in Bildern zu verarbeiten und Objekte mit unterschiedlichem Detailgrad zu erkennen.

Im Jahr 2017 wurde ein Meilenstein erreicht. 29 von 38 Teams erreichten mit ihren Computer-Vision-Modellen eine Genauigkeit von 95 Prozent. Die Verbesserung der Bilderkennung ist immens.

Gegenwart: Maschinelles Lernen auf dem neuesten Stand der Technik

Maschinelles Lernen wird in vielen verschiedenen Bereichen eingesetzt – von der Mode bis zur Landwirtschaft. Algorithmen des maschinellen Lernens können Muster und Beziehungen zwischen Daten erkennen, prädiktive Erkenntnisse für komplexe Probleme gewinnen und Informationen extrahieren, die sonst nur schwer zu finden sind. Die heutigen Algorithmen des maschinellen Lernens sind in der Lage, große Datenmengen in relativ kurzer Zeit mit hoher Genauigkeit zu verarbeiten.

ML in der Robotik

Das maschinelle Lernen wurde in der Robotik für verschiedene Zwecke eingesetzt, unter anderem für Klassifizierung, Clusterbildung, Regression und Erkennung von Anomalien.

  • Bei der Klassifizierung wird den Robotern beigebracht, zwischen verschiedenen Objekten oder Kategorien zu unterscheiden.
  • Clustering hilft Robotern, ähnliche Objekte zu gruppieren, damit sie leichter verarbeitet werden können.
  • Mit Hilfe der Regression lernen Roboter ihre Bewegungen zu steuern, indem sie auf der Grundlage von Daten aus der Vergangenheit zukünftige Werte vorhersagen.
  • Die Aufdeckung von Anomalien dient dazu, ungewöhnliche Muster in Daten zu erkennen, um diese weiter zu untersuchen.

Eine gängige Anwendung des maschinellen Lernens in der Robotik besteht darin, die Leistung von Robotern durch Erfahrung zu verbessern. Bei dieser Anwendung wird den Robotern eine Aufgabe gestellt. Sie lernen durch Beobachtung der Ergebnisse ihrer eigenen Handlungen, wie sie diese Aufgabe am besten lösen können. Diese Art des Lernens wird als Verstärkungslernen bezeichnet.

Eine weitere Anwendung des maschinellen Lernens in der Robotik besteht darin, den Konstrukteuren zu helfen, genauere Modelle für zukünftige Roboter zu erstellen. Daten aus früheren Experimenten oder Simulationen trainieren einen Algorithmus für maschinelles Lernen. Der Algorithmus hilft bei der Vorhersage der Ergebnisse zukünftiger Experimente und ermöglicht es den Konstrukteuren, bessere Vorhersagen über das Verhalten ihrer Roboter zu treffen.

Maschinelles Lernen wird in der Robotik schon seit einiger Zeit eingesetzt, um die Fähigkeit der Roboter zur Interaktion mit ihrer Umgebung zu verbessern. Roboter sind in der Lage zu lernen, wie sie Aufgaben effektiver erledigen und bessere Entscheidungen darüber treffen können, was als Nächstes zu tun ist. Dadurch erledigen die Roboter ihre Aufgaben schneller und effektiver.

ML im Gesundheitswesen

Trotz vieler spezifischer Herausforderungen hat das maschinelle Lernen bereits erhebliche Auswirkungen auf die Gesundheitsbranche. Es wird derzeit eingesetzt, um Krankheiten zu diagnostizieren und zu behandeln, Muster und Beziehungen in Daten zu erkennen und Ärzten zu helfen, bessere Entscheidungen über die Behandlung von Patienten zu treffen.

Es gibt jedoch noch viel zu tun, um das volle Potenzial von ML im Gesundheitswesen auszuschöpfen.

ML im Bildungswesen

Maschinelles Lernen ist ein Prozess, bei dem Computern beigebracht wird, aus Daten zu lernen. Dieser Prozess kann auf vielfältige Weise genutzt werden, unter anderem auch im Bildungswesen.

  • Verfolgen Sie die Fortschritte der Schüler und ihr Gesamtverständnis des Lernstoffs.
  • Personalisierung der Bildungserfahrung für jeden Schüler durch Bereitstellung personalisierter Inhalte und Schaffung vielfältiger Umgebungen.
  • Beurteilen Sie die Fortschritte der Lernenden. Ermitteln Sie ihre Interessen, um sie angemessen zu unterstützen, und verfolgen Sie den Lernfortschritt, um den Schülern zu helfen, ihren Kurs anzupassen.

Zukunft des maschinellen Lernens

Das maschinelle Lernen hat sich seit seinen Anfängen rasant entwickelt und ist nach wie vor eines der spannendsten Forschungsgebiete. Die jüngsten Fortschritte auf diesem Gebiet sind vielversprechend und inspirierend. Aber sie sind nur der Anfang dessen, was sich noch entwickeln wird. Was können wir zum Beispiel in zehn Jahren erwarten?

Die Zukunft des maschinellen Lernens
Was hält die Zukunft für das maschinelle Lernen bereit?

Quantencomputer

Ein Quantencomputer nutzt die Prinzipien der Quantenmechanik, um Informationen auf eine Weise zu verarbeiten, die mit herkömmlichen Computern nicht möglich ist. Einige Entwickler, darunter Elon Musk und Bill Gates, sind der Meinung, dass das Quantencomputing enorme Auswirkungen auf die Gesellschaft haben wird, weil es einerseits der Schlüssel zur Lösung vieler unserer bestehenden Probleme ist, andererseits auch zu neuen Problemen führen kann.

Quantencomputer sind exponentiell leistungsfähiger als normale Computer. Sie sind können Daten mit einer unglaublichen Geschwindigkeit verarbeiten. Das liegt daran, dass Quantencomputer auf Informationen auf mikroskopischer oder atomarer Ebene zugreifen, während herkömmliche Computer mit jedem einzelnen Datenelement als Ganzes arbeiten.

Quantencomputer werden noch nicht für viele Aufgaben eingesetzt, da die Wissenschaftler immer noch versuchen herauszufinden, wie diese zu konstruieren sind. Wissenschaftler konnten bereits kleine Quantencomputer für die Lösung kleinerer Probleme bauen. Sehr viel mehr ist bisher aber nicht erreicht worden.

Ist AutoML die Zukunft des maschinellen Lernens?

AutoML ist ein Algorithmus für maschinelles Lernen, der den Prozess des Trainings und der Abstimmung von Modellen für maschinelles Lernen automatisiert. Zweifellos hat AutoML in letzter Zeit in der Welt des maschinellen Lernens Wellen geschlagen. Ursprünglich von Google entwickelt, ist AutoML inzwischen ein unschätzbares Werkzeug für Unternehmen jeder Größe – von kleinen Start-ups, die nach Möglichkeiten suchen, ihre Entwicklungsprozesse zu beschleunigen, bis zu größeren Organisationen, die automatisierte Methoden für den Umgang mit großen Datenmengen oder komplexen Modellierungsproblemen benötigen.

Kurz gesagt: Wenn Sie einen Teil (oder alle Teile) Ihres ML-Workflows automatisieren möchten – sei es die manuelle Entwicklung/Abstimmung Ihrer Modelle, die Erstellung von Merkmalen und Datensätzen oder deren Optimierung -–dann ist AutoML wahrscheinlich etwas, das Sie auf Ihrem Radar haben sollten!

Fazit

Das maschinelle Lernen hat seit seinen bescheidenen Anfängen in den frühen 1940er Jahren einen langen Weg zurückgelegt. Heute wird es für eine Vielzahl von Aufgaben eingesetzt: von der Gesichtserkennung bis zum automatisierten Fahren. Mit dem richtigen Datensatz lässt sich mit maschinellem Lernen fast alles erreichen. Da dieses Feld weiter wächst, können wir für die Zukunft noch mehr erstaunliche Anwendungen des maschinellen Lernens erwarten.