Was ist maschinelles Lernen?
Maschinelles Lernen ist ein Teilbereich innerhalb der künstlichen Intelligenz, der sich mit Computeralgorithmen befasst, die sich eigenständig mithilfe von Trainingsdaten und ohne explizite Programmierung verbessern können. Es gilt allgemein als der vielversprechendste Weg zur Verwirklichung einer tatsächlich menschenähnlichen künstlichen Intelligenz.
ML-Algorithmen können grob in drei Kategorien eingeteilt werden:
- Überwachtes Lernen: Sie geben Kennzeichnungen vor und durch Beispieleingaben samt den gewünschten Ausgaben ermöglichen Sie es dem Algorithmus, die Regeln zu erlernen, anhand derer Input dem Output zugeordnet wird.
- Unüberwachtes Lernen: Sie geben keine Kennzeichnungen vor, sodass der Algorithmus seine eigene Struktur zum Verarbeiten von Eingaben ermitteln kann (z. B. Erkennen verborgener Muster in Daten).
- Bestärkendes Lernen: Der Algorithmus interagiert wiederholt mit einer dynamischen Umgebung mit einem bestimmten Ziel, etwa, ein Spiel zu gewinnen oder ein Auto zu fahren. Der Algorithmus nähert sich durch wiederholtes Ausprobieren der optimalen Lösung des Problems an.
In diesem Artikel geben wir einen kurzen Überblick über maschinelles Lernen und Deep Learning sowie über die Unterschiede zwischen den beiden Konzepten.
Was ist Deep Learning?
Deep Learning ist ein Bereich des maschinellen Lernens, der künstliche neuronale Netze zur Annäherung an menschenähnliche Intelligenz verwendet. Deep Learning ist von menschlichen Neuronen inspiriert und nutzt die Graphentheorie, um Gewichtungsalgorithmen in Schichten aus Knoten und Edges anzuordnen. Deep-Learning-Algorithmen eignen sich hervorragend für die Verarbeitung unstrukturierter Daten wie Bildern oder Sprachen.
Um als „deep“ klassifiziert werden zu können, muss ein neuronales Netz im Grunde verborgene Schichten zwischen der Eingabe- und der Ausgabeschicht eines Perceptrons enthalten – der Basisstruktur eines neuronalen Netzes. Diese Schichten gelten als „verborgen“, weil sie nicht mit der Außenwelt in Verbindung stehen. Folgendes sind Beispiele für Deep-Learning-Architekturen:
- Feedforward (FF): Daten bewegen sich in einer Richtung von der Eingabeschicht durch die verborgenen Schichten. Alle Knoten sind miteinander verbunden und die Daten kehren nie durch die verborgenen Schichten zurück. FF wird bei der Datenkomprimierung und bei der grundlegenden Bildverarbeitung verwendet.
- Rekurrente neuronale Netze (RNN): Eine Art FF-Netzwerk, das den verborgenen Schichten eine Zeitverzögerung hinzufügt, wodurch der Zugriff auf frühere Informationen während einer laufenden Iteration ermöglicht wird. Diese Rückkopplungsschleife funktioniert ähnlich wie das Gedächtnis und führt dazu, dass RNNs sich ausgezeichnet für die Sprachverarbeitung eignen. Ein gutes Beispiel dafür ist die Texterkennung, die sich auf die Wörter stützt, die Sie am häufigsten verwenden, um entsprechende Vorschläge zu machen.
- Faltendes neuronales Netzwerk (CNN): Eine sogenannte Faltung ist eine mathematische Operation mit zwei Funktionen, durch die eine dritte Funktion erzeugt wird, die beschreibt, wie die eine durch die andere modifiziert wird. CNNs werden primär für die Bilderkennung und -klassifizierung verwendet und sind die „Augen“ der KI. Die verborgenen Schichten in einem CNN fungieren als mathematische Filter, die gewichtete Summen verwenden, um Kanten, Farben, Kontraste und andere Elemente eines Pixels zu identifizieren.