Machine Learning und Deep Learning – die Unterschiede und zukünftige Anwendungen

Geräte mit künstlicher Intelligenz (KI) kann man heutzutage überall antreffen. Smart Homes, sprechende Assistenten auf dem Handy und selbstfahrende Autos sind nur die Spitze des Eisbergs. Darüber hinaus gibt es zwei Schlagworte, von denen Sie wahrscheinlich schon gehört haben: Machine Learning und Deep Learning („Maschinelles Lernen und Tiefes Lernen“). Anwendungsbeispiele hierzu gibt es überall. So weiß Netflix, welche Sendung Sie im Anschluss sehen möchten, oder Facebook erkennt das Gesicht Ihrer Freundin auf einem Foto. Was genau bedeuten die Begriffe, worin unterscheiden sie sich und was können wir in nicht allzu ferner Zukunft erwarten?

Die Unterschiede

Der Zusammenhang wird oft anhand konzentrischer Kreise erklärt: Deep Learning ist ein Teilbereich des Machine Learning, während künstliche Intelligenz das gesamte Forschungsgebiet umfasst. Zurzeit findet eher „Maschinelles Lernen“ Anwendung, da „Tiefes Lernen“ als neue Technologie noch in der Entwicklung und sehr teuer ist. Dennoch sind einige Angebote bereits heute auf dem Markt zu finden. Zusammengefasst

  • Künstliche Intelligenz (KI) ist das Studium der Simulation und Imitation von intelligentem, menschlichem Verhalten in Computersystemen und Maschinen.

  • Machine Learning – verwendet Algorithmen, um KI-Konzepte auf Computersysteme anzuwenden. Computer identifizieren und reagieren auf Datenmuster und lernen im Laufe der Zeit, ihre Genauigkeit ohne externe Programmierung zu verbessern. Es steht hinter Analysefunktionen wie prädiktivem Codieren, Clustering und visuellen Heatmaps.

  • Deep Learning – geht darüber hinaus und simuliert die Art und Weise, wie ein menschliches Gehirn die Dateneingabe wahrnimmt, organisiert und Entscheidungen trifft.

Wie wirkt sich „Tiefes Lernen“ zukünftig auf Unternehmen aus?

Als Fallbeispiel nehmen wir an, dass KI dazu verwendet wird, um die Emotionen der Menschen auf Fotos zu identifizieren. „Maschinelles Lernen“ findet Bilder mit Gesichtern und fügt sie ins System ein, während „Tiefes Lernen“ die spezifischen Emotionen auf den Gesichtern identifiziert. Hier sind einige Beispiele, was derzeit möglich und zukünftig noch zu erwarten ist:

  • Marketing, Compliance – schon heute geben Sentiment-Analysen von E-Mails und sozialen Medien Hinweise auf Emotionen. Zukünftig können Gefühle auf Fotos und Videos in Echtzeit identifiziert werden. Zu den Anwendungen gehört die Bereitstellung von dynamischem Content oder visueller Darstellungen.

  • Autoindustrie – die Technologie für fahrerlose Autos basierend auf Sensorinformationen existiert bereits. In Zukunft werden fahrerlose Autos mit visueller Mustererkennung den Unterschied zwischen einem Hydranten und einem Fußgänger sofort erkennen und entsprechen reagieren können.

  • Medizin – Algorithmen identifizieren schone heute Diabetes-Variablen und prognostizieren Risikofaktoren für einzelne Patienten. Schon bald wird Krebs anhand von visuellen Markern auf CT-Scans erkennbar sein, unabhängig von menschlichen Diagnostikern.

  • Unterhaltung – CGI fügt Menschenmengen digital ein oder visualisiert riesige Explosionen. In Zukunft reagieren Medien, Spiele und Animationen spontan auf Benutzereingaben, Bewegungen oder Gesichtsausdrücke.

  • Spracherkennung – versteht korrekt mit durchschnittlich 95% Genauigkeit. Zukünftig werden neuronale Netze Milliarden von gesprochenen Sprachaufzeichnungen verarbeiten, was die Erkennung auf nahezu 100% Genauigkeit verbessern und die Trainingszeit verkürzen wird.