Was ist Artificial Intelligence & Machine Learning?
Wie bei allen Schlagworten gibt es auch bei Künstlicher Intelligenz (KI)/Artificial Intelligence (AI) verschiedene Abgrenzungen und Interpretationen. Häufig wird zwischen „schwacher KI“ und „starker KI“ unterschieden. Auch wenn Roboterköpfe in Medien und Werbematerialien es suggerieren, hat die starke KI auf absehbare Zeit noch keine praktische Relevanz für Unternehmen. Es ist die Forschungsvision, eine Intelligenz zu erschaffen, die vielseitig, generisch einsetzbar und einem Menschen ebenbürtig ist. Die auf klar definierte Aufgaben spezialisierte schwache KI hingegen erobert das Arbeitsleben zunehmend und löst Aufgabe um Aufgabe. Eine KI, welche Texte fließend übersetzt, muss eben nicht auch den Inhalt von Bildern verstehen können. Diese drastische Komplexitätsreduktion gegenüber der starken KI verschiebt den Erstellungsaufwand für eine schwache KI in den Raum der heutigen Rechenkapazität.
In vielen Bereichen wird KI begrifflich mit Deep Learning – dem Trainieren von tiefen neuronalen Netzen – gleichgesetzt. Der Begriff Machine Learning (ML) beschreibt dann die eher klassischen KI Verfahren wie Entscheidungsbäume und Support-Vector-Maschinen. Da man nicht pauschal sagen kann, dass neuronale Netze für alle Probleme besser geeignet sind, nutzen wir lieber die folgende Abgrenzung der Begriffe:

Zusammenhang von Künstlicher Intelligenz, Machinelles Lernen und Tiefes Lernen.
Quelle: eigene Darstellung
- Eine KI ist ein System, das sich, von außen gesehen, intelligent verhält, weil es komplexe Aufgaben automatisch erledigen kann. Prinzipiell kann auch ein komplexes, händisch programmiertes Regelwerk intelligent wirken – denken Sie hier an Ihr Navigationsgerät.
- ML sind Algorithmen, die es erlauben, komplexe Regeln aus Daten zu erlernen, statt sie händisch zu programmieren. Ein Algorithmus kann sich automatisch an unterschiedliche Aufgaben – jeweils mit dem passenden Datensatz – anpassen.
- Tiefes Lernen / Deep Learning (DL) ist wiederum ein Teil der maschinellen Lernverfahren. Es folgt damit den selben Vorgehensweisen wie alle anderen ML-Verfahren, hat aber eine mehrschichtige Architektur. Diese erlaubt es abstrakte Zwischenlösungen zu bauen und sich damit tendenziell besser an die Daten und die Lösung gleichermaßen anzupassen. Eine Eigenschaft, die man sich allerdings mit einem größeren Bedarf an Trainingsdaten und Rechenleistung erkauft.
Lassen Sie uns das an einem Beispiel erläutern: Nehmen wir an, wir müssten Spielzeug-Raumschiffe bauen und wollen diese Aufgabe automatisieren. Die Analogie zur programmierten KI wäre es, eine vollständig definierte Gussform zu erstellen. Damit kann eine Maschine autonom viele Raumschiffe gießen. Wenn wir aber etwas am Resultat ändern wollen, müssen wir händisch eine neue Form erstellen. Beim klassischen Maschine Learning würden wir nur die einzelnen Bauteile wie Fenster, Triebwerke und Antennen definieren und die Maschine müsste anhand von Vorgaben selbst lernen, daraus ein Raumschiff zu gestalten. Dieser Ansatz ist wesentlich generischer: wenn wir die Vorgaben ändern, kann die Maschine auch lernen, andere Raumschiffe zu bauen. Die Deep Learning Analogie in diesem Beispiel wäre es, der Maschine nur Lego-Steine und Bilder von Raumschiffen zu geben. Durch die mehrschichtige Struktur würde die Maschine erst Zwischenprodukte, wie beispielsweise Fenster, gestalten und daraus dann Raumschiffe bauen.
Funktionsweise
Anders als in der klassischen Programmierung, in der für jede neue Aufgabe ein passendes Programm geschrieben wird, nutzen ML-Verfahren immer die gleichen Berechnungsvorschriften, die sogenannten Modelle. Diese transformieren eine Eingabe in eine Ausgabe. Im Falle von Deep Learning bestehen die Modelle – vereinfacht ausgedrückt – aus mehreren Schichten von gewichteten Summen mit jeweils nicht-linearen Aktivierungsfunktionen dazwischen. Je nachdem wie die Gewichte der Summen gewählt werden, erfüllt das Modell eine andere Aufgabe!
An dieser Stelle kommen die vielen Daten ins Spiel: Kein Mensch kann die Millionen Gewichte eines größeren neuronalen Netzwerks von Hand so justieren, dass eine Aufgabe zuverlässig gelöst wird. Wenn wir jedoch viele Beispiele mit bekannter Lösung haben (die Trainingsdaten), ist es ein Optimierungsproblem, dass der Computer selbständig lösen kann: Finde diejenigen Gewichte, welche die gegebenen Beispiele in die bekannten Lösungen transformieren.
ML verschiebt den Aufwand also von der Programmierung hin zur Modellierung der Optimierungsaufgabe und zum Pflegen der Datenbasis. Das hat einige Vorteile:
- Ab einer gewissen Komplexität ist eine Programmierung nicht mehr machbar.
- Insbesondere unstrukturierte Daten wie Audio- und Video-Daten können nicht mit Regeln verarbeitet werden. Wie würden Sie beispielsweise anfangen eine Spracherkennung zu programmieren?
- Große Mengen von Ausnahmen können einfach durch mehr Daten ausgeglichen werden.
- Ändern sich die Daten über die Zeit, muss ohne personellen Aufwand lediglich nachtrainiert werden.
- Es können Feedback-Zyklen eingebaut werden, die das System selbständig optimieren.

Projekteigenschaften bei Künstlicher Intelligenz und Maschinellem Lernen.
Quelle: eigene Darstellung
Die Softwareentwicklung, welche früher die komplette Lösung umgesetzt hat, wird auch weiterhin für die Integration der KI-Lösung und das Entwickeln des eigentlichen Produkts benötigt. Dort ändert sich am prinzipiellen Vorgehen nichts, weshalb wir es in der Grafik ausgegraut haben. Die eigentliche, fachliche Lösung allerdings ist in zwei Bereiche geteilt. Bei der Modellierung werden die Rohdaten erhoben, bereinigt, strukturiert und analysiert (Data Science). Die aufbereiteten Eingabedaten werden anschließend in die Optimierungspipeline überführt. Zeitgleich wird die Aufgabenstellung in ein Optimierungsproblem übersetzt: Welche Zielgröße soll optimiert werden? Wie bewerte ich eine Ausgabe des System bezüglich meiner Aufgabenstellung? Mit diesen Vorgaben kann ein Lernalgorithmus sein Modell automatisch an die Daten und die Aufgabenstellung anpassen. Die kostspielige Optimierung einer Lösung ist damit nur noch eine Frage der investierten Rechenkapazität.
Technologie
Es gibt Aufgabenfelder und Problemstellungen die sich tendenziell besser für ML-basierte Lösungen eignen als andere. Um Ihre Problemstellung grob einzuordnen können Sie sich an folgender Struktur orientieren:
Supervised Learning
Sie wollen eine Eingabe in eine Ausgabe transformieren und können für eine Menge von Daten aus der Vergangenheit die korrekte Ausgabe bestimmen. In diesem Fall können Sie Methoden des Supervised Learning (überwachte Lernverfahren) nutzen, um das Modell damit zu trainieren. Sie „überwachen“ mit den richtigen Antworten sozusagen den Lernfortschritt. Je nachdem, ob die erwartete Antwort ein geschätzter Wert oder eine Zuordnung zu einer Kategorie ist, spricht man von Klassifikations- oder Regressionsaufgaben. Beispiele:
- Aus den Sensordaten einer Maschine die Restlaufzeit schätzen (Regression)
- Aus dem Text einer E-Mail das zuständige Referat bestimmen (Klassifikation)
Unsupervised Learning
Sie haben eine Menge an Daten, deren Struktur komplex oder Ihnen nicht bekannt ist. Es gibt eigentlich keine „richtige“ Lösung und damit auch keine „Überwachung“. Beim Unsupervised Learning (unüberwachte Lernverfahren) extrahiert bzw. lernt das Modell die Struktur der Daten und stellt sie Ihnen für die eigentliche Problemlösung zur Verfügung. Beispiele:
- Aus vielen Nutzerkommentaren die häufigsten Themen extrahieren (Topic Modelling)
- Kunden anhand ihrer Reaktionen auf Newsletter gruppieren (Clustering)
- Unbekannte Probleme in der Produktion erkennen (Anomalieerkennung)
Semi-Supervised Learning
In vielen Fällen führt das Semi-Supervised Learning (halb-überwachte Lernverfahren) als eine Kombination der oberen beiden Ansätze zum Ziel. Zum Beispiel wird in der Sprachverarbeitung gerne die „Struktur“ einer Sprache erst unüberwacht erlernt, da hier viele Daten einfach gesammelt werden können. Auf Basis dieser intelligenten Struktur lassen sich Texte dann einfacher überwacht klassifizieren.
Reinforcement Learning
Insbesondere bei Situationen, in denen nicht alle Fakten bekannt sind, kann man nicht sofort alle Entscheidungen überblicken und optimal handeln. Dasselbe Problem hat auch eine KI. Mit Reinforcement Learning kann eine Strategie für Entscheidungen unter Unsicherheit erlernt werden. Hierbei gilt es die Waage zwischen dem Realisieren von kurzfristigen Gewinnen und dem Öffnen von Möglichkeiten auf womöglich größere, zukünftige Gewinne zu halten. Beispiele dafür sind:
- Berechnungsaufgaben so auf die vorhandenen Rechner verteilen, dass im Schnitt niemand lange wartet (Optimierung)
- Mit einem Roboterarm mehrere fallende Objekte fangen (Steuerung)
Diese Begriffe und weitere Beispiele finden Sie in der folgenden Themenlandkarte:

Landschaft des Machinellen Lernens.
Quelle: eigene Darstellung
Die Architektur einer KI-Lösung
Die Erstellung und Bereitstellung von KI-Lösungen stellt hohe Anforderungen an die Architektur und Recheninfrastruktur. Der beispielhaft dargestellte Datenfluss im folgenden Bild veranschaulicht die Zusammenhänge zwischen Speicherbedarf, Rechenbedarf und einer hochverfügbaren Anwendung mit KI-Kern.

Architektur und Technologien für Künstliche Intelligenz und Maschinellem Lernen.
Quelle: eigene Darstellung
In jedem umrandeten Bereich der Grafik sind andere Anforderungen an die Infrastruktur wichtig. Allen gemein ist jedoch, dass sie auf den gängigen Cloud-Providern oder auf eigenen Servern umgesetzt werden können – die Elemente unterhalb der gestrichelte Linie. Bei der Wahl der Infrastrukturmischung sollten Sie aber beachten, dass maschinelles Lernen stark von großen Datenmengen profitiert – in Form von höherer Qualität der Ergebnisse – und damit auch von einer schnellen Anbindung zwischen Datenhaltung und Berechnung. In der Grafik wird dies durch die Pfeile zwischen den speicherintensiven und den rechenintensiven Bereichen visualisiert. Lediglich der KI-Service am Ende des Datenflusses ist entkoppelt und kann auch auf Edge Devices wie Smartphones, Tablets und intelligenten Sensoren ausgerollt und periodisch aktualisiert werden.
Im Gegensatz zur herkömmlichen, programmatischen Lösung ist das Ergebnis nicht nur vom (einfach versionierbaren) Programmcode, sondern stark von den Daten und der Infrastruktur abhängig. Für jeden Schritt – von den Rohdaten zum KI-basierten Produkt – gibt es geeignete Frameworks, Bibliotheken und Provider, von denen einige exemplarisch im Schaubild dargestellt sind. Darüber hinaus bieten die Cloud-Provider auch integrierte Lösungen an.
Diesen Gestaltungsspielraum zeigen auch die folgenden Beispiele aus unserer Angebotslandschaft.

Eignung von Produkten, Services und Frameworks von Drittanbietern.
Quelle: eigene Darstellung
Auf der horizontalen Achse ist die Individualität Ihrer Aufgabenstellung abgetragen. Im linken Bereich (niedrige Individualität) finden sich Aufgaben, die vermutlich von vielen Markteilnehmern in ähnlicher Weise eingesetzt werden. Die Übersetzung von Schrift in Sprache (Text-2-Speech) als Teilfunktionalität eines Chatbots ist ein Beispiel aus diesem Bereich. Hier ist es sinnvoller Synergieeffekte zu nutzen und auf Lösungen von Anbietern zu setzen, anstatt eigene Modelle zu trainieren. Durch die Bündelung der Daten vieler Nutzer von vielen Diensten lassen sich gemeinsam große Qualitätsverbesserungen erzielen. Am rechten Rand sind sehr individuelle Aufgaben oder Datenstrukturen, wie ein Vorschlagssystem für Ihren Online-Shop. Sicher lassen sich dafür fertige Algorithmen nutzen, weil das Problem an sich auch andere haben. Aber Sie müssen das Modell auf Ihren Daten trainieren. Schließlich brauchen Sie die Ähnlichkeit zwischen Ihren Produkten und Kundengruppen, und nicht denen von Amazon.
In der vertikalen Achse ist der Abstraktionsgrad der Lösung abgetragen. Um beim Beispiel des Vorschlagssystems zu bleiben: Sie könnten hierfür selbst das Lernverfahren schreiben, mit vorhandenen Bibliotheken eine eigene Lösung bauen, bestehende Cloud Services nutzen und Ihre Lösung dort modellieren oder sogar schon fertige APIs nur noch mit Ihren Daten füttern.
Bei der Auswahl des besten Lösungsansatzes anhand der Kombination aus Abstraktionsgrad und Individualität helfen wir Ihnen gerne.
Warum sich der Einstieg in Artificial Intelligence & Machine Learning lohnt
Es stehen immer mehr Daten zur Verfügung. Sie werden z. B. bei der Nutzung von Diensten im Internet (Shops, Streaming, Kundenservice, etc.) erfasst. Doch auch Geräte, sowohl beim Endverbraucher, als auch im industriellen Umfeld (IoT) produzieren zunehmend wertvolle Daten, die Sie nutzen können.
Diese riesigen Datenmengen sind von Menschen allein nicht mehr zu überblicken. BigData ist ohne KI-Verfahren nicht mehr vorstellbar. Glücklicherweise haben Fortschritte bei der Rechenleistung und bei den Datenspeichern uns in die Lage versetzt, große Mengen an Daten zu verarbeiten und komplexe KI-Algorithmen verwenden zu können. Dies ermöglicht nicht nur bestehende Prozesse zu optimieren, sondern auch komplett neue Geschäftsfelder zu entwickeln.
KI lohnt sich!
Bereits jetzt profitiert die Wirtschaft durch die Anwendung von KI-Verfahren, wie die untere Grafik erläutert – Tendenz weiter steigend.

Bild: Umsatz, der in Deutschland durch KI-Anwendungen beeinflusst wird 2019 (in Mrd. Euro), Quelle: Appanion Labs; @statista.com.
Profitieren Sie jetzt von den neuen Möglichkeiten und heben Sie Ihre Technologie auf den neusten Stand. Es gibt überaus viele Anwendungsfelder in denen Lösungen mit Methoden des maschinellen Lernens und der künstlichen Intelligenz einen echten Mehrwert bieten.