Was ist Artificial Intelligence & Machine Learning?

Wie bei allen Schlagworten gibt es auch bei Künstlicher Intelligenz (KI)/Artificial Intelligence (AI) verschiedene Abgrenzungen und Interpretationen. Häufig wird zwischen „schwacher KI“ und „starker KI“ unterschieden. Auch wenn Roboterköpfe in Medien und Werbematerialien es suggerieren, hat die starke KI auf absehbare Zeit noch keine praktische Relevanz für Unternehmen. Es ist die Forschungsvision, eine Intelligenz zu erschaffen, die vielseitig, generisch einsetzbar und einem Menschen ebenbürtig ist. Die auf klar definierte Aufgaben spezialisierte schwache KI hingegen erobert das Arbeitsleben zunehmend und löst Aufgabe um Aufgabe. Eine KI, welche Texte fließend übersetzt, muss eben nicht auch den Inhalt von Bildern verstehen können. Diese drastische Komplexitätsreduktion gegenüber der starken KI verschiebt den Erstellungsaufwand für eine schwache KI in den Raum der heutigen Rechenkapazität.

In vielen Bereichen wird KI begrifflich mit Deep Learning – dem Trainieren von tiefen neuronalen Netzen – gleichgesetzt. Der Begriff Machine Learning (ML) beschreibt dann die eher klassischen KI Verfahren wie Entscheidungsbäume und Support-Vector-Maschinen. Da man nicht pauschal sagen kann, dass neuronale Netze für alle Probleme besser geeignet sind, nutzen wir lieber die folgende Abgrenzung der Begriffe:

  • Eine KI ist ein System, das sich, von außen gesehen, intelligent verhält, weil es komplexe Aufgaben automatisch erledigen kann. Prinzipiell kann auch ein komplexes, händisch programmiertes Regelwerk intelligent wirken – denken Sie hier an Ihr Navigationsgerät.
  • ML sind Algorithmen, die es erlauben, komplexe Regeln aus Daten zu erlernen, statt sie händisch zu programmieren. Ein Algorithmus kann sich automatisch an unterschiedliche Aufgaben – jeweils mit dem passenden Datensatz – anpassen.
  • Tiefes Lernen / Deep Learning (DL) ist wiederum ein Teil der maschinellen Lernverfahren. Es folgt damit den selben Vorgehensweisen wie alle anderen ML-Verfahren, hat aber eine mehrschichtige Architektur. Diese erlaubt es abstrakte Zwischenlösungen zu bauen und sich damit tendenziell besser an die Daten und die Lösung gleichermaßen anzupassen. Eine Eigenschaft, die man sich allerdings mit einem größeren Bedarf an Trainingsdaten und Rechenleistung erkauft.

Lassen Sie uns das an einem Beispiel erläutern: Nehmen wir an, wir müssten Spielzeug-Raumschiffe bauen und wollen diese Aufgabe automatisieren. Die Analogie zur programmierten KI wäre es, eine vollständig definierte Gussform zu erstellen. Damit kann eine Maschine autonom viele Raumschiffe gießen. Wenn wir aber etwas am Resultat ändern wollen, müssen wir händisch eine neue Form erstellen. Beim klassischen Maschine Learning würden wir nur die einzelnen Bauteile wie Fenster, Triebwerke und Antennen definieren und die Maschine müsste anhand von Vorgaben selbst lernen, daraus ein Raumschiff zu gestalten. Dieser Ansatz ist wesentlich generischer: wenn wir die Vorgaben ändern, kann die Maschine auch lernen, andere Raumschiffe zu bauen. Die Deep Learning Analogie in diesem Beispiel wäre es, der Maschine nur Lego-Steine und Bilder von Raumschiffen zu geben. Durch die mehrschichtige Struktur würde die Maschine erst Zwischenprodukte, wie beispielsweise Fenster, gestalten und daraus dann Raumschiffe bauen.

Funktionsweise

Anders als in der klassischen Programmierung, in der für jede neue Aufgabe ein passendes Programm geschrieben wird, nutzen ML-Verfahren immer die gleichen Berechnungsvorschriften, die sogenannten Modelle. Diese transformieren eine Eingabe in eine Ausgabe. Im Falle von Deep Learning bestehen die Modelle – vereinfacht ausgedrückt – aus mehreren Schichten von gewichteten Summen mit jeweils nicht-linearen Aktivierungsfunktionen dazwischen. Je nachdem wie die Gewichte der Summen gewählt werden, erfüllt das Modell eine andere Aufgabe!

An dieser Stelle kommen die vielen Daten ins Spiel: Kein Mensch kann die Millionen Gewichte eines größeren neuronalen Netzwerks von Hand so justieren, dass eine Aufgabe zuverlässig gelöst wird. Wenn wir jedoch viele Beispiele mit bekannter Lösung haben (die Trainingsdaten), ist es ein Optimierungsproblem, dass der Computer selbständig lösen kann: Finde diejenigen Gewichte, welche die gegebenen Beispiele in die bekannten Lösungen transformieren.

ML verschiebt den Aufwand also von der Programmierung hin zur Modellierung der Optimierungsaufgabe und zum Pflegen der Datenbasis. Das hat einige Vorteile:

  • Ab einer gewissen Komplexität ist eine Programmierung nicht mehr machbar.
  • Insbesondere unstrukturierte Daten wie Audio- und Video-Daten können nicht mit Regeln verarbeitet werden. Wie würden Sie beispielsweise anfangen eine Spracherkennung zu programmieren?
  • Große Mengen von Ausnahmen können einfach durch mehr Daten ausgeglichen werden.
  • Ändern sich die Daten über die Zeit, muss ohne personellen Aufwand lediglich nachtrainiert werden.
  • Es können Feedback-Zyklen eingebaut werden, die das System selbständig optimieren.

Die Softwareentwicklung, welche früher die komplette Lösung umgesetzt hat, wird auch weiterhin für die Integration der KI-Lösung und das Entwickeln des eigentlichen Produkts benötigt. Dort ändert sich am prinzipiellen Vorgehen nichts, weshalb wir es in der Grafik ausgegraut haben. Die eigentliche, fachliche Lösung allerdings ist in zwei Bereiche geteilt. Bei der Modellierung werden die Rohdaten erhoben, bereinigt, strukturiert und analysiert (Data Science). Die aufbereiteten Eingabedaten werden anschließend in die Optimierungspipeline überführt. Zeitgleich wird die Aufgabenstellung in ein Optimierungsproblem übersetzt: Welche Zielgröße soll optimiert werden? Wie bewerte ich eine Ausgabe des System bezüglich meiner Aufgabenstellung? Mit diesen Vorgaben kann ein Lernalgorithmus sein Modell automatisch an die Daten und die Aufgabenstellung anpassen. Die kostspielige Optimierung einer Lösung ist damit nur noch eine Frage der investierten Rechenkapazität.

Technologie

Es gibt Aufgabenfelder und Problemstellungen die sich tendenziell besser für ML-basierte Lösungen eignen als andere. Um Ihre Problemstellung grob einzuordnen können Sie sich an folgender Struktur orientieren:

Supervised Learning

Sie wollen eine Eingabe in eine Ausgabe transformieren und können für eine Menge von Daten aus der Vergangenheit die korrekte Ausgabe bestimmen. In diesem Fall können Sie Methoden des Supervised Learning (überwachte Lernverfahren) nutzen, um das Modell damit zu trainieren. Sie „überwachen“ mit den richtigen Antworten sozusagen den Lernfortschritt. Je nachdem, ob die erwartete Antwort ein geschätzter Wert oder eine Zuordnung zu einer Kategorie ist, spricht man von Klassifikations- oder Regressionsaufgaben. Beispiele:

  • Aus den Sensordaten einer Maschine die Restlaufzeit schätzen (Regression)
  • Aus dem Text einer E-Mail das zuständige Referat bestimmen (Klassifikation)

Unsupervised Learning

Sie haben eine Menge an Daten, deren Struktur komplex oder Ihnen nicht bekannt ist. Es gibt eigentlich keine „richtige“ Lösung und damit auch keine „Überwachung“. Beim Unsupervised Learning (unüberwachte Lernverfahren) extrahiert bzw. lernt das Modell die Struktur der Daten und stellt sie Ihnen für die eigentliche Problemlösung zur Verfügung. Beispiele:

  • Aus vielen Nutzerkommentaren die häufigsten Themen extrahieren (Topic Modelling)
  • Kunden anhand ihrer Reaktionen auf Newsletter gruppieren (Clustering)
  • Unbekannte Probleme in der Produktion erkennen (Anomalieerkennung)

Semi-Supervised Learning

In vielen Fällen führt das Semi-Supervised Learning (halb-überwachte Lernverfahren) als eine Kombination der oberen beiden Ansätze zum Ziel. Zum Beispiel wird in der Sprachverarbeitung gerne die „Struktur“ einer Sprache erst unüberwacht erlernt, da hier viele Daten einfach gesammelt werden können. Auf Basis dieser intelligenten Struktur lassen sich Texte dann einfacher überwacht klassifizieren.

Reinforcement Learning

Insbesondere bei Situationen, in denen nicht alle Fakten bekannt sind, kann man nicht sofort alle Entscheidungen überblicken und optimal handeln. Dasselbe Problem hat auch eine KI. Mit Reinforcement Learning kann eine Strategie für Entscheidungen unter Unsicherheit erlernt werden. Hierbei gilt es die Waage zwischen dem Realisieren von kurzfristigen Gewinnen und dem Öffnen von Möglichkeiten auf womöglich größere, zukünftige Gewinne zu halten. Beispiele dafür sind:

  • Berechnungsaufgaben so auf die vorhandenen Rechner verteilen, dass im Schnitt niemand lange wartet (Optimierung)
  • Mit einem Roboterarm mehrere fallende Objekte fangen (Steuerung)

Diese Begriffe und weitere Beispiele finden Sie in der folgenden Themenlandkarte:

Die Architektur einer KI-Lösung

Die Erstellung und Bereitstellung von KI-Lösungen stellt hohe Anforderungen an die Architektur und Recheninfrastruktur. Der beispielhaft dargestellte Datenfluss im folgenden Bild veranschaulicht die Zusammenhänge zwischen Speicherbedarf, Rechenbedarf und einer hochverfügbaren Anwendung mit KI-Kern.

In jedem umrandeten Bereich der Grafik sind andere Anforderungen an die Infrastruktur wichtig. Allen gemein ist jedoch, dass sie auf den gängigen Cloud-Providern oder auf eigenen Servern umgesetzt werden können – die Elemente unterhalb der gestrichelte Linie. Bei der Wahl der Infrastrukturmischung sollten Sie aber beachten, dass maschinelles Lernen stark von großen Datenmengen profitiert – in Form von höherer Qualität der Ergebnisse – und damit auch von einer schnellen Anbindung zwischen Datenhaltung und Berechnung. In der Grafik wird dies durch die Pfeile zwischen den speicherintensiven und den rechenintensiven Bereichen visualisiert. Lediglich der KI-Service am Ende des Datenflusses ist entkoppelt und kann auch auf Edge Devices wie Smartphones, Tablets und intelligenten Sensoren ausgerollt und periodisch aktualisiert werden.

Im Gegensatz zur herkömmlichen, programmatischen Lösung ist das Ergebnis nicht nur vom (einfach versionierbaren) Programmcode, sondern stark von den Daten und der Infrastruktur abhängig. Für jeden Schritt – von den Rohdaten zum KI-basierten Produkt – gibt es geeignete Frameworks, Bibliotheken und Provider, von denen einige exemplarisch im Schaubild dargestellt sind. Darüber hinaus bieten die Cloud-Provider auch integrierte Lösungen an.

Diesen Gestaltungsspielraum zeigen auch die folgenden Beispiele aus unserer Angebotslandschaft.

Auf der horizontalen Achse ist die Individualität Ihrer Aufgabenstellung abgetragen. Im linken Bereich (niedrige Individualität) finden sich Aufgaben, die vermutlich von vielen Markteilnehmern in ähnlicher Weise eingesetzt werden. Die Übersetzung von Schrift in Sprache (Text-2-Speech) als Teilfunktionalität eines Chatbots ist ein Beispiel aus diesem Bereich. Hier ist es sinnvoller Synergieeffekte zu nutzen und auf Lösungen von Anbietern zu setzen, anstatt eigene Modelle zu trainieren. Durch die Bündelung der Daten vieler Nutzer von vielen Diensten lassen sich gemeinsam große Qualitätsverbesserungen erzielen. Am rechten Rand sind sehr individuelle Aufgaben oder Datenstrukturen, wie ein Vorschlagssystem für Ihren Online-Shop. Sicher lassen sich dafür fertige Algorithmen nutzen, weil das Problem an sich auch andere haben. Aber Sie müssen das Modell auf Ihren Daten trainieren. Schließlich brauchen Sie die Ähnlichkeit zwischen Ihren Produkten und Kundengruppen, und nicht denen von Amazon.

In der vertikalen Achse ist der Abstraktionsgrad der Lösung abgetragen. Um beim Beispiel des Vorschlagssystems zu bleiben: Sie könnten hierfür selbst das Lernverfahren schreiben, mit vorhandenen Bibliotheken eine eigene Lösung bauen, bestehende Cloud Services nutzen und Ihre Lösung dort modellieren oder sogar schon fertige APIs nur noch mit Ihren Daten füttern.

Bei der Auswahl des besten Lösungsansatzes anhand der Kombination aus Abstraktionsgrad und Individualität helfen wir Ihnen gerne.

Warum sich der Einstieg in Artificial Intelligence & Machine Learning lohnt

Es stehen immer mehr Daten zur Verfügung. Sie werden z. B. bei der Nutzung von Diensten im Internet (Shops, Streaming, Kundenservice, etc.) erfasst. Doch auch Geräte, sowohl beim Endverbraucher, als auch im industriellen Umfeld (IoT) produzieren zunehmend wertvolle Daten, die Sie nutzen können.

Diese riesigen Datenmengen sind von Menschen allein nicht mehr zu überblicken. BigData ist ohne KI-Verfahren nicht mehr vorstellbar. Glücklicherweise haben Fortschritte bei der Rechenleistung und bei den Datenspeichern uns in die Lage versetzt, große Mengen an Daten zu verarbeiten und komplexe KI-Algorithmen verwenden zu können. Dies ermöglicht nicht nur bestehende Prozesse zu optimieren, sondern auch komplett neue Geschäftsfelder zu entwickeln.

KI lohnt sich!

Bereits jetzt profitiert die Wirtschaft durch die Anwendung von KI-Verfahren, wie die untere Grafik erläutert – Tendenz weiter steigend.

Bild: Umsatz, der in Deutschland durch KI-Anwendungen beeinflusst wird 2019 (in Mrd. Euro), Quelle: Appanion Labs; @statista.com.

Profitieren Sie jetzt von den neuen Möglichkeiten und heben Sie Ihre Technologie auf den neusten Stand. Es gibt überaus viele Anwendungsfelder in denen Lösungen mit Methoden des maschinellen Lernens und der künstlichen Intelligenz einen echten Mehrwert bieten.

 

„Novatec hat uns mit großem Engagement und Sachkenntnis bei der Evaluierung einer neuen Technologie unterstützt. Die gefundenen Ergebnisse waren maßgeblich für die Entscheidung.“
Johannes Rupprecht, Leitung Bereich Softwaretechnology and Research, NOVENTI Health SE

Einsatzmöglichkeiten von Artificial Intelligence & Machine Learning

Die Einsatzmöglichkeiten von KI und maschinellen Lernverfahren sind vielfältig. In unserem Portfolio haben wir unter Anderem:

Predictive Maintenance

Maximieren Sie die Verfügbarkeit und minimieren Sie die Ausfallzeiten Ihrer Maschinen und Anlagen. Finden Sie mit Methoden des maschinellen Lernens und der Data Science heraus, welche Instandhaltungsstrategie am meisten Sinn ergibt und optimieren Sie durch die vorausschauende Instandhaltung Ihre Anlageneffektivität.

Wie erhalten Sie eine bedarfsgerechte Wartung? Wir helfen Ihnen gerne dabei.

Dokumentenanalyse

Ganz gleich, ob Sie im Rahmen einer Prozessautomatisierung den Inhalt von Dokumenten erfassen oder Ihren Altbestand digitalisieren wollen: Mithilfe von künstlicher Intelligenz lassen sich die Informationen aus den Dokumenten in ein digitales Format bringen, das die (teil-)automatisierte weitere Verarbeitung erheblich erleichtert und so ein hohes Einsparpotential bereithält. Darüber hinaus können Sie die so gewonnen Daten viel einfacher nutzen um z. B. neue Angebote zu entwickeln.

Mit uns zu einer KI-gestützten Dokumentenanalyse!

Chatbot

Mit einem Chatbot steht Ihnen eine ressourcenschonende Alternative oder Ergänzung zu einem Call-Center zur Verfügung, die rund um die Uhr Anfragen von Kunden bearbeiten kann. Dadurch lassen sich, zusätzlich zu einer größeren Verfügbarkeit, Kosten einsparen und die Servicequalität erhöhen. Sie können auch von Schnittstellen profitieren, mit denen ein Chatbot automatisch Aufgaben erfüllen kann, wie z. B. eine Reservierung in Ihrem System anzulegen oder eine Produktbestellung auszulösen.

Richten Sie mit unserer Hilfe Ihren individuellen digitalen Assistenten ein.

Predictive Quality

Bei der Qualitätsüberwachung kommen je nach Industrie verschieden Verfahren zum Einsatz, die allesamt Daten produzieren. Von einfachen Sensordaten über Bilder bis hin zu 3D-Scans: Mit den erfassten Daten lässt sich die Qualität überwachen und mithilfe von künstlicher Intelligenz vorhersagen. Bei komplexen parametrischen Zusammenhängen kann der Einfluss einzelner kleiner Änderungen sich zu einem großen Produktionsfehler entwickeln. Der Einsatz von künstlicher Intelligenz ermöglicht ein rechtzeitiges Entgegenwirken und stellt so die gewünschten Qualitätsanforderungen sicher.

Wir helfen Ihnen bei der Qualitätsüberwachung mit Hilfe von künstlicher Intelligenz!

Schadensbearbeitung

Mit den vielfältigen Methoden der künstlichen Intelligenz und des maschinellen Lernens können Sie die Bearbeitung von Schadensfällen zu einem erheblichen Teil automatisieren. Sie verkürzen dadurch die Bearbeitungszeit und entlasten Ihre Mitarbeiter von eintönigen Arbeiten. Diese stehen dann für komplexe Fälle zur Verfügung, bei denen eine menschliche Interaktion unumgänglich ist. Die Folge ist eine gesteigerte Kunden- und Mitarbeiterzufriedenheit.

Die genannten Beispiele in unserem Portfolio sind nur ein sehr kleiner Ausschnitt von dem, was möglich ist.

Auch bei der Frage, ob Ihre eigene Idee umsetzbar ist, können Sie uns gerne kontaktieren.

Ein Blick in die Zukunft

Auch wenn am fernen Horizont die starke KI durch Quantencomputer in den Bereich des Möglichen geschoben wird, ist jetzt der richtige Zeitpunkt, KI-basierte Produkte und Prozesse zu gestalten und umzusetzen. Dies ermöglicht neue Dienstleistungen, effizientere Prozesse und unerwartete Erkenntnisse aus Ihren Datenbeständen. Sie werden schnell von den Ergebnissen und lange von den gesammelten Erfahrungen profitieren.

Wir unterstützen Sie gerne bei Ihren weiteren Schritten. In der Frühphase beispielsweise mit einem Workshop, um innerhalb eines Tages die vielversprechendsten Angriffspunkte zu identifizieren und zu bewerten. Mit einer Schulung, welche sowohl die theoretischen Grundlagen als auch die praktischen Best-Practices vermittelt. Oder punktuell an jeder Stelle Ihres Weges.

Rufen Sie einfach an oder schreiben Sie uns unter machinelearning@novatec-gmbh.de.

Ihr Ansprechpartner

Novatec_Christoph-Heger

Dr. Christoph Heger

Head of Practice Area Data Intelligence