Aus Daten lernen und hieraus stets die richtigen Entscheidungen treffen, und das sehr viel schneller als der Mensch? Das kann Machine Learning. Aber was genau ist maschinelles Lernen und wie funktioniert das? Und welche Arten von Machine Learning gibt es eigentlich?
Machine Learning (maschinelles Lernen) ist ein Teilbereich der künstlichen Intelligenz, mit dem Computersysteme befähigt sind, sowohl aus Daten als auch Erfahrungen zu lernen und sich eigenständig zu verbessern,
Der Begriff „Machine Learning“ existiert im Grunde schon mehr als 70 Jahre. Der Ursprung liegt in den 1950er Jahren und hat eng mit den Anfängen der künstlichen Intelligenz (KI) zu tun. Arthur Lee Samuel, ein US-amerikanischer Elektroingenieur und Informatiker, beschrieb 1959 „Machine Learning“ als Fähigkeit von Computern, ohne explizite Programmierung aus Erfahrungen zu lernen. Der Beleg hierfür war ein von Samuel entwickeltes Programm, das das Brettspiel Dame auf Meisterschaftsniveau spielen konnte, da es aus den eigenen Spielerfahrungen lernte.
Die eigentlichen Wurzeln liegen aber noch weiter zurück, denn bereits 1943 legten Warren Sturgis McCulloch, US-amerikanischer Neurophysiologe und Kybernetiker, und Walter Pitts, ein auf dem Gebiet der kognitiven Psychologie arbeitender US-amerikanischer Logiker, mit ihrem Modell künstlicher Neuronen einen entscheidenden Grundstein für spätere Entwicklungen im Bereich des maschinellen Lernens.
Die Kunst der Selbstoptimierung
Machine Learning (maschinelles Lernen) ist ein Teilbereich der künstlichen Intelligenz, mit dem Computersysteme befähigt sind, sowohl aus Daten als auch Erfahrungen zu lernen und sich eigenständig zu verbessern, ohne für jede einzelne Aufgabe programmiert zur werden. Im Fokus steht der Einsatz von Algorithmen, die in großen Datensätzen Muster und Zusammenhänge erkennen, um hieraus Vorhersagen und Entscheidungen abzuleiten.
Die zentrale Aufgabe von Machine Learning ist es, komplexe Aufgaben datenbasiert und automatisiert zu bewältigen – und das in der Regel sehr viel schneller und präziser als der Mensch.
Nicht zuletzt durch den KI-Hype der letzten Jahre hat das Thema Machine Learning enorm an Relevanz gewonnen und ist zu einem äußerst weiten Feld geworden, das nicht allumfassend und für jeden technologischen Bereich erschöpfend in einem Beitrag behandelt werden kann. Um die Thematik daher einigermaßen einzugrenzen, beziehen sich die nachfolgenden Ausführungen auf den Bereich der Elektronik.
Wie funktioniert Machine Learning?
Die typische Funktionsweise von Machine Learning (ML) läuft in der Elektronik in vier Schritten ab:
Datenerfassung,
Datenanalyse,
Modelltraining und
Einsatz in Echtzeit.
Bei der Datenerfassung sammeln zum Beispiel Sensoren sowie Steuerungen in Produktions- und Energieanlagen kontinuierliche eine große Menge an Daten, etwa Temperaturen, Stromfluss, Produktionsparameter, usw.
Spezielle ML-Algorithmen analysieren diese Daten und erkennen Muster, Zusammenhänge, aber auch Abweichungen, um frühzeitig Probleme in Produktionsprozessen identifizieren zu können. Um Vorhersagen oder automatisiert Entscheidungen zu treffen, werden die besagten Algorithmen zusätzlich mit historischen Daten trainiert.
Nach dem Training sind die ML-Modelle in der Lage, in Echtzeit auf neue Daten zu reagieren, um etwa Fehler noch vor Ausfällen zu erkennen und um Produktionsanlagen automatisch an die aktuellen Gegebenheiten anzupassen.
Welche konkreten Einsatzbereiche gibt es für ML?
Beispiele für den Einsatz von ML gibt es etwa in der Elektronik: In der Qualitätssicherung lässt sich die Fertigungsqualität beispielsweise anhand von Sensordaten und Bildanalysen optimieren. Bei der Entwicklung von komplexen Elektronikkomponenten können die Algorithmen ebenfalls unterstützen, indem sie aus einer Vielzahl an Design-Iterationen lernen und optimale Lösungen vorschlagen.
In Energieanlagen lassen sich wiederum enorme Datenmengen durch ML analysieren, um letztendlich zu einer effizienteren Energieerzeugung und -verteilung zu gelangen.
Im Bereich der Instandhaltung, genauer in der prädiktiven, zustandsorientieren Instandhaltung prognostiziert ML den Wartungsbedarf von Maschinen und erkennt frühzeitig sich anbahnende Probleme, wodurch Ausfallzeiten und Kosten reduziert werden. Doch dies ist nur ein kleiner Ausschnitt aus den vielschichtigen Möglichkeiten für den Einsatz von ML allein in der Elektronik.
Welche Arten von Machine Learning werden unterschieden?
Es gibt verschiedene Arten von ML, die sich sowohl hinsichtlich ihrer Funktionsweise als auch Anwendungsgebiete unterscheiden. Die nachfolgend beschriebenen Arten von ML können in vielen verschiedenen technologischen Bereiche angewendet werden. Unterschieden wird hierbei grundsätzlich:
Überwachtes Lernen
Unüberwachtes Lernen
Bestärkendes Lernen
Deep Learning
TinyML
– Überwachtes Lernen (Supervised Learning)
Ein System beziehungsweise Algorithmus wird mit vorgegebenen Kategorien oder Zielwerten trainiert, zum Beispiel Sensordaten mit bekannten Fehlern) trainiert, um spezifische Aufgaben wie eine Klassifikation oder Vorhersage zu automatisieren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Diese Form des Lernens wird häufig für Lösungen in der Qualitätskontrolle oder zur Vorhersage von Ausfällen sowie von notwendigen Wartungen in der prädiktiven Instandhaltung verwendet.
Supervised Learning läuft in mehreren Schritten ab:
Zunächst sammeln elektronische Systeme wie etwa Sensoren oder Kameras Daten wie Bilder von Bauteilen, Messwerte oder spezifische Produktionsparameter. Jedes Datenbeispiel wird mit einem Label versehen, das den gewünschten Output beschreibt, beispielsweise „IO“ (in Ordnung) oder „NIO“ (nicht in Ordnung) bei Bauteilen. Dieser Prozess wird auch als Datensammlung und Labeling bezeichnet.
Im nächsten Schritt erfolgt die Datenaufbereitung, in dem die gesammelten Daten für das Training vorbereitet und mitunter mit weiteren Informationen versehen werden, um dem Algorithmus die relevanten Merkmale zu verdeutlichen, etwa das Markieren von Fehlerstellen auf Bildern.
In der Folge kann der Algorithmus die gelabelten Daten analysieren und hierbei lernen, Muster und Zusammenhänge zwischen den Eingabedaten und den korrespondierenden Labels zu erkennen. Das Training des Algorithmus hat das Ziel, Gesetzmäßigkeiten zu erlernen, um später neue und noch unbekannte Daten zu klassifizieren oder vorherzusagen.
Nach dem Training des Algorithmus wird das erstellte Modell mit neuen, bislang unbekannten Daten getestet, um zu prüfen, wie genau und zuverlässig das System bei seinen Vorhersagen ist (Test und Validierung).
Das trainierte Modell wird anschließend in den laufenden Betrieb integriert, etwa für eine automatisierte Qualitätskontrolle, und hierbei neue im Produktionsalltag generierte Daten genutzt, um das Modell weiter zu verbessern und an veränderte Situationen beziehungsweise Bedingungen anzupassen.
Zusammenfassend die einzelnen Schritte des überwachten Lernens:
Datensammlung und Labeling
Datenaufbereitung
Training des Algorithmus
Test und Validierung
Einsatz im konkreten Prozess
Kontinuierliche Optimierung
– Unüberwachtes Lernen (Unsupervised Learning)
Beim unüberwachtem Lernen analysieren Algorithmen ungelabelte Daten und entdecken hierbei selbstständig Muster, Strukturen und/oder Zusammenhänge. Hierbei gibt es keinerlei Vorgaben von außen, welche Merkmale oder Gruppen möglicherweise relevant sind. Der Algorithmus ist somit in der Lage, eigenständig eine Ordnung in den Daten zu identifizieren.
Der typische Ablauf des unüberwachten Lernens ähnelt dem des überwachten Lernens:
Zunächst erfolgt wieder die Datensammlung, allerdings, wie bereits erwähnt, ohne Labeling:
Spezielle „Unsupervised-Learning“-Algorithmen durchsuchen anschließend die Daten nach Ähnlichkeiten, wiederkehrenden Mustern und Unterschieden. Wichtige Begriffe in diesem Zusammenhang sind u. a. Clustering, Dimensionsreduktion und Assoziationsanalyse.
Häufig werden z. Beispiel Datenpunkte nach Ähnlichkeit in Gruppen (Cluster) eingeteilt, ohne dass jedoch zuvor die Festlegung erfolgt, wie viele Cluster es geben soll oder wie diese konkret aussehen müssen.
Bei der Struktur- und Mustererkennung können die Algorithmen schließlich Zusammenhänge erkennen, die für Menschen nicht sofort ersichtlich sind, etwa ungewöhnliche Muster, die auf Fehler oder Ausfälle deuten. Ein Beispiel hierfür wäre, wenn ein System Sensordaten aus einer Produktionslinie gruppiert und hierbei automatisch verschiedene Betriebszustände oder Anomalien erkennt.
Das unüberwachte Lernen wird u. a. zur automatisierten Überwachung von Maschinen, Anlagen, aber auch Stromnetzen eingesetzt (Zustandsüberwachung). In der Elektronikproduktion kann diese Form des ML dabei helfen, große Messdatenmengen zu segmentieren, um zum Beispiel neue Qualitätsmaßstäbe zu erkennen oder die Optimierung von Prozessen vorzuschlagen.
Zusammenfassend die einzelnen Schritte des unüberwachten Lernens:
Datenerfassung
Analyse durch Algorithmen
Gruppierung/Segmentierung/Clustering
Struktur und Mustererkennung
Einsatz in der konkreten Anwendung
Ein besonderer Vorteil dieses Variante des ML besteht darin, dass zum Beispiel keine vorgegebenen Zielwerte oder Kategorien für ein Training vorhanden sein müssen, was Zeit und Kosten spart. Darüber hinaus lassen sich unbekannte Muster und Zusammenhänge erkennen, die mit klassischen Methoden zuvor möglicherweise gar nicht oder nur sehr schwer identifiziert werden konnten.
Das unüberwachte Lernen bietet sich immer dann an, wenn nur wenig Vorkenntnisse über die Daten vorliegen oder sich die Datenstrukturen öfters ändern.
– Bestärkendes Lernen (Reinforcement Learning)
Wird etwas richtig gemacht, dann gibt´s eine Belohnung. So ließe sich in aller Kürze das Reinforcement Learning zusammenfassen. Diese Form des ML funktioniert in der Elektronik durch einen interaktiven Lernprozess, bei dem ein Algorithmus, auch Agent genannt, eigenständige jeweils die besten Entscheidungen in einer dynamischen Umgebung trifft, um langfristig Belohnungen zu maximieren.
Beim bestärkenden Lernen interagiert ein Agent wie das Steuerungssystem einer Produktionsanlage mit seiner Umgebung etwa Aktoren oder Sensoren. Der Agent beobachtet permanent den aktuellen Zustand der Anlage, darunter Parameter wie beispielsweise den Stromverbrauch oder die Temperatur und wählt davon abhängig eine Aktion. Eine solche Aktion könnte etwa darin bestehen, die Produktionsgeschwindigkeit anzupassen.
Jede Aktion des Agenten führt zu einer Zustandsänderung und daraus resultierend einen Belohnungswert (Reward). Der Belohnungswert bewertet die durchgeführte Aktion: Wird durch die Aktion zum Beispiel durch optimierte Taktzeit Energie eingespart, erfolgt eine positive Belohnung; führt sie hingegen zu einer Überhitzung einer Komponente, wird dies mit einer negativen Belohnung quittiert. Auf Grundlage dieses Trial-and-Error-Verfahrens entwickelt der Agent eine Strategie, die die Summe der positiven Belohnungen über die Zeit maximiert.
Die Schlüsselkomponenten für das bestärkende Lernen in der Elektronik sind:
der Zustandsraum – er beschreibt die möglichen Umgebungsbedingungen, zum Beispiel Sensordaten oder Betriebszustände
der Aktionsraum – er definiert die verfügbaren Steuerungsoptionen, wie etwa das Anpassen von Taktzeit oder Spannung oder das Aktivieren von Sicherheitsmechanismen
die Belohnungsfunktion – sie stellt fest, welche Aktionen des Agenten in welchen Zuständen vorteilhaft sind
Für das Reinforcement Learning stehen in der Elektronik verschiedene Algorithmen und Methoden zur Verfügung:
Q-Learning – Ein Agent lernt eine Tabelle (Q-Tabelle), die den Wert jeder Aktion in jedem Zustand speichert. Mit der Zeit passt er diese Werte im Sinne optimaler Entscheidungen an.
Deep Q-Networks – Kombiniert das bestärkende Lernen mit neuronalen Netzen, um komplexe Zustandsräume zu verarbeiten.
Policy Gradient – Direktes Optimieren der Strategie durch Anpassen von Wahrscheinlichkeiten für Aktionen.
Machine Learning auf Basis des Reinforcement-Learning-Verfahrens ermöglicht es Systemen, ein autonomes und adaptives Verhalten zur erlernen, das von der Optimierung energieeffizienter Schaltkreise bis hin zur präzisen Steuerung industrieller Roboter reicht. Allerdings können Fehlentscheidungen des Agenten in kritischen Systemen stets auch zu Schäden führen.
Was ist Deep Learning?
Bei Deep Learning handelt es sich gewissermaßen um die „Königsklasse“ im Bereich ML, denn dieses Verfahren nutzt künstliche neuronale Netze mit mehreren Schichten, sogenannte Layer, um komplexe Muster in Daten zu erkennen und Entscheidungen zu treffen bzw. zu automatisieren.
Diese Schichten bestehen aus:
der Eingabeschicht – Die Eingabeschicht empfängt Rohdaten, etwa Sensordaten, Messwerte oder Bilder von Bauteilen
verborgenen Schichten – In den verborgenen Schichten werden diese Daten durch Gewichtung und Transformation analysiert, um abstrakte Merkmale zu extrahieren
der Ausgabeschicht – Die Ausgabeschicht liefert schließlich das Ergebnis, etwa eine Klassifizierung wie „fehlerhaft“ oder „intakt“
Das neuronale Netz wird mit Beispielen trainiert, bei denen die Eingabedaten und die gewünschte Ausgabe bekannt sind (gelabelte Daten). Durch eine sogenannte Backpropagation, auch Fehlerrückführung oder Rückpropagierung genannt, werden die Gewichtungen der Neuronen optimiert, um Fehler zu minimieren. Das Verfahren dient somit dazu, die Gewichte eines Netzwerkes derart anzupassen, das die Vorhersagen des Modells möglichst exakt mit den tatsächlichen Zielwerten übereinstimmen.
Nach dem Training verarbeitet das Modell neue, noch unbekannte Daten in Echtzeit, etwa durch die Fehlererkennung auf einem Transportband (Inferenz).
Das Grundprinzip von Deep Learning setzt sich somit aus folgenden Schritten zusammen:
Schichtaufbau neuronaler Netze
Training mit gelabelten Daten
Inferenz
Die Schlüsseltechnologien für Deep Learning in der Elektronik sind:
Convolutional Neural Networks (CNNs) – Sie eignen sich ideal für Bildverarbeitung, zum Beispiel für die Fehlererkennung in der Elektronikfertigung
Recurrent Neural Networks (RNNs) – Sie werden eingesetzt zur Verarbeitung zeitlicher Sequenzen, beispielsweise zur Analyse von Datenströmen in der Produktion
Frameworks – TensorFlow, PyTorch oder Keras ermöglichen die Implementierung auf Embedded-Systemen
Deep Learning hat die Elektronik durch automatisierte Mustererkennung, exakte Fehlerdetektion und adaptive Steuerungssysteme quasi revolutioniert. Allerdings erfordert das Deep Learning unter anderem eine leistungsstarke Hardware und eine große Menge an gelabelten Daten für das Training.
Was ist Tiny Machine Learning (TinyML)?
Ressourcenbeschränkte Elektronikgeräte wie Mikrocontroller, Sensoren oder IoT-Edge-Geräte können ebenfalls von ML profitieren, und zwar durch TinyML, das optimierte Algorithmen, energieeffiziente Hardware und schlanke Software kombiniert, um Daten auch ohne Cloud-Anbindung direkt auf einem Gerät zu analysieren.
Hierzu erfassen Sensoren zunächst Rohdaten im Milliwatt-Leistungsbereich, beispielsweise Vibrations-, Körperschall- oder Temperaturdaten zur Zustandsüberwachung über einen Mikrocontroller. Die Modelle werden anschließen zunächst auf leistungsstarken Systemen trainiert, um spezifische Muster, etwa Anomalien in Sensordaten, erkennen zu können.
Anschließend wird das Modell optimiert und komprimiert, zum Beispiel durch Quantisierung, wobei es sich um eine Reduktion der numerischen Präzision handelt, und Pruning, bei dem irrelevante Neuronenverbindungen entfernt werden. Auf diese Weise entstehen Modelle mit nur einigen Kilobyte Größe, die auf Mikrocontrollern ablaufen können.
Das optimierte Modell wird dann auf den Mikrocontroller übertragen, wobei die Inferenz direkt auf dem Gerät erfolgt. Das Modell analysiert schließlich kontinuierliche lokale Sensordaten und trifft Entscheidungen, zum Beispiel die Aktivierung eines Alarms oder das Abschalten eines Gerätes bei einem erkannten Fehler.
Zusammengefasst die einzelnen Schritte von TinyML:
Datensammlung
Modellentwicklung und Modelltraining
Modelloptimierung
Übertragung auf Edge-Geräten
Echtzeit-Inferenz
Der entscheidende Vorteil von TinyML ist, dass mit diesem Verfahren Echtzeitentscheidungen über eine lokale Datenverarbeitung getroffen werden können, wobei die Systeme allein im Batteriebetrieb über Jahre hinweg problemlos arbeiten. Darüber hinaus gelangen durch die lokale Datenverarbeitung keinerlei sensible Informationen ins Netz. Allerdings hat TinyML nur einen begrenzten Speicher im KB- bis MB-Bereich und eine niedrige Rechenleistung (MHz-Taktfrequenz).