PC-Control Was der Industrie-PC mit einem 32-GByte-RAM und einer 64-Core-CPU macht

Redakteur: Ute Drescher

Industrie-PCs werden immer leistungsfähiger und kommen damit den komplexer werdenden Anforderungen der Steuerungstechnik entgegen. Beckhoff-Experten geben einen Überblick über die Veränderung der Automatisierungssoftware in den letzten 22 Jahren, die Auswirkungen von Industrial-Multi-Core, die Zukunft der Automatisierungen sowie die Integration der Messtechnik in die Software-SPS.

Anbieter zum Thema

Beckhoff hat 1986 die erste PC-Steuerung ausgeliefert. Wie hat sich die Automatisierungssoftware in den letzten 22 Jahren verändert?

Andreas Thome, Produktmanager PC-Control: Rasant, aber auch beständig. Ein wichtiger Schritt war die Einführung des Programmierstandards IEC 61131-3 als universelle SPS-Programmiersprache. Dadurch ist vieles zusammengerückt und die Anbieter sind in puncto Softwareeigenschaften für die Kunden etwas vergleichbarer geworden.

Ein weiterer zentraler Punkt in der Entwicklung der Automatisierungssoftware war und ist das Thema der Echtzeitfähigkeit innerhalb des jeweiligen Betriebssystems. Hier ist festzustellen, dass die Automatisierungswelt es geschafft hat, die Echtzeitfähigkeit stabil und zuverlässig zu implementieren. Am Beispiel Beckhoff wird dies besonders deutlich: Unter allen Microsoft Betriebssystemen – beginnend mit DOS, über Windows 95/98, NT, 2000 bis hin zu Windows XP und Vista – konnte eine harte Echtzeit mit Reaktionszeiten im Bereich von einer Millisekunde und darunter implementiert werden.

Ramon Barth, Leiter der Grundlagen-Softwareentwicklung: Die heutige Automatisierungssoftware weist einen deutlich höheren Abstraktionsgrad auf, als es 1986 noch der Fall war. Dies wird durch höhere Programmiersprachen unterstützt. Anweisungsliste und Kontaktplan sind seit Einführung der IEC 61131-3 auf dem Rückzug.

Zu beobachten ist weiterhin eine zunehmende Modularisierung der Software mit dem Ziel der besseren Wiederverwendbarkeit und Wartung. Moderne PC-Prozessoren gleichen die dafür benötigte Rechenleistung mehr als aus. Die Integration von Automatisierungsgeräten in IT-Netzwerke ist dank PC-Technik weit fortgeschritten.

Was ist Ihre Zukunftsvision für eine neue Generation Industrie-PCs/Embedded-PCs?

Andreas Thome: Im Vordergrund stehen die Entwicklungen rund um das Thema „leistungsfähige Prozessoren bei sehr niedriger Wärmeabgabe“. Die kommenden Produkte der Firma Intel – und hier sind besonders die Intel-Atom-Prozessoren (Menlow-Plattform mit Silverthorne-CPU und Poulsbo-Chipsatz) zu nennen – ermöglichen einen weiteren Schritt in der Leistungsdichte der Industrie-PCs. Viel Rechenleistung auf kleinstem Raum – das beflügelt die Phantasie der Ingenieure und Designer, und man darf auf neue Formfaktoren gespannt sein. Erste Produkte mit Atom-Prozessor stellt Beckhoff auf der SPS/IPC/DRIVES 2008 in Nürnberg vor.

Welche Auswirkungen haben Multi-Core-Prozessoren auf neue Steuerungsarchitekturen?

Ramon Barth: Die hohe Rechenleistung von PC-Steuerungen ermöglicht softwarebasierte Automatisierungslösungen, die in der Vergangenheit nur von dezidierten Hardware-Baugruppen erbracht werden konnten. Durch Multi-Core-Prozessoren wird dieser Trend noch weiter verstärkt, da zum Beispiel rechenzeitintensive schnelle Algorithmen einen der Cores exklusiv nutzen können.

Andreas Thome: In der Automatisierungstechnik profitiert derzeit hauptsächlich das Betriebssystem von der Dual- und Quad-Core-Technologie. Der unmittelbare Vorteil für den Anwender ergibt sich aus der schneller ablaufenden Visualisierungssoftware, die trotz gleichzeitig laufender Echtzeitautomatisierung noch flüssig agiert und mit schnellen Bildumschaltzeiten und 3-D-Grafik aufwarten kann. Für die Zukunft ist das natürlich nicht ausreichend. Auch die Automatisierungssoftware kann auf die einzelnen Kerne aufgeteilt werden, um zum Beispiel mehrere Tasks innerhalb eines preemptiv arbeitenden Gesamtsystems zu gleicher Zeit ablaufen zu lassen.

Was macht der Industrie-PC mit 32 GByte RAM und einer 64-Core-CPU?

Josef Papenfort: Der IPC wird sicherlich immer noch das machen, was er jetzt schon bei Beckhoff macht: auf einem Gerät I/O, SPS und Motion Control ablaufen lassen. Der Trend zu immer komplexer werdenden SPS-Programmen ist jetzt schon erkennbar. Zykluszeiten werden immer kleiner werden. Die Anzahl der synchron zu regelnden Achsen wird weiter zunehmen, und die Art der Kopplung der Achsen untereinander wird komplexer werden. Elektronische Kurvenscheiben und elektronische Getriebe werden ebenfalls zunehmen. Viele Achsen werden in Zukunft interpoliert betrieben werden. Aber all das wird in einigen Jahren eine dann moderne CPU nicht auslasten können. Integrierte Vision- und Robotiksysteme werden sicherlich in Software realisiert werden. Moderne und altbekannte Regelalgorithmen – wie Neuronale Netze – können mit genügend CPU-Leistung vielleicht industriell tauglich gemacht werden. Komplexere Maschinen verlangen auch mehr an Diagnose und Instandhaltung. Expertensysteme und ausgefeilte Diagnosen werden dem Endanwender das Leben einfacher machen. Nicht zuletzt können auch neue Ein- und Ausgabemöglichkeiten, zum Beispiel eine Spracheingabe, die Bedienung einer Maschine vereinfachen.

Uwe Prüßmeier: „Schneller, höher, weiter!” geht natürlich immer, aber es sollte kein Selbstzweck sein. Der Anwender muss einen klaren Vorteil durch die größere Leistung bekommen. Zunächst ist nicht mit steigenden Kosten für die Mehrleistung zu rechnen. Also lautet die Frage wirklich nur: „Was stellt man damit an?“ Allgemeine Anforderungen sind die Vereinfachung der Bedienung, die Verbesserung der Integration in andere Systeme sowie die Optimierung der Visualisierung. Auch bei den Steuerungsaufgaben gibt es Verbesserungsmöglichkeiten: schnellere Programmabarbeitung, kürzere Zykluszeiten, vorausschauende Wartung und verbesserte Diagnose. Auch eine Online-Qualitätskontrolle des Fertigungsprozesses kann möglich werden.

Andreas Thome: Seit Anbeginn der PC-Technik träumte man von KI – der künstlichen Intelligenz. Leider ist hier bis heute keine dem Menschen ähnliche Intelligenz nachgebildet worden. Diesem Traum könnte man in Zukunft mit mehreren Kernen und brachialer Rechengewalt durchaus näher kommen. Die Verfahren der Gesten-, Sprach- und Bilderkennung können auf den kommenden Rechnergenerationen auf Terrabytes an lokalen Daten zugreifen und zumindest als ausgefeilte Expertensysteme helfen. Diese können in der Industrie (aber nicht nur dort) zur Verbesserung der Prozessbedienung, zur menschlicheren Interaktion, zur schnelleren Fehlersuche und zur Prüfung der Produktqualität eingesetzt werden. Jeder Anlagenteil oder jedes Maschinenmodul könnte einem Kern zugeordnet werden, sodass eine parallele Abarbeitung mit hohen Taktzahlen erfolgen könnte. Die Erfahrungen der letzten Jahrzehnte zeigen allerdings, dass sprunghafte technologische Entwicklungen – nur aufgrund schnellerer Rechner – nicht zu erwarten sind: Man kann vieles schneller und besser und daraus entwickeln sich kontinuierlich neue Möglichkeiten – denn wer hätte vor einigen Jahren gedacht, dass uns eine kleine „Schachtel“ den Weg anzeigen, ihn mit Sprache ansagen und gleichzeitig noch die Sehenswürdigkeiten kommentieren würde?

Wie werden Funktionen, wie Messtechnik, Bildverarbeitung und Robotik heute üblicherweise realisiert?

Josef Papenfort, Produktmanager TwinCAT: Heute werden Spezialfunktionen für Messtechnik, Bildverarbeitung und Robotik meist in getrennten CPUs realisiert. Die Funktionalität ist entweder im Feld verteilt oder per Einsteckkarte im PC realisiert. Es werden nur die konzentrierten Daten an die zentrale Steuerung übertragen. Die Vorverarbeitung findet in den ‚Black Boxes‘ statt und kann in der Regel nicht geändert werden.

Welche Vorteile bietet die Integration dieser Funktionen in die PC-Steuerung?

Josef Papenfort: Wenn die Spezialfunktionen in Software realisiert werden, kann der Programmierer noch eingreifen. Zum Beispiel können spezielle Filter oder Regler vom Anwender selbst programmiert werden.

Wie ist die PC-basierte Messtechnik in das Beckhoff-Gesamt-Automatisierungskonzept eingebunden?

Josef Papenfort: Messtechnik ist ein wesentlicher Bestandteil eines Automatisierungssystems. Nur durch Integration in eine CPU können alle Funktionen eines Messsystems optimal genutzt werden. Bisher sind viele Filter und Regler schon durch SPS-Bibliotheken nutzbar. Zudem ist eine Anbindung an kommerzielle Tools, zum Beispiel LabView oder Matlab/Simulink, möglich.

Welche konkreten Produkte sind bereits heute vorhanden? Welche weiteren Entwicklungen sind geplant?

Josef Papenfort: Bereits heute können Messdaten mit dem performanten Feldbus in die zentrale SPS transportiert werden. Eine Reihe von SPS-Bibliotheken mit verschiedenen Filtern und Reglern steht hierzu bereits zur Verfügung und wird intensiv von Kunden genutzt. Geplant ist die noch bessere Integration von Tools, wie LabView und Matlab/Simulink.

Was ist Ihre Zukunftsvision für die PC-basierte Messtechnik?

Josef Papenfort: Auf der einen Seite natürlich die optimale Nutzung von EtherCAT, um Messwerte schnell und mit genauen Zeitstempeln in die SPS zu bekommen. Dazu ist das Feature Distributed-Clocks von EtherCAT wesentlich. Als nächstes müssen Bibliotheken mit digitalen Filtern und Reglern zur Verfügung stehen und – darauf aufbauend – müssen bekannte und bewährte Produkte aus dem Bereich Mess- und Regeltechnik besser angebunden werden.

SPS/IPC/DRIVES 2008

Halle 7, Stand 406

(ID:273543)