Die Einführung des VIVO-Systems an der HTWD befindet sich derzeit in der Testphase. Daher kann es noch zu anwendungsseitigen Fehlern kommen. Sollten Sie solche Fehler bemerken, können Sie diese gerne >>hier<< melden.
Sollten Sie dieses Fenster schließen, können Sie über die Schaltfläche "Feedback" in der Fußleiste weiterhin Meldungen abgeben.
Vielen Dank für Ihre Unterstützung!
Anwendung von Reinforcement Learning in industriellen cyberphysischen Systemen
Buch
Die wachsende Besorgnis über den Klimawandel bewirkt, dass bei der Festlegung von Meilensteinen und Produktionsparametern für Fertigungssysteme ein größerer Fokus auf Energieeinsparung, Ressourcenschonung und Wandlungsfähigkeit gelegt wird. Dies ist auch notwendig, denn die Energiepreise steigen kontinuierlich an und durch den weltweiten Ausbruch von COVID-19 wurden die Lieferketten immer wieder gestört. Gleichzeitig hat die hohe Volatilität und Dynamik innerhalb der globalen Wertschöpfungsnetzwerke in letzter Zeit zu einer spürbaren Verkürzung der Produkt- und Technologiezyklen geführt. Darüber hinaus wandeln sich die Wünsche der Kunden, diese werden zunehmend anspruchsvoller und spezifischer. Um diesen Marktanforderungen gerecht zu werden, mussten und müssen Unternehmen ihre Fertigungsprozesse immer wieder anpassen und abwandeln. Ein wachsendes Portfolio und sinkende Auftragsvolumina (bis hin zur Losgröße 1) ergeben sich im Resultat. Um einen effektiven und effizienten Produktionsablauf zu realisieren, bedarf es ein dynamisches Regelwerk. Dieses bestimmt für die bestehenden Montagelinien und deren Fertigungszellen, unter Be- rücksichtigung des aktuellen Zustandes, auf welchen Stationen ein konkretes Produkt gefertigt werden soll. Gegenwärtig geschieht dies meist statisch über ein Manufacturing Execution System, welches für ganze Chargen entscheidet und üblicherweise nicht (oder nur schwerfällig) auf Unsicherheiten wie den Ausfall einer Operation, den Schwankungen in den Operationszeiten oder in der Qualität des Rohmaterials reagieren kann. Mit einem besonderen Fokus auf die Reduzierung der Gesamtproduktionszeit (und dem damit einhergehenden Energieverbrauch) eines Auftrags stellen wir in diesem Beitrag eine Simulationsumgebung vor, die eine Montagelinie des Industrial IoT Test Bed (an der HTW Dresden) nachbildet. Auf diese wenden wir vielversprechende Reinforcement Learning Methoden an, um für unterschiedliche Szenarien automatisiert eine kosteneffiziente Ressourcenzuweisung zu realisieren.