← Zurück zu Design-Mustern
Autonomous vehicles Mixed Evidence Robotics & aerial systemsMobile roboticsIndustrial automation
MPCGaussian ProcessNeural MPCAdaptive controlLearning-based controlChance constraintsSafe learning

Learning-Augmented Adaptive MPC — Die Lücke zwischen Modell und Realität schließen für höhere Leistung

Warum das relevant ist (Zusammenfassung für Entscheider)

  • Das Problem: Modelle aus ersten Prinzipien erfassen selten alle realen Effekte — Reifenschlupf an der Grenze, unbekannte Nutzlasten, wechselnde Umgebungsbedingungen oder strukturelle Abnutzung erzeugen Modellfehler, die die MPC-Leistung verschlechtern und die Sicherheit beeinträchtigen können.
  • Die Lösungsklasse: Learning-augmented MPC fügt einem nominalen MPC eine datengetriebene Komponente (Gaussian Process, neuronales Netz oder adaptives Gesetz) hinzu und korrigiert den residualen Modellfehler online oder aus zuvor erfassten Daten.
  • Messbare Ergebnisse: Veröffentlichte Experimente berichten von bis zu 82 % Reduktion des Nachführfehlers, 10 % Rundenzeiteinsparung an der Renngrenze und nachweislich sicherem Chance-Constraint-MPC mittels Gaussian-Process-Unsicherheit — bei gleichzeitig erhaltener Echtzeitfähigkeit und Einhaltung aller Nebenbedingungen.
  • Warum das für den Betrieb relevant ist: Sie können mit einem soliden nominalen MPC beginnen und das Lernen gezielt dort ergänzen, wo Modellfehler messbar sind und die Leistung begrenzen — ohne vollständige Modellneuschreibung.

Das Entwurfsmuster erklärt

Learning-augmented MPC behält ein physikbasiertes nominales Modell als Grundlage und ergänzt es um einen gelernten Korrekturterm, der erfasst, was das nominale Modell nicht abbildet. Die Korrektur kann verschiedene Formen annehmen:

  • Gaussian Process MPC (GP-MPC): Ein GP lernt die residuale Dynamik aus Betriebsdaten und liefert kalibrierte Unsicherheitsschätzungen. Der MPC kann dann die Nebenbedingungen in Bereichen hoher Unsicherheit enger fassen und so die Sicherheit wahren, während er verbesserte Vorhersagen dort ausnutzt, wo die Konfidenz hoch ist. 1
  • Neural MPC: Ein neuronales Netz (mit potenziell Tausenden von Parametern) ersetzt oder erweitert das Dynamikmodell. Die zentrale ingenieurtechnische Herausforderung besteht darin sicherzustellen, dass die Netzauswertung in eine Echtzeitoptimierungsschleife passt — aktuelle Fortschritte zeigen, dass dies bei 50 Hz auf eingebetteter Hardware machbar ist. 2
  • Adaptive MPC (MRAC + MPC): Model Reference Adaptive Control aktualisiert Parameter online ohne offline Neutraining und macht den Regler robust gegenüber sich ändernder Dynamik wie unterschiedlichen Lasten oder Kontaktbedingungen. 3
  • Safe GP-MPC mit Chance Constraints: GP-Unsicherheitsschätzungen werden verwendet, um Zustandsnebenbedingungen konservativ zu verschärfen — harte Nebenbedingungen werden in probabilistische Chance Constraints umgewandelt, die mit festgelegter Wahrscheinlichkeit eingehalten werden, was Lernen ohne Verzicht auf Sicherheitsgarantien ermöglicht. 4

Die Architektur folgt einem konsistenten Muster: Schätzung (Zustand + Modellunsicherheit) speist eine Planungs-/Optimierungsschicht (MPC mit gelernter Dynamik), die begrenzte Stellgrößen ausgibt, mit einem Sicherheits-Fallback auf den nominalen Regler, wenn die Lernkonfidenz sinkt.

Lineares MPC vs. NMPC bei lernbasierter Regelung: Der zugrunde liegende Optimierungstyp hängt davon ab, ob das augmentierte Dynamikmodell linear oder nichtlinear ist — das Hinzufügen eines gelernten Korrekturterms bestimmt dies nicht per se. GP-MPC für autonomes Rennen (Anwendung 1) und Neural MPC für Quadrotoren (Anwendung 2) betten gelernte Korrekturen in inhärent nichtlineare Fahrzeug- und aerodynamische Dynamiken ein → die Optimierung bleibt ein nicht-konvexes Nichtlineares Programm (NLP), typischerweise gelöst über Real-Time Iteration (RTI). Lernbasiertes NMPC für mobile Roboter (Anwendung 3) und Safe GP-MPC mit Chance Constraints (Anwendung 6) operieren ebenfalls auf nichtlinearer Roboterdynamik. Diese Anwendungen erzielen die ausgewiesenen Leistungsgewinne (10 % Rundenzeiteinsparung, 82 % Reduktion des Nachführfehlers) gerade deshalb, weil die zugrunde liegende Physik nichtlinear ist und der gelernte Korrekturterm Dynamiken erfasst, die Linearisierung verwirft. Adaptive lineare MPC (MRAC + MPC) (Anwendung 4) und inkrementelles modellfreies MPC (Anwendung 5) sind grundlegend anders: Die Manipulator- oder Mobilplattformdynamik wird als lineares Modell behandelt, das adaptiv aktualisiert wird — die Optimierung bleibt bei jedem Schritt ein konvexes QP mit garantiertem globalem Optimum. Dies ermöglicht den Einsatz auf Standard-Industriereglern ohne GPU oder spezialisierte Solver, auf Kosten der Unfähigkeit, stark nichtlineare Betriebsregimes zu erfassen. Die praktische Leitlinie: Wenn Ihr System nahe eines linearisierbaren Regimes operiert und Modellfehler sich langsam ändern (Nutzlaständerungen, Werkzeugverschleiß), ist adaptives lineares MPC einfacher und sicherer; wenn Leistungsgrenzen die Ausnutzung nichtlinearer Dynamik erfordern (Reifensättigung, aerodynamische Kopplung, Kontaktnichtlinearität), ist NMPC mit gelernten Korrekturen die angemessene — wenn auch anspruchsvollere — Wahl.

Anwendungen & Referenzimplementierungen

Anwendung 1: GP-MPC für autonomes Rennen — ETH Zürich

Ein vollgroßes autonomes Rennfahrzeug (AMZ, ETH Zürich) verwendete Gaussian-Process-Regression, um residuale Reifendynamik zu lernen, die ein nominales Einspurmodell an der Leistungsgrenze nicht erfassen konnte. Der GP-augmentierte Contouring-MPC operierte bei Querbeschleunigungen von bis zu 2 g und Geschwindigkeiten von 15 m/s, mit einem wörterbuchbasierten Datenverwaltungsansatz für kontinuierliche Online-Aktualisierungen. Die Experimente berichteten von einer Rundenzeiteinsparung von etwa 10 % gegenüber dem nominalen MPC als Ausgangslage. Dies zeigt, dass selbst ein gut abgestimmtes Physikmodell von datengetriebener Korrektur profitiert, wenn es nahe dynamischer Grenzen betrieben wird. 1

Anwendung 2: Echtzeit-Neural-MPC auf einem Quadrotor — Universität Zürich

Forscher integrierten ein großes neuronales Netzdynamikmodell (mit über 4.000-facher parametrischer Kapazität gegenüber früheren Neural-MPC-Implementierungen) in eine MPC-Pipeline, die bei 50 Hz auf einer eingebetteten Plattform läuft. Auf einem agilen Quadrotor, der aggressive Manöver durchführt, erreichte der Neural MPC bis zu 82 % geringeren positionellen Nachführfehler im Vergleich zu MPC ohne neuronale Dynamik. Die Arbeit beweist, dass moderne neuronale Architekturen in Echtzeitoptimierungsschleifen eingesetzt werden können, ohne Zeitbeschränkungen zu verletzen, und öffnet die Tür für industrielle eingebettete Anwendungen. 2

Anwendung 3: Lernbasiertes NMPC für sichtbasierte mobile Roboter — Universität Toronto

Ein lernbasiertes nichtlineares MPC wurde auf zwei mobilen Roboterplattformen (50 kg und 160 kg) für sichtbasiertes Pfadverfolgen über Strecken von 1,8 km und 500 m bei Geschwindigkeiten bis zu 1,6 m/s evaluiert. Das gelernte Modell kompensierte geländeabhängigen Modellfehler, der das reine sichtbasierte Verfolgen verschlechterte. Weitreichende Feldversuche validierten, dass der Ansatz über wechselnde Außenbedingungen hinweg robuste Leistung beibehält — eine kritische Anforderung für Logistik-, Landwirtschafts- und Inspektionsroboter. 5

Anwendung 4: Adaptive Interaktionsregelung (MRAC + MPC) für das Öffnen von Türen — ETH Zürich

Ein mobiler Manipulator verwendete MRAC kombiniert mit MPC, um Türen mit unterschiedlicher Dynamik (leichte und schwere Türen) zu öffnen. Die adaptive Schicht aktualisierte Interaktionsparameter online und reduzierte den winkel-RMSE von 6,7 Grad (Ausgangslage) auf 1,4 Grad (MRAC+MPC) bei einer leichten Tür und von 3,2 Grad auf 1,6 Grad bei einer schweren Tür, wobei Kraftprofile von 10–15 N bzw. 20–25 N eingehalten wurden. Dieses Muster überträgt sich direkt auf jede Industrieaufgabe, bei der ein Roboter mit Objekten interagieren muss, deren Dynamik sich zwischen Zyklen ändert — Palettieren, Maschinenbedienen oder Montage mit variablen Vorrichtungen. 3

Anwendung 5: Inkrementelles MPC mit Zeitverzögerungsschätzung — TUM/DLR

Ein inkrementelles (modellfreies) MPC verwendete Zeitverzögerungsschätzung, um ein implizites Dynamikmodell zu konstruieren, ohne explizite Streckenidentifikation zu erfordern. Validiert an einem realen 3-DoF-Manipulator mit Maxon-Motor-Instrumentierung vermeidet dieser Ansatz den Aufwand und die Fragilität der Systemidentifikation, während er MPC-qualitatives Nebenbedingungshandling beibehält. Er ist besonders attraktiv für Altsysteme, bei denen detaillierte Modelle nicht verfügbar sind. 6

Anwendung 6: Safe GP-MPC mit Chance Constraints — ETH Zürich

Hewing, Kabzan und Zeilinger (ETH Zürich) entwickelten ein vorsichtiges GP-MPC-Framework, bei dem Gaussian-Process-Unsicherheitsschätzungen verwendet werden, um Zustandsnebenbedingungen konservativ zu verschärfen — harte Nebenbedingungen werden in probabilistische Chance Constraints umgewandelt, die mit festgelegter Konfidenz eingehalten werden. Der Regler wurde auf einem Miniatur-Rennwagen im Maßstab 1/43 validiert und auf einem vollgroßen autonomen Fahrzeug demonstriert: Selbst beim Online-Lernen der residualen Dynamik garantierte die Chance-Constraint-Formulierung, dass Sicherheitsgrenzen in allen Versuchen eingehalten wurden. Mit zunehmender GP-Konfidenz durch mehr Daten lockerte sich die Nebenbedingungsverschärfung automatisch und erholte die Leistung, ohne die Sicherheit zu opfern. Veröffentlicht in IEEE Transactions on Control Systems Technology (2020). Dieser Ansatz ist die prinzipielle Antwort auf die Frage: „Wie lernt man in sicherheitskritischen Systemen, ohne während der Lernphase Nebenbedingungen zu verletzen?” 4

Was das für Ihren Betrieb bedeutet

Learning-augmented MPC ist am wertvollsten, wenn die Physik Ihres Systems grundsätzlich gut verstanden ist, aber standortspezifische Bedingungen variieren — Produktmixwechsel, Ausrüstungsverschleiß, Umgebungsdrift oder Nutzlastvariabilität. Der praktische Ausgangspunkt ist immer ein funktionierender nominaler MPC; das Lernen wird gezielt dort ergänzt, wo Modellfehler messbar sind und die Leistung begrenzen.

Typische Bereitschaftsindikatoren:

  • Sie betreiben bereits MPC oder eine fortgeschrittene Regelung, beobachten aber Leistungsabfall bei wechselnden Bedingungen.
  • Sie verfügen über Betriebsdaten (Protokolle, Sensoren), die die Bedingungen erfassen, bei denen die Leistung nachlässt.
  • Ihre Regelungshardware hat Rechenreserven (oder kann aufgerüstet werden) für die Lernkomponente.

Wie wir liefern (Engagement-Modell)

  • Phase 0: NDA + Datenanfrage — Betriebsprotokolle, Modelldokumentation und Leistungsausgangslage erfassen. Identifizieren, wo Modellfehler der Engpass ist.
  • Phase 1: Discovery mit festem Umfang (Konzept + Machbarkeit) — Modellfehler aus Daten quantifizieren. Den Lernansatz (GP, neural, adaptiv) anhand von Datenverfügbarkeit, Echtzeitbudget und Sicherheitsanforderungen auswählen. Ein Konzeptdokument mit Architektur, Risikobewertung und Validierungsplan liefern.
  • Phase 2: Implementierung + Validierung + Inbetriebnahme — Den learning-augmented Controller aufbauen. An repräsentativen Szenarien validieren. Inbetriebnahme mit sicherem Fallback auf den nominalen Regler während der Hochlaufphase.
  • Phase 3: Monitoring + Schulung + Skalierung — Monitoring für Modellkonfidenz und Nebenbedingungsaktivität einrichten. Bediener schulen, wann die Lernkomponente aktiv ist versus Fallback. Skalierung auf weitere Betriebspunkte oder Schwesteranlagen.

Typische KPIs zur Verfolgung

  • Nachführfehlerreduktion (Position, Kontur, Kraft) gegenüber nominalem MPC als Ausgangslage
  • Modellvorhersagefehler (Residual) vor und nach dem Lernen
  • Nebenbedingungsverletzungsrate und Sicherheitsmargennutzung
  • Echtzeit-Lösezeit und Worst-Case-Rechenbudget
  • Häufigkeit von Bedienerinterventionen und manuelle Übersteuerungsrate

Risiken & Voraussetzungen

  • Lernen benötigt Daten: Die Lernkomponente ist nur so gut wie die Daten, auf denen sie trainiert wurde. Ausreichende Abdeckung des Betriebsbereichs sicherstellen.
  • Sicherheit unter Unsicherheit: Gelernte Modelle führen epistemische Unsicherheit ein. Verantwortungsvolle Ansätze beschränken Vorhersagen entweder auf hochkonfidente Bereiche (Chance Constraints) oder fallen auf einen nominalen sicheren Regler zurück.
  • Rechenbudget: Neural MPC erfordert Hardware mit ausreichender Rechenkapazität. Echtzeitfähigkeit frühzeitig verifizieren.
  • Wartung: Gelernte Modelle können periodisches Neutraining erfordern, wenn sich die Anlage ändert. Modell-Lebenszyklusmanagement einplanen.

FAQ

Kann ich Lernen zu meinem bestehenden MPC hinzufügen, ohne ihn zu ersetzen? Ja — das häufigste Muster ist, den nominalen MPC intakt zu lassen und einen residualen Korrekturterm hinzuzufügen. Wenn die Lernkomponente ausfällt oder die Konfidenz sinkt, fällt das System auf den nominalen Regler zurück.

Wie viele Daten benötige ich? Das hängt vom Ansatz ab. GP-MPC kann mit Dutzenden bis Hunderten von Datenpunkten pro Betriebsbereich funktionieren. Neural MPC benötigt typischerweise mehr Daten, kann aber besser über Bedingungen hinweg generalisieren. Adaptive Ansätze (MRAC) aktualisieren online aus wenigen Zyklen.

Ist das für die Produktion sicher? Sicherheit hängt von der Fallback-Architektur und der Nebenbedingungsformulierung ab. Der Chance-Constraint-GP-MPC-Ansatz (Anwendung 6) bietet formale Garantien: Nebenbedingungen werden mit festgelegter Wahrscheinlichkeit eingehalten, selbst beim Online-Lernen. Alle verantwortungsvollen Implementierungen umfassen entweder Nebenbedingungsverschärfung unter Unsicherheit oder einen sicheren nominalen Fallback-Modus.

Welche Rechenhardware wird benötigt? GP-MPC läuft auf Standard-Industrie-PCs. Neural MPC bei hohen Raten kann GPU oder optimierte Inferenz erfordern. Die richtige Wahl hängt von Ihrer Regelrate und Modellkomplexität ab.

30-minütigen Discovery-Call buchen

Bereit zu erkunden, ob dieses Muster zu Ihrem System passt?

Dr. Rafal Noga — Unabhängiger APC/MPC-Berater

📧 E-Mail · 🌐 noga.es

Fester Projektumfang · NDA zuerst · DACH-Vor-Ort-Einsätze möglich

Öffentliche Referenzen

Footnotes

  1. Kabzan et al., “Learning-Based Model Predictive Control for Autonomous Racing” (ETH Research Collection). https://www.research-collection.ethz.ch/bitstreams/7d0faa11-1667-481c-a497-ca7ef4611521/download 2

  2. Salzmann et al., “Real-time Neural MPC: Deep Learning Model Predictive Control for Quadrotors and Agile Robotic Platforms” (RAL, 2023). https://rpg.ifi.uzh.ch/docs/RAL2023_Salzmann.pdf 2

  3. Batzianoulis et al., “Adaptive Interaction Control for Robotic Door Opening” (arXiv, 2021). https://arxiv.org/pdf/2106.04202 2

  4. Hewing, Kabzan, Zeilinger, “Cautious Model Predictive Control Using Gaussian Process Regression” (IEEE Transactions on Control Systems Technology, 2020). https://doi.org/10.1109/TCST.2019.2949757 2

  5. Ostafew et al., “Learning-Based Nonlinear Model Predictive Control to Improve Vision-Based Mobile Robot Path Tracking” (ICRA, 2014). https://asrl.utias.utoronto.ca/wp-content/papercite-data/pdf/ostafew_icra14.pdf

  6. “Incremental MPC Exploiting Time-Delay Estimation” (TUM/DLR). https://mediatum.ub.tum.de/doc/1732774/1732774.pdf

📅 Bei Calendly buchen

War dieser Artikel hilfreich?

Kontakt

Nachricht senden

Öffnet Ihr E-Mail-Programm mit vorausgefüllter Nachricht

Ihre Daten werden über FormSubmit.co verarbeitet und ausschließlich zur Beantwortung Ihrer Anfrage verwendet. Kein Marketing ohne Ihre Zustimmung.

Direkter Kontakt

Dr. Rafał Noga

Termin

Kostenlosen 30-min Video-Call direkt über Calendly buchen.

Bei Calendly buchen

Bleiben Sie informiert

Erhalten Sie Einblicke zu Industrieller KI, APC und Prozessoptimierung direkt in Ihr Postfach.