Skip to content
Licensed Unlicensed Requires Authentication Published by De Gruyter (O) April 8, 2024

KI-basierte Regelungskonzepte zur automatischen Spurregelung von Flurförderzeugen

AI-based control concepts for lateral vehicle guidance ofindustrial truckse
  • Timm Sauer

    Timm Sauer, M. Sc. ist seit 2018 wissenschaftlicher Mitarbeiter an der TH Aschaffenburg und seit 2020 Doktorand in einer kooperativen Promotion an der Otto-von-Guericke-Universität Magdeburg. Hauptarbeitsgebiete: Modellierung und Simulation, KI-basierte querdynamische Fahrzeugregelung.

    EMAIL logo
    , Klaus Zindler

    Prof. Dr.-Ing. Klaus Zindler ist Professor für Regelungs- und Automatisierungstechnik, Vizepräsident für Forschung und Transfer an der TH Aschaffenburg und Leiter des Technologietransferzentrums ZeWiS in Obernburg. Hauptarbeitsgebiete: Fahrzeugregelsysteme, hochautomatisiertes Fahren, Methoden zur modellgestützten Eigenlokalisierung von Fahrzeugen, KI-basierte Regelungskonzepte.

    and Ulrich Jumar

    Prof. Ulrich Jumar ist Leiter des Instituts für Automation und Kommunikation e.V. (ifak) in Magdeburg. Hauptarbeitsgebiete: Modellierung und Simulation, Steuerungs- und Regelungsentwurf in verschiedenen Anwendungsgebieten der Automation.

Zusammenfassung

In diesem Beitrag werden zwei KI-basierte Regelungskonzepte zur automatischen Spurführung von Flurförderzeugen (FFZ) einer heterogenen Logistikflotte vorgestellt. Während die modellfreien Verfahren des bestärkenden Lernens für diese Anwendung als Vertreter der direkten neuronalen Regelung vorgestellt werden, lässt sich das zweite Regelungskonzept in die Klasse der indirekten neuronalen Regelungen einordnen. Beide Konzepte zeichnen sich dadurch aus, dass sie dazu in der Lage sind, die Reglerparameter an verschiedene Varianten von FFZ anzupassen sowie vorab bekanntes Wissen bezüglich des Regelstreckenverhaltens beim Entwurf der Regler gezielt zu berücksichtigen.

Abstract

In this paper, two AI-based control concepts for automatic track guidance of industrial trucks of a heterogeneous logistics fleet are presented. While the model-free reinforcement learning methods are presented as representatives of direct neural control, the second control concept can be classified to indirect neural control. Both concepts are characterized by the fact that they are able to adapt to different industrial truck variants and to consider a priori knowledge of the controlled system behavior within the design process.


Korrespondenzautor: Timm Sauer, TH Aschaffenburg, Aschaffenburg, Germany, E-mail:

Über die Autoren

Timm Sauer

Timm Sauer, M. Sc. ist seit 2018 wissenschaftlicher Mitarbeiter an der TH Aschaffenburg und seit 2020 Doktorand in einer kooperativen Promotion an der Otto-von-Guericke-Universität Magdeburg. Hauptarbeitsgebiete: Modellierung und Simulation, KI-basierte querdynamische Fahrzeugregelung.

Klaus Zindler

Prof. Dr.-Ing. Klaus Zindler ist Professor für Regelungs- und Automatisierungstechnik, Vizepräsident für Forschung und Transfer an der TH Aschaffenburg und Leiter des Technologietransferzentrums ZeWiS in Obernburg. Hauptarbeitsgebiete: Fahrzeugregelsysteme, hochautomatisiertes Fahren, Methoden zur modellgestützten Eigenlokalisierung von Fahrzeugen, KI-basierte Regelungskonzepte.

Ulrich Jumar

Prof. Ulrich Jumar ist Leiter des Instituts für Automation und Kommunikation e.V. (ifak) in Magdeburg. Hauptarbeitsgebiete: Modellierung und Simulation, Steuerungs- und Regelungsentwurf in verschiedenen Anwendungsgebieten der Automation.

Danksagung

Das diesem Beitrag zugrundeliegende Projekt ,,KAnIS – Kooperative Autonome Intralogistik Systeme“ wurde mit Mitteln des Bayerischen Staatsministeriums für Wirtschaft, Landesentwicklung und Energie unter dem Förderkennzeichen DIK-1910-0016 gefördert. Die Autoren danken allen Studierenden, die zum Gelingen dieses Aufsatzes beigetragen haben.

  1. Ethical approval: The local Institutional Review Board deemed the study exempt from review.

  2. Competing interests: Authors state no conflict of interest.

  3. Informed consent: Informed consent was obtained from all individualsincluded in this study.

  4. Research funding: The funding organization played no role in the studydesign; in the collection, analysis, and interpretation of data; in thewriting of the report; or in the decision to submit the report forpublication.

  5. Data availability: Not applicable.

Literatur

[1] T. Bauernhansl, M. Ten Hompel, and B. Vogel-Heuser, Industrie 4.0 in Produktion, Automatisierung und Logistik: Anwendung Technologien Migration, Wiesbaden, Springer Vieweg, 2014.10.1007/978-3-658-04682-8Search in Google Scholar

[2] J. Pistorius, Industrie 4.0–Schlüsseltechnologien für die Produktion: Grundlagen, Potenziale, Anwendungen, Berlin, Springer-Verlag, 2020.10.1007/978-3-662-61580-5Search in Google Scholar

[3] K. Zindler, S. Hahn, S. Zecha, and G. Jürgens, “Querdynamische Fahrzeugführung zur reproduzierbaren Erprobung von Sicherheitssystemen,” at-Automatisierungstechnik, vol. 60, no. 2, pp. 61–73, 2012. https://doi.org/10.1524/auto.2012.0973.Search in Google Scholar

[4] S. Heinlein, S. Hahn, and K. Zindler, “Control methods for automated testing of preventive pedestrian protection systems,” Int. J. Veh. Syst. Model. Test., vol. 10, no. 2, pp. 127–147, 2015. https://doi.org/10.1504/ijvsmt.2015.068974.Search in Google Scholar

[5] H. Xie, L. Li, X. Song, W. Xue, and K. Song, “Parameter self-learning feedforward compensation-based active disturbance rejection for path-following control of self-driving forklift trucks,” Asian J. Control, vol. 25, no. 25, pp. 4435–4451, 2023. https://doi.org/10.1002/asjc.3110.Search in Google Scholar

[6] T. Tamba, B. Hong, and K. Hong, “A path following control of an unmanned autonomous forklift,” Int. J. Control Autom. Syst., vol. 7, no. 1, pp. 113–122, 2009. https://doi.org/10.1007/s12555-009-0114-y.Search in Google Scholar

[7] A. Mohammadi, I. Mareels, and D. Oetomo, “Model predictive motion control of autonomous forklift vehicles with dynamics balance constraint,” in 14th International Conference on Control, Automation, Robotics and Vision, 2016.10.1109/ICARCV.2016.7838833Search in Google Scholar

[8] D. Calzolari, B. Schürmann, and M. Althoff, “Comparison of trajectory tracking controllers for autonomous vehicles,” in 20th International Conference on Intelligent Transportation Systems, 2017.10.1109/ITSC.2017.8317800Search in Google Scholar

[9] H. Unbehauen, Regelungstechnik III: Identifikation, Adaption, Optimierung, Wiesbaden, Springer-Verlag, 2013.Search in Google Scholar

[10] J. Böcker, I. Hartmann, and C. Zwanzig, Nichtlineare und adaptive Regelungssysteme, Berlin, Springer-Verlag, 2013.Search in Google Scholar

[11] A. Levin and K. Narendra, “Control of nonlinear dynamical systems using neural networks: controllability and stabilization,” IEEE Trans. Neural Netw., vol. 4, no. 2, pp. 192–206, 1993. https://doi.org/10.1109/72.207608.Search in Google Scholar PubMed

[12] W. Choromanski, “Application of neural network for intelligent wheelset and railway vehicle suspension designs,” Veh. Syst. Dyn., vol. 25, no. 1, pp. 87–98, 1996. https://doi.org/10.1080/00423119608969189.Search in Google Scholar

[13] A. Driescher, “Prädiktive Regelung für Multimodellansätze mit neuronalen Netzwerken,” Dissertation, Otto-von-Guericke-Universität Magdeburg, 1998.Search in Google Scholar

[14] U. Korn and A. Driescher, “Ein Multimodellansatz für prädikative Regelungen mit neuronalen Netzen,” at-Automatisierungstechnik, vol. 44, no. 1, pp. 10–20, 1996. https://doi.org/10.1524/auto.1996.44.1.10.Search in Google Scholar

[15] R. Sutton and A. Barto, Reinforcement Learning: An Introduction, London, MIT press, 2018.Search in Google Scholar

[16] I. Goodfellow, Y. Bengio, and A. Courville, Deep Learning, Magdeburg, MIT press, 2016.Search in Google Scholar

[17] J. Chen, B. Yuan, and M. Tomizuka, “Model-free deep reinforcement learning for urban autonomous driving,” in IEEE Intelligent Transportation Systems Conference, 2019.10.1109/ITSC.2019.8917306Search in Google Scholar

[18] H. Kim, M. Jordan, S. Sastry, and A. Ng, “Autonomous helicopter flight via reinforcement learning,” Adv. Neural Inf. Process. Syst., vol. 16, no. 16, pp. 799–806, 2003.Search in Google Scholar

[19] S. Hahn, “Methoden zur nichtlinearen modellbasierten Spurführung benutzerdefinierter Punkte an der Fahrzeugfront,” Berichte aus der Steuerungs- und Regelungstechnik, Dissertation, Otto-von-Guericke Universität Magdeburg, Shaker Verlag, 2017.Search in Google Scholar

[20] T. Sauer, L. Spielmann, M. Gorks, K. Zindler, and U. Jumar, “Automatic track guidance of industrial trucks using self-learning controllers considering a priori plant knowledge,” in International Conference on Control, Automation and Diagnosis, IEEE, 2021.10.1109/ICCAD52417.2021.9638726Search in Google Scholar

[21] T. Sauer, M. Gorks, L. Spielmann, K. Zindler, and U. Jumar, “Adaptive self-learning controllers with disturbance compensation for automatic track guidance of industrial trucks,” SICE J. Control Meas. Syst. Integr., vol. 16, no. 1, pp. 84–97, 2022. https://doi.org/10.1080/18824889.2023.2183009.Search in Google Scholar

[22] T. Sauer, et al.., AI-Based Control Approaches for Lateral Vehicle Guidance of Industrial Trucks, Yokohama, IFAC World Congress, 2023.10.1016/j.ifacol.2023.10.1501Search in Google Scholar

[23] T. Sauer, L. Spielmann, M. Gorks, K. Zindler, and U. Jumar, “Model predictive control of industrial trucks with AI-based plant model selection,” in International Conference on Control, Decision and Information Technologies, 2023.10.1109/CoDIT58514.2023.10284427Search in Google Scholar

[24] M. Mitschke and H. Wallentowitz, Dynamik der Kraftfahrzeuge, vol. 4, Berlin, Springer-Verlag, 1972.Search in Google Scholar

[25] H. Pacejka, Tyre and Vehicle Dynamics, Oxford, Butterworth-Heinemann, 2006.Search in Google Scholar

[26] I. Söhnitz, “Querregelung eines autonomen Strassenfahrzeugs,” in Fortschr.-Ber. VDI Reihe, vol. 8, Frankfurt, VDI Verlag Düsseldorf, 2001.Search in Google Scholar

[27] H. Tan, J. Guldner, S. Patwardhan, C. Chen, and B. Bougler, “Developement of an automated steering vehicle based on roadway magnets – a case study of mechatronic system design,” IEEE/ASME TOM, vol. 4, no. 3, pp. 258–272, 1999.10.1109/3516.789684Search in Google Scholar

[28] L. König, Ein virtueller Testfahrer für den querdynamischen Grenzbereich, vol. 43, Renningen, Expert Verlag, 2009.Search in Google Scholar

[29] R. Dittmar and B. Pfeiffer, Modellbasierte prädiktive Regelung: Eine Einführung für Ingenieure, München, Oldenbourg Verlag, 2004.10.1524/9783486594911Search in Google Scholar

[30] L. Wang, Model Predictive Control System Design and Implementation Using MATLAB, Melbourne, Springer Science and Business Media, 2009.Search in Google Scholar

[31] G. Beneken, H. Ernst, and J. Schmidt, Grundkurs Informatik: Grundlagen und Konzepte für die erfolgreiche IT-Praxis-Eine umfassende, praxisorientierte Einführung, Rosenheim, Springer Vieweg, 2015.Search in Google Scholar

[32] K. Hornik, M. Stinchcombe, and H. White, “Multilayer feedforward networks are universal approximators,” Neural Netw., vol. 2, no. 5, pp. 359–366, 1989. https://doi.org/10.1016/0893-6080(89)90020-8.Search in Google Scholar

[33] B. Hanin and M. Sellke, “Approximating continuous functions by ReLU nets of minimal width,” 2017, arXiv preprint arXiv:1710.11278.Search in Google Scholar

[34] D. MacKay, “Bayesian interpolation,” Neural Comput., vol. 4, no. 3, pp. 415–447, 1992. https://doi.org/10.1162/neco.1992.4.3.415.Search in Google Scholar

[35] R. Rojas, Theorie der neuronalen Netze: eine systematische Einführung, Berlin, Springer-Verlag, 2013.Search in Google Scholar

[36] K. Levenberg, “A method for the solution of certain non-linear problems in least squares,” Q. Appl. Math., vol. 2, no. 2, pp. 164–168, 1944. https://doi.org/10.1090/qam/10666.Search in Google Scholar

[37] D. Marquardt, “An algorithm for least-squares estimation of nonlinear parameters,” J. Soc. Ind. Appl. Math., vol. 11, no. 2, pp. 431–441, 1963. https://doi.org/10.1137/0111030.Search in Google Scholar

[38] M. Puterman, Markov Decision Processes: Discrete Stochastic Dynamic Programming, New Jersey, John Wiley and Sons, 2014.Search in Google Scholar

[39] S. Fujimoto, H. Hoof, and D. Meger, “Addressing function approximation error in actor-critic methods,” in International Conference on Machine Learning, PMLR, 2018.Search in Google Scholar

[40] D. Silver, et al.., “Deterministic policy gradient algorithms,” in International Conference on Machine Learning, PMLR, 2014.Search in Google Scholar

Erhalten: 2023-08-21
Angenommen: 2024-01-18
Online erschienen: 2024-04-08
Erschienen im Druck: 2024-04-25

© 2024 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 22.5.2024 from https://www.degruyter.com/document/doi/10.1515/auto-2023-0155/html
Scroll to top button