[Back]


Doctor's Theses (authored and supervised):

N. Keuth:
"An Improved Neuro-Fuzzy Training Algorithm for Automotive Applications";
Supervisor, Reviewer: H. Jörgl, B. Geringer; E 325Institut für Mechanik und Mechatronik, Abteilung für Regelungstechnik und Prozessautomatiserung, 2004.



English abstract:
For the optimization of combustion engines more and more blackbox-models are used, built from simulation data or measurement data. Since test bed runs are very expensive, only a very low number of measurements is done. The emphasis of this thesis is to develop a model structure and a training algorithm, which is capable to model sparse data corrupted by noise efficiently and reliably. The algorithm should also be capable to handel high dimensional problems, as they occur in automotive applications efficiently.
The algorithm proposed in this thesis consists of two loops: In the outer loop the extent and shape of a new local model are determined. In the inner loop the parameters of the consequents are determined. A new center is placed where it is most needed, according to the modeling error. The size of the local model is determined by the alignment of the training data and statistical properties of the target. By this procedure each local model has highest possible statistical significance. The training is done till the performance criteria reaches a user defined boundary. As a performance function the modeling error is used.
If no more improvement can be reached the training is stopped and non significant local models are removed from the final model structure. The significance of a local model is given by the number of effective parameters.
Finally, confidence and prediction intervals for the model are computed. With the help of these and the statistical performance criteria R2 and R2pred the model quality can easily be evaluated.
To show the applicability of the INN algorithm some examples are presented. They show how the user can tune the training mainly by three parameters.
A major part of this work deals with real life applications, where the INN algorithm delivered very good results. The INN algorithm can be used for stationary and dynamic modeling and identification. With the statistical values the models deliver also a fault detection and isolation system (FDI) can be set up, what has been shown in a case study.

German abstract:
Bei der Optimierung von Verbrennungsmotoren werden verstärkt Blackbox-Modelle verwendet, um die teuren Prüfstandszeiten auf Grund der stark steigenden Variablen bei der Auslegung so kurz als möglich zu halten. Diese Modelle werden aus Simulationsdaten oder wo diese nicht verfügbar sind aus Messdaten gebildet. Da, wie schon erwähnt, Prüfstandszeiten teuer sind, werden nur so wenige Punkte wie möglich vermessen. Die Aufgabe dieser Arbeit war es daher einen Trainingsalgorithmus zu entwerfen, der aus wenigen rauschbehafteten Daten ein zuverlässiges und robustes Neuro-Fuzzy Model trainiert. Ein weiteres Problem mit welchem umgegangen werden muss ist die hohe Anzahl von Dimensionen dieser Optimierungsprobleme. Acht und mehr Eingänge in ein System sind heute keine Seltenheit mehr
Der hier vorgestellte Trainingsalgorithmus besteht aus zwei Schleifen. Die äußere Schleife be- stimmt das Zentrum eines neuen lokalen Modells und die Ausrichtung der Gültigkeitsfunktion.
Die innere Schleife berechnet die Parameter der Aktivierungsfunktion. Als Gültigkeitsfunktionen werden Gaußfunktionen verwendet, die Aktivierungsfunktionen sind Polynome zweiter Ordnung linear in den Parametern. Die Ausrichtung der Gültigkeitsfunktion wird anhand der
Lage der Daten im Eingangsraum bestimmt. Dabei wird darauf geachtet, dass die Parameter des quadratischen Models zuverlässig geschätzt werden können. Die Größe der Aktivierungsfunktion wird über eine Approximation des funktionalen Zusammenhangs der Zielfunktion bestimmt. Dazu wird ausgehend von der Stelle im Eingangsraum an der sich der größte Modellierungsfehler befindet, eine RLS (recursive least square) Schätzung durchgeführt. So wird gewährleistet, dass das lokale Modelloptimal an die Trainingsdaten angepasst werden kann.
Das Training ist beendet, wenn der maximale Fehler eine benutzerdefinierte Untergrenze unterschreitet. Danach wird noch überprüft ob sich "nicht signifikante lokale Modelle" im Gesamtmodell befinden. Nicht signifikante Modelle sind solche, welche nichts zum Gesamtmodell betragen, d.h. die Anzahl ihrer effektiven Parameter geht gegen Null.
Die Modellgüte kann über drei Statische Kennwerte und die Konfidenzintervalle überprüft werden. Über die Konfidenzintervalle kann man auch feststellen in welchen Bereichen das Modell besonders gut passt und wo noch weitere Messdaten notwendig sind.
Die Funktionalität des Algorithmus wird an einigen Beispielen gezeigt, wobei hier besonders auf die Trainingsparameter eingegangen wird. Außerdem wird die Anwendung des Algorithmus auf stationäre und dynamische Identifikationsprobleme gezeigt. Außerdem wird ein Fehlererkennungssystem unter Verwendung der mit dem hier vorgestellten Algorithmus trainierten Neuro-Fuzzy Modelle präsentiert.

Created from the Publication Database of the Vienna University of Technology.