[Back]


Doctor's Theses (authored and supervised):

T. Strasser:
"Einsatz von künstlichen neuronalen Netzen zur Messdatenplausibilitätsprüfung bei automatischen Messungen an Motorprüfständen";
Supervisor, Reviewer: H. Jörgl, B. Geringer; Institut für Maschinen- und Prozessautomatisierung, 2003; oral examination: 2003-09-23.



English abstract:
In order to achieve maximum productivity, modern automotive measuring systems are now highly sophisticated, characterized by complex interrelationships between sub-systems. The developer's growing need for reliable assessments gives rise to an online monitoring system that automatically checks measured data for consistency.

The task of this work is to analyse training data and to build a probability model based on these data using neural networks. However, in a measuring environment in the automotive field there are often several hundreds of measurements to be processed simultaneously which entails the problem that any model has to be built in a high dimensional measurement space. In the present application one has to deal with an unknown number of channels whereby physical interrelationships between two or more channels are not known to the system. Rather, it is required that the fault detection system adapts itself to all kinds of test bed configurations automatically. Therefore, statistical pattern recognition methods are useful for fault detection.

Therefore, in a first step common transformations, such as principal component analysis and independent component analysis are used to find non-sparse regions of the measurement space. This is a common way to deal with a large number of measurements, especially in the field of fault detection in large industrial plants.

Using the first few transformed channels distribution functions of different dimensions involving one or more channels are modelled. For this purpose kernel regression methods are used since they represent a well established means for continuous distribution function estimation. The distribution function resulting from kernel regression has two drawbacks: First, it needs a huge number of parameters which makes it difficult to determine structures like clusters of data points. This is crucial to the present application since training data can originate from merging data of different test cycles resulting in more or less isolated clusters. Second, the distribution function in it's given form is time consuming to evaluate and thus inappropriate for online application. To overcome this problem in a second step the given distribution function is approximated by a neural network. In order to reduce the number of basis functions as much as possible an ellipsoidal basis function network is trained. In the present approach the neuron structure of this network fit a neuron to the target function as closely as possible using Taylor's theorem. It turned out that this requires a special training procedure, however, a target function can be approximated with significantly less neurons compared to radial basis function networks.

Even during normal operation of the engine test-bed new training data are provided for fault detection and it is required that the system is able to adapt itself autonomously to the new data. Therefore an adaptation algorithm is also described in this work. Another chapter describes the fault isolation problem.

Application to both simulated and real measurement data show that the proposed method yields good results. The present algorithm are also used in a virtual chemical process, that is often used for comparison of fault diagnosis systems.

German abstract:
Bei automatischen Messungen an Motorprüfständen fallen üblicherweise beträchtliche Datenmengen an, wobei das Messrauschen so groß werden kann, dass die gemessenen Daten für die Weiterverarbeitung nicht mehr brauchbar sind. Dieses Verhalten kann von einem erfahrenen Anwender ohne Wiederholung der Messung meist erkannt werden. Gewünscht werden nun automatische Verfahren, die eine ähnliche oder bessere Fehlererkennungsquote ermöglichen.

Das Hauptziel der vorliegenden Arbeit ist aus historischen Messdaten Wahrscheinlichkeitsmodelle mit Hilfe von neuronalen Netzen zu generieren. Üblicherweise werden bei der Motorentwicklung an Prüfständen sehr viele verschiedene physikalische Größen gemessen. Dabei geht man von bis zu 1000 Messkanälen aus, wobei die manuelle Überprüfung der Messdaten meist nur stichprobenartig erfolgen kann. Bei der Modellierung besteht jedoch das Problem, dass die Modelle in einem hochdimensionalen Raum gebildet werden müssen. Bei den zu modellierenden Messkanälen gibt es auch keine Zusatzinformation bezüglich physikalischer Zusammenhänge in den Messdaten. Außerdem
soll das Plausibilitätsprüfungssystem so flexible wie möglich auf Änderungen der Prüfstandskonfiguration reagieren. Aus diesen Gründen werden statistisch basierte Ansätze zur Fehlererkennung eingesetzt.

Im ersten Schritt der Modellbildung werden daher bekannte Transformationsverfahren, wie Principal Component Analysis und Independent Component Analysis, eingesetzt um Cluster im Messraum zu bestimmen. Das ist eine übliche Vorgehensweise bei der Fehlerdetektion in großen Industrieanlagen bei einer Vielzahl an Messwerten.

Mit den wichtigsten transformierten Kanälen werden anschließend mehrdimensionale Verteilungsdichtefunktionen berechnet. Dafür wird die Methode der Kerndichteschätzung verwendet, da sich diese in der Praxis als vorteilhaft erwiesen hat. Jedoch bringt dieser Ansatz zwei Nachteile mit sich: Erstens benötigt er eine große Anzahl an Parametern, was eine Suche nach Clustern in den Daten schwierig gestaltet, da die verwendeten Trainingsdaten von verschiedenen Versuchen stammen. Zweitens ist die Berechnung der Verteilungsdichtefunktion zeitaufwendig und daher für Online-Anwendungen nur bedingt brauchbar. Um diese Problem zu beseitigen, wird ein neuronales Netz dazu verwendet, die Kerndichteschätzung zu approximieren. Die Anzahl der verwendeten Neuronen pro Netzwerk kann noch signifikant verringert werden, wenn elliptische Basisfunktionen verwendet werden. In der vorliegenden Applikation wird die Verteilungsdichte durch Neuronen mittels einen Taylorreihenansatzes so gut wie möglich angepasst. Bei der Verwendung dieses Ansatzes hat es sich herausgestellt, dass man mit etwa der Hälfte an Neuronen auskommt, wie bei einem Modell mit radialen Basisfunktionen.

Ein weiterer Schwerpunkt der Arbeit war die Adaptionsfähigkeit bei der Modellbildung. Stehen neue Trainingsdaten zur Verfügung, dann sollen diese dazu verwendet werden, die vorhandenen Netze nachzutrainieren. Zusätzlich wird auch noch die Möglichkeit der Fehlerisolation skizziert.

Sowohl an simulierten als auch an realen Motordaten wurde die Anwendbarkeit der Fehlerdetektion gezeigt. Weiters wurde der Algorithmus auch an einem fiktiven Prozess aus der chemischen Industrie, der vielfach als Vergleichsprozess für die Fehlerdiagnose dient, angewendet.

Keywords:
Motorprüfstand, Messwert, Fehlererkennung, stochastisches Modell, neuronales Netz


Electronic version of the publication:
http://katalog.ub.tuwien.ac.at/AC04010079


Created from the Publication Database of the Vienna University of Technology.