Sistemas de clasificación de blancos radar mediante métodos estadísticos y de inteligencia artificial
- Manuel Rosa Zurera Director
Defence university: Universidad de Alcalá
Fecha de defensa: 30 November 2006
- Félix Pérez Martínez Chair
- Saturnino Maldonado Bascón Secretary
- Mihai Datcu Committee member
- Luis Vergara Domínguez Committee member
- Francisco López Ferreras Committee member
Type: Thesis
Abstract
En esta tesis se han abordado diferentes aspectos de la clasificación de blancos usando señales radar de alta resolución en distancia, Se han llevado a cabo estudios estadísticos sobre el ruido de la señal HRR, que han permitido un desarrollo teórico-práctico en diferentes fases del problema. Se han propuesto muchas técnicas para mejorar las prestaciones de los diferentes algoritmos implementados en cada fase del proceso de clasificación. En una primera fase se ha llevado a cabo un análisis de diferentes métodos de alineamientos de las señales HRR: el método de alineamiento basado en la posición del máximo, el método de fase cero y el método de la correlación cruzada. Este análisis ha puesto de manifiesto la importancia de esta tarea en el funcionamiento final del clasificador. Como un resultado derivado del análisis, se han propuesto algunos métodos de alineamiento que mejoran en algún sentido los resultados obtenidos por estos métodos: un nuevo método basado en la correlación que reduce la complejidad computacional del método completo, un nuevo método basado en el de fase cero que reduce su sensibilidad con la SNR y un nuevo método mixto que combina el método de la posición del máximo y el método de fase cero, permitiendo bajas tasas de error en la clasificación . Una vez que las señales HRR han sido alineadas, deben ser preprocesadas. Hemos estudiado los métodos más usuales, como la normalización, la gausianización y la selección de características del vector de entrada. Para la normalización, hemos considerado la normalización en energía y la normalización con respecto al máximo valor. En el caso de la guasianización, hemos estudiado la transformación Box-Cox de los datos. Finalmente, en la selección de características, se ha considerado el criterio de Fisher. Se han llevado a cabo estudios teóricos y prácticos para seleccionar las mejores opciones dentro de cada método y los parámetros asociados a cada caso. Sobre los métodos de clasificación, en esta tesis se han estudiado dos grandes grupos de clasificadores: los clasificadores estadísticos, con el método KNN y el criterio MAP usando estimaciones de las funciones de densidad de probabilidad, y métodos de inteligencia artificial, como los perceptrones multicapa, las redes de funciones de base radial, o las máquinas de vectores soporte. En el capítulo dedicado a los métodos estadísticos, se han llevado a cabo un estudio de varias alternativas para la estimación de la función de densidad de probabilidad, con especial atención a la selección del parámetro de suavizado de la matriz de covarianza. Usando los modelos de ruido descritos en los capítulos previos, se han propuesto la limitación del valor mínimo de la varianza para mejora las estimaciones de la matriz de covarianza. El otro grupo de métodos estadísticos considerados en la tesis en el método KNN. A lo largo de la tesis, el método KNN se ha usado como referencia, para medir la calidad de los métodos y técnicas de preprocesado y para comparar los resultados de los otros clasificadores estudiados. Por otro lado, usando las características de las señales HRR descritas en los capítulos previos, hemos estudiado el uso de métrica novedosas, para reducir la tasa de error, las cuales consideran la distancia euclídea con algunos posibles desplazamientos circulares de la señal de entrada. El principal problema asociado al uso del método KNN es el alto coste computacional. Se ha estudiado el método CALESA que reduce la complejidad computacional del método Knn manteniendo la tasa de error. Se ha propuesto también un método nuevo que mejora al algoritmo CALESA en términos de complejidad computacional. Se ha prestado atención especial al uso de redes neuronales, realizando análisis teóricos y prácticos de tres tipos de redes: perceptrones multicapa, redes de funciones de base radial y máquinas de vectores soporte. En el capítulo dedicado a los perceptrones multicapa, se ha obtenido la expresión aproximada por la red cuando se entrena para minimizar dos funciones de error, cuando el conjunto de entrenamiento está formado por un número alto de patrones de entrenamiento independientes. Se han estudiado como funciones de error, el error cuadrático medio y el error de El-Jaroude-Makhoul, y diferentes métodos de entrenamiento, como el método del gradiente, métodos de Gauss. Newton y el uso de regularización bayesiana. También se ha propuesto un método de generalización novedoso basado en el uso de conjuntos agrandados de entrenamiento, generados a partir de las estimaciones de las funciones de densidad de probabilidad. Estos conjuntos de entrenamiento agrandados no contienen más información que los datos originales, pero los perceptrones milticapa con estos conjuntos agrandados sintéticamente generalizan bastante bien su funcionamiento a conjuntos de test no presentados durante el entrenamiento. Los resultados obtenidos demuestran la capacidad de generalización , que mejoran los resultados obtenido con redes entrenadas con técnica de regularización bayesiana. Los perceptrones multicapa entrenados con los conjuntos agrandados obtienen tasas de error muy bajas, con una complejidad computacional muy reducida. Por lo que respecta a las redes de funciones de base radial y las máquinas de vectores soporte, se ha llevado a cabo un interesante análisis teórico en el que demostramos que el uso de la función objetivo clásica de las máquinas de vectores soporte es equivalente al uso de la función de error cuadrático medio, con la restricción de que el valor de la suma de los pesos para que valga cero. Se han llevado a cabo experimentos que demuestran este hecho.