Identificacion con redes neuronales
Contenido Identificación de sistemas con redes neuronalesModelado de dinámica temporal de las manchas
solares
Identificación de sistemas con redes neuronales
Identificación de sistemas con redes neuronalesLas técnicas tradicionales de identificación de
sistemas enfrentan dificultades frente a las plantas complejas y altamente no lineales que existen ampliamente en la industria moderna.
La motivación para aplicar las redes neuronales en el campo de identificación de sistemas es que estas son entrenadas para modelar el sistema aprendiendo de los datos de entrada de excitación y la respuesta de salida
Dos categorías: la identificación del modelo directo y la identificación del modelo inverso
Identificación del modelo directo 1 , , 1 , , , 1p p py t y t y t n u t u t m
Existen dos estructuras de implementación de los esquemas de identificación:
Estructura serie-paralelo Estructura paralelo.
Identificación del modelo directo
Línea punteada: identificación serie-paralelo; linea a rayas: identificación paralelo.
Identificación del modelo directo Línea punteada: identificación serie-paralelo;
linea a rayas: identificación paralelo.
ˆ1 , , 1 , , , 1nn nn nny t y t y t n u t u t m
ˆ1 , , 1 , , , 1nn p py t y t y t n u t u t m
Identificación directa del modelo inverso
Línea punteada: identificación serie-paralelo; linea a rayas: identificación paralelo.
Identificación directa del modelo inversoLínea punteada: identificación serie-paralelo;
linea a rayas: identificación paralelo.
1ˆ 1 , , , 1 , 1 , , 1nn p p pu t y t y t y t n u t u t m
1ˆ 1 , , , 1 , 1 , , 1nn p nn nnu t y t y t y t n u t u t m
Identificación directa del modelo inversoDesventaja: El procedimiento de adaptación de la
red neuronal no es “dirigido hacia un objetivo”,
Dado que el objetivo de aplicar el sistema de control inverso basado en redes neuronales es hacer que la salida de la planta siga exactamente la señal de referencia especificada, la señal de entrenamiento debe cubrir un amplio rango del control del sistema con el fin de lograr un modelo inverso fiable de la planta
Se requieren señales de entrenamiento distribuidas en forma masiva
Esto inevitablemente produciría un tiempo de entrenamiento largo.
Identificación directa del modelo inversoDesventaja:
Adicionalmente, en el caso de mapeos de sistemas no lineales varios-a-uno, el entrenamiento podría ser difícil, y probablemente conduzca a un modelo inverso erroneo
Identificación indirecta del modelo inverso
Dos estructuras:identificación serie-paraleloidentificación paralelo.
Identificación indirecta del modelo inversoidentificación serie-paralelo;
identificación paralelo.
1ˆ , , , 1 , 1 , , 1nn p pu t Ref t y t y t n u t u t m
1ˆ , , , 1 , 1 , , 1nn nn nnu t Ref t y t y t n u t u t m
Modelado de dinámica temporal de las manchas solares
problemaAnalizar las variaciones en la actividad de
manchas solares utilizando los datos recogidos por los astrónomos durante casi 300 años de una cantidad denominada número de Wolfer, contenidas en archivo “sunspot.dat”
Se pretende modelizar el comportamiento de este sistema mediante una red neuronal de forma que puedan realizarse predicciones de la evolución futura de las manchas solares.
DATOS PARA LA OBTENCION DEL MODELO
1700 1750 1800 1850 1900 1950 20000
20
40
60
80
100
120
140
160
180
200Sunspot Data
Consideraciones previas
Serie temporal con ciclo de 11 años
Pocos datos
Necesidad de validar el modelo
realizar prueba ante nuevas entradas
objetivo
Dados los registros de numero de manchas solares de los últimos 300 años (sunspot.dat)
Crear modelo AR con redes neuronales
Que permita predecir el numero de manchas solares en cualquier año
El proceso consta fundamentalmente de cuatro pasos:
Preparar el conjunto de datos de entrenamiento.
Crear la arquitectura de la RNA.
Entrenar la RNA.
Simular la respuesta de la red ante entradas nuevas
Preparar el conjunto de datos de entrenamiento.
Pre procesado
En problemas de modelización con datos obtenidos de sistemas reales, es importante pre procesar dichos datos antes de su utilización
FiltradoRedundanciasEscalado
Escalado (normalización de media y varianza)Es recomendable eliminar la media y escalar
todas las señales con la misma varianza. Los datos pueden ser obtenidos de diferentes sistemas físicos, y los de mayor valor pueden ser demasiado dominantes. Además, el escalado acelera el proceso de entrenamiento.
El Neural Network Toolbox de Matlab (NNT) ofrece algunas funciones para el preprocesado y postprocesado de datos: [pn,meanp,stdp,tn,meant,stdt]=prestd(p,t)
Preparar el conjunto de datos de entrenamiento.
Preparar el conjunto de datos de entrenamiento.
Se va a utilizar las medidas tomadas desde 1700 hasta 1979 de las variaciones de la media anual de actividad solar.
Datos Escalizados (sunspot.dat)
1700 1750 1800 1850 1900 1950 20000
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Preparar el conjunto de datos de entrenamiento.
Los datos desde 1700-1920 se tomaran como conjunto de entrenamiento,
Los periodos 1921-1955 y 1956-1979 se utilizarán como conjuntos de validación y test:
sun_train.txt (conjunto de entrenamiento) y(1700), y(1701), y(1702),……..y(1920)sun_test1.txt (conjunto de validación) y(1921), y(1922), y(1923),……..y(1955) sun_test2.txt (conjunto de test) y(1955), y(1956), y(1957),……..y(1979)
Preparar el conjunto de datos de entrenamiento.
Matrices P y T de entrenamiento
Crear la arquitectura de la RNASe define una red multicapa feedforward de tres
capas (contando de entrada)con 10 nodos logísticos en la capa oculta y un nodo
lineal en la de salida. El algoritmo de entrenamiento será el de “levenberg-
Marquardt” Se eligió neuronas lineales en la capa de salida para
que la salida pueda tomar cualquier valor.
Mejorar la GeneralizaciónRegularización: Esta técnica modifica la función objetivo, que
pasa a ser una suma ponderada del MSE (error cuadratico medio)en los datos de entrenamiento con la media de la suma de los cuadrados de los pesos y bias de la red:
donde msereg es el error cuadrático medio con regularización. r Factor de estimacion msw es la funcion objetivo
Mejorar la GeneralizaciónLa dificultad estriba en la correcta elección del
parámetro de ponderación γ, ya que si es muy pequeño la red no podrá aprender adecuadamente, y si es demasiado grande no evitaremos el sobreentrenamiento.
Disponemos de una rutina para determinar el parámetro óptimo basada en la regularización bayesiana denominada ‘trainbr’. característica interesante del algoritmo es que nos
permite analizar cuántos parámetros de la red están siendo utilizados de manera efectiva por la red .
nos puede orientar acerca del adecuado tamaño de la red para el problema que estemos tratando.
Fuentes Jorge Barajas, Faber Montero, Modelización
mediante redes neuronales artificiales: dinámica temporal de las manchas solares , trabajo de curso, Control Inteligente, 2008
Xiao-Zhi Gao, Soft computing methods for control and instrumentation. Thesis for the degree of Doctor of Science in Technology. Institute of Intelligent Power Electronics Publications, Espoo, May 1999 Publication 2
FIN
FIN