redes neuronalesss

9
REDES NEURONALES

Upload: josep-lopez

Post on 02-Nov-2015

212 views

Category:

Documents


0 download

DESCRIPTION

REDES NEURONALES

TRANSCRIPT

REDES NEURONALES

CONTENIDO

INTRODUCCIN1. RESEA HISTORICA 1.1 Historia de redes neuronales

2. GENERALIDADES2.1 Definicin de una red neuronal2.2 Ventajas que ofrecen la red neuronal2.3 Redes neuronales y computacin digital

3. PRINCIPALES TOPOLOGAS3.1 Topologa de las redes neuronales.3.2 Redes Monocapa3.3 Redes multicapa:3.4 Conexin entre neuronas.3.5 Redes de propagacin hacia atrs (backpropagation)

4. ESTRUCTURA4.1 Los elementos bsicos de una RNA son

INTRODUCCION

Uno de los problemas ms antiguos de la ciencia experimental es encontrar funciones que ajusten, o expliquen, datos que se observan de fenmenos naturales.La principal ventaja de la existencia de tales funciones es la posibilidad de predecir el comportamiento del sistema natural en el futuro y controlar sus salidas mediante la aplicacin de las entradas adecuadas. Algunos ejemplos interesantes podran ser la prediccin de valores en bolsa, la prediccin meteorolgica o la clasificacin de formas tumorales. La dificultad estriba en que los datos observados tienden a ir acompaados de ruido, y los mecanismos exactos que los generan normalmente son desconocidos.En ocasiones ser posible encontrar un modelo matemtico exacto que explique el proceso del que provienen los datos que observamos. Muchas veces, sin embargo, no podremos dar detalles de ese proceso. El objetivo, en este caso, ser estimar el modelo subyacente que genera los datos observados.En estos casos, las tcnicas de aprendizaje automtico nos permiten establecer estos modelos utilizando datos de ejemplo o experiencias pasadas. De este modo se podrn identificar ciertos patrones o regularidades en los datos y as podremos construir buenas aproximaciones al problema. Dentro de estas tcnicas, que podramos llamar de estimacin semiparamtrica, se encuentran las Redes de Neuronas Artificiales que se explicarn a continuacin.

1. RESEA HISTORICA:

1.1 Historia de las redes neuronales:

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computacin. Sin embargo, los primeros tericos que concibieron los fundamentos de la computacin neuronal fueron Warren McCulloch, un neurofisilogo, y Walter Pitts, un matemtico, quienes, en 1943, lanzaron una teora acerca de la forma de trabajar de las neuronas (Un Clculo Lgico de la Inminente Idea de la Actividad Nerviosa - Boletn de Matemtica Biofsica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos elctricos.

1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que es el elemento bsico de la inteligencia humana) desde un punto de vista psicolgico, desarrollando una regla de como el aprendizaje ocurra. Aun hoy, este es el fundamento de la mayora de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurra cuando ciertos cambios en una neurona eran activados. Tambin intent encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teora de las Redes Neuronales.

1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de l.

1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.

1957 - Frank Rosenblatt. Comenz el desarrollo del Perceptron. Esta es la red neuronal ms antigua; utilizndose hoy en da para aplicacin como identificador de patrones. Este modelo era capaz de generalizar, es decir, despus de haber aprendido una serie de patrones poda reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tena una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la funcin OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente.

1959 - Frank Rosenblatt: Principios de Neurodinmica. En este libro confirm que, bajo ciertas condiciones, el aprendizaje del Perceptron converga hacia un estado finito (Teorema de Convergencia del Perceptron).

1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las lneas telefnicas) que se ha utilizado comercialmente durante varias dcadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones tcnicas (memoria asociativa).

1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte abrupta de las Redes Neuronales; ya que Minsky y Papert probaron (matemticamente) que el Perceptrons no era capaz de resolver problemas relativamente fciles, tales como el aprendizaje de una funcin no-lineal. Esto demostr que el Perceptron era muy dbil, dado que las funciones no-lineales son extensamente empleadas en computacin y en los problemas del mundo real.

1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente aclarado en 1985.

1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las dems previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.

1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su libro: Computacin neuronal de decisiones en problemas de optimizacin.

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagacin hacia atrs (backpropagation).

A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y publican cada ao, las aplicaciones nuevas que surgen (sobretodo en el rea de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulacin).

2. GENERALDADES:

2.1 Definicin de una red neuronal:

Una nueva forma de computacin, inspirada en modelos biolgicos.

Un modelo matemtico compuesto por un gran nmero de elementos procesales organizados en niveles.

Un sistema de computacin compuesto por un gran nmero de elementos simples, elementos de procesos muy interconectados, los cuales procesan informacin por medio de su estado dinmico como respuesta a entradas externas.

Redes neuronales artificiales son redes interconectadas masivamente en paralelo de elementos simples (usualmente adaptativos) y con organizacin jerrquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biolgico.

2.2 Ventajas que ofrecen la red neuronal:

Ofrezcan numerosas ventajas y que este tipo de tecnologa se est aplicando en mltiples reas. Entre las ventajas se incluyen:

Aprendizaje Adaptativo: Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.

Auto-organizacin: Una red neuronal puede crear su propia organizacin o representacin de la informacin que recibe mediante una etapa de aprendizaje.

Tolerancia a fallos: La destruccin parcial de una red conduce a una degradacin de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran dao.

Operacin en tiempo real: Los cmputos neuronales pueden ser realizados en paralelo; para esto se disean y fabrican mquinas con hardware especial para obtener esta capacidad.

Fcil insercin dentro de la tecnologa existente: Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitar la integracin modular en los sistemas existentes.

2.3 Redes neuronales y computacin digital:Para entender el potencial de la computacin neuronal, sera necesario hacer una breve distincin entre sistemas de computacin neuronal y digital: Sistemas neurolgicos no aplican principios de circuitos lgicos o digitales. Un sistema de computacin digital debe ser sncrono o asncrono. Si fuera asncrono, la duracin de los impulsos neuronales debera ser variable para mantener uno de los valores binarios por periodos de tiempo indefinido, lo cual no es el caso. Si el principio fuera sncrono, se necesitara un reloj global o maestro con el cual los pulsos estn sincronizados, este tampoco es el caso. Las neuronas no pueden ser circuitos de umbral lgico, porque hay miles de entradas variables en la mayora de las neuronas y el umbral es variable con el tiempo, siendo afectado por la estimulacin, atenuacin, etc. La precisin y estabilidad de tales circuitos no es suficiente para definir ninguna funcin Booleana. Los procesos colectivos que son importantes en computacin neuronal no pueden implementarse por computacin digital. Por todo ello, el cerebro debe ser un computador analgico. Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todos los hechos fisiolgicos hablan a favor de las acciones de las neuronas como integradores analgicos, y la eficiencia de la sinapsis cambia de forma gradual, lo cual no es caracterstico de sistemas biestables. Los circuitos del cerebro no implementan computacin recursiva y por lo tanto no son algortmicos. Debido a los problemas de estabilidad, los circuitos neuronales no son suficientemente estables para definiciones recursivas de funciones como en computacin digital. Un algoritmo, por definicin, define una funcin recursiva. 3. PRINCIPALES TOPOLOGAS

3.1 Topologa de las redes neuronales.

La topologa o arquitectura de una red neuronal consiste en la organizacin y disposicin de las neuronas en la misma, formando capas o agrupaciones de neuronas ms o menos alejadas de la entrada y salida de dicha red. En este sentido, los parmetros fundamentales de la red son: el nmero de capas, el nmero de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas.

3.2 Redes Monocapa :Se establecen conexiones entre las neuronas que pertenecen a la nica capa que constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas con lo que se conoce como autoasociacin (regenerar informacin de entrada que se presenta a la red de forma incompleta o distorsionada).

3.3 Redes multicapa:Son aquellas que disponen de un conjunto de neuronas agrupadas en varios niveles o capas. En estos casos, una forma para distinguir la capa a la que pertenece una neurona, consistira en fijarse en el origen de las seales que recibe a la entrada y el destino de la seal de salida. Normalmente, todas las neuronas de una capa reciben seales de entrada desde otra capa anterior (la cual est ms cerca a la entrada de la red), y envan seales de salida a una capa posterior (que est ms cerca a la salida de la red). A estas conexiones se las denomina conexiones hacia adelante o feedforward.

Sin embargo, en un gran nmero de estas redes tambin existe la posibilidad de conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores;a estas conexiones se las denomina conexiones hacia atrs o feedback.

3.4 Conexin entre neuronas.La conectividad entre los nodos de una red neuronal est relacionada con la forma en que las salidas de las neuronas estn canalizadas para convertirse en entradas de otras neuronas. La seal de salida de un nodo puede ser una entrada de otro elemento de proceso, o incluso ser una entrada de s mismo (conexin autorrecurrente).Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de niveles precedentes, la red se describe como de conexin hacia delante. Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles previos o del mismo nivel, incluyndose ellas mismas, la red es de conexin hacia atrs.Las redes de propagacin hacia atrs que tienen lazos cerrados son llamadas: sistemas recurrentes.

3.5 Redes de propagacin hacia atrs (backpropagation):El nombre de backpropagation resulta de la forma en que el error es propagado hacia atrs a travs de la red neuronal, en otras palabras el error se propaga hacia atrs desde la capa de salida. Esto permite que los pesos sobre las conexiones de las neuronas ubicadas en las capas ocultas cambien durante el entrenamiento.

4. ESTRUCTURA:

Una RNA consta de un conjunto de elementos de procesamiento conectados entre s y entre los que se envan informacin a travs de conexiones. Un esquema bsico de una red neuronal artificial se observa en la figura 4.1, la cual presenta las diferentes capas que tiene esta topologa, que es una estructura que se conoce con el nombre de feed-forward (hacia delante) debido al flujo de la informacin.

Figura 3.1 Esquema bsico de una RNA.4.1 Los elementos bsicos de una RNA son:

Conjuntos de unidades de procesamiento (neuronas). Conexiones entre unidades (asociado a cada conexin un peso o valor). Funciones de salida o activacin para cada unidad de procesamiento.

El modelo de la neurona y la arquitectura de la red describen cmo esta ltima transforma sus entradas en las salidas. Los elementos individuales de clculo que forman la mayora de los modelos de sistemas neurales artificiales, se conocen como neuronas artificiales.

5. APLICACIONES:

Algunas reas donde se aplican RNA son:

Automviles: Sistemas de piloto automtico. Deteccin de fallas por reconocimiento externo de vibraciones.

Bancos: Lectura de cheques y otros documentos. Evaluacin de aplicaciones de crditos.

Electrnica: Prediccin de secuencia de cdigos. Distribucin de elementos en CI. Control de procesos. Anlisis de fallas. Visin artificial. Reconocimiento de voz.

Finanzas: Tasacin real de los bienes. Asesora de prstamos. Previsin en la evolucin de precios.Seguimiento de hipotecas. Anlisis de uso de lnea de crdito. Evaluacin del riesgo en crditos. Identificacin de falsificaciones. Interpretacin y reconocimiento de firmas.

Manufactura: Control de la produccin y del proceso. Anlisis y diseo de productos. Diagnstico de fallas en el proceso y maquinarias. Identificacin de partculas en tiempo real. Inspeccin de calidad mediante sistemas visuales. Anlisis de mantenimiento de mquinas.

Medicina: Anlisis de clulas portadoras de cncer mamario. Anlisis de electroencefalograma y de electrocardiograma. Reconocimiento de infartos mediante ECG. Diseo de prtesis. Optimizacin en tiempos de trasplante. Reduccin de gastos hospitalarios.

Robtica: Control dinmico de trayectoria. Robots elevadores. Controladores. Sistemas pticos.

Seguridad: Cdigos de seguridad adaptivos. Criptografa. Reconocimiento de huellas digitales.

Telecomunicaciones: Compresin de datos e imgenes. Automatizacin de servicios de informacin. Traslacin en tiempo real de lenguaje hablado.

Transporte: Diagnstico de frenos en camiones. Sistemas de ruteo y seguimiento de flotas.

Voz: Reconocimiento de voz. Compresin de voz. Clasificacin de vocales. Transformacin de texto escrito a voz.