Herramienta Redes Neuronales Neural Networks with java Herramienta Redes Neuronales
Herramienta Redes Neuronales Neural Networks with java
       
 

 

Menu

Introducción
a las Redes Neuronales
API del
Marco de trabajo
Tutorial
Marco de
Trabajo
JRedesNeruonales
Downloads
Hompage
Marco de
trabajo

 

 


Breve Historia de las redes Neuronales

En esta presentación tan solo citaremos muy rápidamente la trayectoria de las redes neuronales.

McCulloch y Pitts dio origen a los modelos conexionista definiendo formalmente la neurona en 1943 como una maquina binaria con varias entradas y salidas.

Hebb, definió en 1949 dos conceptos muy importantes y fundamentales que
han pesado en el campo de las redes neuronales, basándose en investigaciones psicofisiológicas:

• El aprendizaje se localiza en las sinapsis o conexiones entre las neuronas.

• La información se representan en el cerebro mediante un conjunto de neuronas activas o inactivas.

 

Las hipótesis de Hebb, se sintetizan en la regla de aprendizaje del hebb, que sigue siendo usada en los actuales modelos. Esta Regla nos dice que los cambios en los pesos de las sinapsis se basan en la interacción entre las neuronas pre y postsinapsitcas.
La primera conferencia sobre IA en la cual se discutió sobre la capacidad de las computadoras para simular el aprendizaje fue en 1956 en Dartmouth. A partir de ahí investigadores han desarrollado distintos tipos de redes neuronales que cito a continuación:

• 1959 Widrow Teoría sobre la adaptación neuronal y el Adaline (Adaptative Linear Neuron) y el Madaline (Multiple Adaline). Es la primera aplicación de las redes a problemas reales: filtros adaptativos para eliminar ecos en las líneas telefónicas.

• 1962, Rosemblatt El Perceptrón es un identificador de patrones ópticos binarios, y salida binaria. Dio lugar a regla de aprendizaje delta, que permitía emplear señales continuas de entrada y salida.

• 1969, Minsky y Papert una seria crítica del Perceptrón que dada su naturaleza lineal tenia bastantes limitaciones, provocó una caída en picado de las investigaciones y una época gris para las redes neuronales.

• 1977, Anderson Los Modelos de memorias asociativas. Investiga el autoasociador lineal brain-state-in-a-box

• Años 80, Rumelhart, McClelland & Hinton crean el grupo PDP (Parallel Distributed Processing). Como resultado de los trabajos de este grupo salieron los manuales con más influencia desde el trabajo descorazonador de Minsky y papera

• 1982, Hopfield elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg.

• 1984, Kohonen Mapas de Kohonen, Este investigador fines desarrolló redes basadas en aprendizaje competitivo, con una idea nueva basada en la biología: Las unidades de procesos físicamente adyacentes aprenderán a representar patrones de entrada similares, así las neuronas de salida adyacentes identifican patrones similares.

• 1987, Grossberg El modelo ART (Adaptative Resonance Theory), estudia los principios de la estabilidad de redes neuronales.


• 1986, Hinton & Sejnowski, la máquina de Boltzmann, una red que usa la probabilidad para encontrar mínimos totales.

• 1987, Kosko los modelos BAM (Bi-directional Associative Memory.)

En la actualidad gracias a diversos grupos de investigación repartidos por universidades de todo el mundo, las redes neuronales han alcanzado una madurez muy aceptable y se usan en todo tipo de aplicaciones entre las que podemos citar:

Reconocimiento de patrones, voz y vídeo, Compresión de imágenes.
Estudio y predicción de sucesos muy complejos (ej. La bolsa)
Aplicaciones de apoyo a la medicina., todo tipo de aplicaciones que necesiten el análisis de grandes cantidades de datos, etc.

 

 

INDICE