Herramienta Redes Neuronales Neural Networks with java Herramienta Redes Neuronales
Herramienta Redes Neuronales Neural Networks with java
       
 

 

Menu

Introducción
a las Redes Neuronales
API del
Marco de trabajo
Tutorial
Marco de
Trabajo
JRedesNeruonales
Downloads
Hompage
Marco de
trabajo

 

 


El Perceptrón Multicapa.

El perceptrón simple tiene una serie de limitaciones muy importantes. La más importante es su incapacidad para clasificar conjuntos que no son linealmente independientes.

Esto quedo patente el la obra Perceptrons que en 1969 demostró que un perceptrón es incapaz de aprender una función tan fácil como la XOR.

Este modelo es una ampliación del perceptrón a la cual añade una serie de capas que, básicamente, hacen una transformación sobre las variables de entrada, que permiten eludir el problema anterior.

Esto acaba con el problema del perceptrón, convirtiendo las funciones linealmente no independientes en linealmente independientes gracias a la transformación de la capa oculta.

Además el perceptron multicapa admite valores reales. Podemos decir que el perceptrón multicapa es un modelador de funciones universal


Arquitectura del Perceptron Multicapa

 

El perceptrón multicapa consta de una capa de entrada y una capa de salida y una o más capas ocultas. Dichas capas se unen de forma total hacia delante, esto es, la capa entrada se une con la primera capa oculta y esta con la siguiente y la última capa oculta se une con la capa de salida. Los valores que el perceptrón multicapa acepta son reales.

Red Perceptrón multicapa con tres neuronas de entrada, dos ocultas y dos de salida

 

 

INDICE