Herramienta Redes Neuronales Neural Networks with java Herramienta Redes Neuronales
Herramienta Redes Neuronales Neural Networks with java
       
 

 

Menu

Introducción
a las Redes Neuronales
API del
Marco de trabajo
Tutorial
Marco de
Trabajo
JRedesNeruonales
Downloads
Hompage
Marco de
trabajo

 

 


Funciones en el modelo de Neurona Artificial.

El modelo de neurona artificial que hemos expuesto en el apartado anterior, modela la neurona como una serie de funciones que se componen entre ellas siendo los resultados unas los parámetros de otras, así la funcion de ponderación hace uso de los valores que le llegan de las entradas y los pesos de las sinapsis y la funcion de activación toma este valor para transformarlo en el estado de la neuronas mediante la interacción de estas funciones se procesa la información.
En este apartado, especificaremos con más detalle las diferentes las funciones que participan en el modelo.

Función de propagación o ponderación

Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis en el potencial de la neurona.
Normalmente se usa como función de propagación la suma ponderada de las entradas multiplicadas por los pesos. En esta función se interpreta como un regulador de las señales que se emiten entre neuronas al ponderar las salidas que entran a la neurona.

Otra regla de propagación usada es la distancia euclídea. Usada en los mapas de kohonen y algunas redes competitivas.En ella, los pesos sinápticos funcionan de manera distinta al anterior ya que lo que hacen es aproximarse lo máximo posible al vector de entrada. Es utilizada en redes no supervisadas para que se ajuste a los patrones.
Otra versión de esta función es la misma pero con la distancia de Manhattan esto es en vez de usar el uadrado usamos el valor absoluto.En esta regla de propagación los pesos tienen la misma interpretación que la anterior, da la medida del parecido entre el patrón de entrada X y los pesos W.

Función de activación

La función de activación combina el potencial postsinaptico, que nos proporciona la función de propagación, con el estado actual de la neurona para conseguir el estado futuro de activación de la neurona. Sin embargo, es muy común que las redes neuronales no tomen su propio estado como un parámetro y que por tanto no se considere . Esta función es normalmente creciente monótona y podemos citar las funciones más comunes:

Lineal:
Algunas redes neuronales usan esta función de activación como el Adeline por su eficiencia y facilidad.

Escalón:
Esta función es la más usada para redes neuronales binarias ya que no es lineal y es muy simple. Algunas redes que usan esta función son el Perceptrón y Hopfield. Para redes que trabajan en el rango [-1,1] se usa la funcion signo

Hiperbólicas o tangenciales:
Las redes con salidas continuas, como el Perceptron multicapa con retropropagación, usan esta función ya que su algoritmo de aprendizaje necesita una función derivable

Función de Salida.

Esta función convierte el estado de la neurona en la salida hacia la siguiente neurona que se transmite por las sinapsis. Usualmente no se considera y se toma la identidad, esto es, de manera que la salida es el propio estado de activación de la neurona.

Existen algunas redes que transforman su estado de activación en una salida binaria y para eso usan la función escalón antes mostrada como salida.

Otra opción, consiste en usar funciones probabilísticas como en la máquina de Boltzman. Las redes con este tipo de salidas no tienen un comportamiento determinista.

 

 

INDICE