Capítulo 3

Redes Neuronales Multicapa Con Aprendizaje Supervisado


3.4.5 SIMULACIONES EN MATLAB

La función solverb interactivamente crea  una red de base radial con una neurona a la vez. Las neuronas son agregadas a la red hasta que la suma de los errores cuadrados cae debajo de un error meta o se ha alcanzado un número máximo de neuronas.

dp=[disp_freq      max_neuron     err_goal      spread]:

ced

La función solverb toma matrices de los vectores de entrada y destino y parámetros de diseño dp, y regresa los pesos y umbrales para la red de base radial, él numero de neuronas en la capa de base radial nr y una memoria de errores de diseño dr.

Los parámetros de diseño indican  que tan a menudo se mostraran los resultados, el número máximo de neuronas en la capa de base radial, la meta del error cuadrático medio, y la extensión de las neuronas de base radial. Algunos o todos los parámetros pueden ser pasados a solverb; los parámetros omitidos serán remplazados por valores por omisión.

El método de diseño de solverb es similar al de solverbe. La diferencia es que solverb crea neuronas una a la vez. Para cada iteración del vector de entrada el cual produzca una disminución  máxima en el error de la red, será usado para crear una neurona de base radial. El error de la red es revisado y si  es lo suficientemente bajo finaliza la función solverb. De otra forma la siguiente neurona es agregada. Este proceso se repite hasta alcanzar la meta de error o el máximo número de neuronas.

Al igual que la función solverbe,  es importante que el parámetro de extensión sea lo suficientemente grande, que las neuronas de base radial responda a las regiones de traslape del espacio de entrada, pero que no sea demasiado grande que todas las neuronas respondan esencialmente de la misma manera.

Las redes de base radial aun cuando se diseñen eficientemente por la función solverb, tienden a tener la mayoría de las veces más neuronas que una red de retropropagación con neuronas con funciones sigmoidales en la capa oculta.

Esto se debe a que las neuronas sigmoidales pueden tener salidas sobre una región grande del espacio de entrada, mientras que las neuronas de base radial solo responden a regiones relativamente pequeñas del espacio de entrada. Esto es que entre más grande es el espacio de entrada (en términos del número de entradas e intervalos en los que las entradas varían) mayor es el numero de neuronas de base radial que se requieren.

Tabla 2 Resumen de Funciones relacionad con redes de base radial.


Function

Description

newrb

Design a radial basis network.

newrbe

Design an exact radial basis network.

newgrnn

Design a generalized regression neural network.

newpan

Design a probabilistic neural network.

dist

Euclidean distance weight function.

negdist

Negative eucliean distance weight function.

dotprod

Dot product weight function.

normprod

Normalized dot product weight function.

netprod

Product net input function.

compet

Competitive transfer function.

radbas

Radial basis transfer function.

ind2vec

Convert indices to vectors.

vec2ind

Convert vectors to indices

Las funciones radiales son simplemente una clase de funciones. En principio, ellas podrían ser empleadas en cualquier tipo de modelo (lineal o no lineal) y en cualquier red (una capa o multicapa). De cualquier forma, desde el artículo de Broomhead y Lowe, acerca de las redes de funciones de base radial (RBF networks) han sido tradicionalmente asociadas con  funciones radiales en una red de una sola capa, tal como se muestra en la siguiente figura.

atras indice adelante