Redes Neuronales Multicapa Con Aprendizaje Supervisado
La función solverb interactivamente crea una red de base radial con una neurona a la vez. Las neuronas son agregadas a la red hasta que la suma de los errores cuadrados cae debajo de un error meta o se ha alcanzado un número máximo de neuronas.
dp=[disp_freq max_neuron err_goal spread]:
La función solverb toma matrices de los vectores de entrada y destino y parámetros de diseño dp, y regresa los pesos y umbrales para la red de base radial, él numero de neuronas en la capa de base radial nr y una memoria de errores de diseño dr.
Los parámetros de diseño indican que tan a menudo se mostraran los resultados, el número máximo de neuronas en la capa de base radial, la meta del error cuadrático medio, y la extensión de las neuronas de base radial. Algunos o todos los parámetros pueden ser pasados a solverb; los parámetros omitidos serán remplazados por valores por omisión.
El método de diseño de solverb es similar al de solverbe. La diferencia es que solverb crea neuronas una a la vez. Para cada iteración del vector de entrada el cual produzca una disminución máxima en el error de la red, será usado para crear una neurona de base radial. El error de la red es revisado y si es lo suficientemente bajo finaliza la función solverb. De otra forma la siguiente neurona es agregada. Este proceso se repite hasta alcanzar la meta de error o el máximo número de neuronas.
Al igual que la función solverbe, es importante que el parámetro de extensión sea lo suficientemente grande, que las neuronas de base radial responda a las regiones de traslape del espacio de entrada, pero que no sea demasiado grande que todas las neuronas respondan esencialmente de la misma manera.
Las redes de base radial aun cuando se diseñen eficientemente por la función solverb, tienden a tener la mayoría de las veces más neuronas que una red de retropropagación con neuronas con funciones sigmoidales en la capa oculta.
Esto se debe a que las neuronas sigmoidales pueden tener salidas sobre una región grande del espacio de entrada, mientras que las neuronas de base radial solo responden a regiones relativamente pequeñas del espacio de entrada. Esto es que entre más grande es el espacio de entrada (en términos del número de entradas e intervalos en los que las entradas varían) mayor es el numero de neuronas de base radial que se requieren.
Tabla 2 Resumen de Funciones relacionad con redes de base radial.
Function |
Description |
newrb |
Design a radial basis network. |
newrbe |
Design an exact radial basis network. |
newgrnn |
Design a generalized regression neural network. |
newpan |
Design a probabilistic neural network. |
dist |
Euclidean distance weight function. |
negdist |
Negative eucliean distance weight function. |
dotprod |
Dot product weight function. |
normprod |
Normalized dot product weight function. |
netprod |
Product net input function. |
compet |
Competitive transfer function. |
radbas |
Radial basis transfer function. |
ind2vec |
Convert indices to vectors. |
vec2ind |
Convert vectors to indices |
Las funciones radiales son simplemente una clase de funciones. En principio, ellas podrían ser empleadas en cualquier tipo de modelo (lineal o no lineal) y en cualquier red (una capa o multicapa). De cualquier forma, desde el artículo de Broomhead y Lowe, acerca de las redes de funciones de base radial (RBF networks) han sido tradicionalmente asociadas con funciones radiales en una red de una sola capa, tal como se muestra en la siguiente figura.