Capítulo 3

Redes Neuronales Multicapa Con Aprendizaje Supervisado


3.3.2 TÉCNICAS DE OPTIMIZACIÓN NUMÉRICA

a)  Algoritmo de Gradiente Conjugado (CGBP)
CGBP converge a un mínimo de una función cuadrática en un número finito de iteraciones. El procedimiento general para localizar un mínimo de una función en una dirección requiere:

Localizar el intervalo donde se encuentra
Reducir el intervalo

Algoritmo

rg (3.30)
re (3.31)
greg (3.32)
435 (3.33)

Donde:

3465y                     45y4

(3.33)

Localización del intervalo
Se evalúa el índice de desempeño de un punto inicial F(X0). Se evalúa la función en un segundo punto, el cual tiene una distancia d del punto inicial, a lo largo de la dirección de búsqueda P0. Se continúa evaluando sucesivamente el índice de desempeño de los nuevos puntos, duplicando la distancia entre estos.

5ty34q

Reducción del intervalo
Esto involucra la evaluación de la función en puntos dentro del intervalo.

1qg

b)  Algoritmo LMBP

87oko

El LMBP es el algoritmo más rápido que se ha probado para entrenar redes neuronales multicapa de tamaño moderado.

Su principal inconveniente es los requerimientos de memoria; si la red tiene más de unos cuantos cientos de paramentos  el algoritmo se vuelve impráctico.

atras indice adelante