Redes Neuronales Multicapa Con Aprendizaje Supervisado
a) Algoritmo de Gradiente Conjugado (CGBP)
CGBP converge a un mínimo de una función cuadrática en un número finito de iteraciones. El procedimiento general para localizar un mínimo de una función en una dirección requiere:
Localizar el intervalo donde se encuentra
Reducir el intervalo
Algoritmo
![]() |
(3.30) |
![]() |
(3.31) |
![]() |
(3.32) |
![]() |
(3.33) |
Donde:
(3.33)
Localización del intervalo
Se evalúa el índice de desempeño de un punto inicial F(X0). Se evalúa la función en un segundo punto, el cual tiene una distancia d del punto inicial, a lo largo de la dirección de búsqueda P0. Se continúa evaluando sucesivamente el índice de desempeño de los nuevos puntos, duplicando la distancia entre estos.
Reducción del intervalo
Esto involucra la evaluación de la función en puntos dentro del intervalo.
b) Algoritmo LMBP
El LMBP es el algoritmo más rápido que se ha probado para entrenar redes neuronales multicapa de tamaño moderado.
Su principal inconveniente es los requerimientos de memoria; si la red tiene más de unos cuantos cientos de paramentos el algoritmo se vuelve impráctico.