Capítulo 4

REDES NEURONALES CON APRENDIZAJE NO SUPERVISADO


4.4. Teoría de Resonancia Adaptativa Binaria

Una de las características de la memoria humana consiste en su habilidad para aprender nuevos conceptos sin necesitar para ello olvidar otros aprendidos en el pasado. Sería deseable que esta misma capacidad se pudiera conseguir en las redes neuronales. Sin embargo, muchas de estas redes tienden a olvidar informaciones pasadas al tratar de enseñarles otras nuevas.

 

Cuando se desarrolla una red para realizar una tarea de clasificación de patrones, se suela proceder reuniendo un conjunto de ejemplares que serán utilizados durante la fase de aprendizaje o entrenamiento de la red. Durante esta etapa la información es registrada en el sistema mediante el ajuste de los valores de los pesos de las conexiones entre las neuronas. Una vez concluido el aprendizaje, la red está lista para funcionar y no se permite ningún cambio adicional de los pesos.

 

Este procedimiento es factible, si el problema que se pretende resolver por la red está bien limitado y puede definirse un adecuado conjunto de informaciones de entrada que permitan entrenar la red para resolver el problema. Sin embargo en muchas situaciones reales los problemas a resolver no tienen unos límites claros.

 

Como ejemplo imaginemos que se pretende entrenar una red (Por Ejemplo, Backpropagation) para reconocer las siluetas de cierto tipo de avión. Se podrían reunir las imágenes correspondientes y utilizarlas para entrenar la red. Después, la red entraría en funcionamiento y no se permitiría ninguna modificación de los pesos. Si en un futuro se diseña un avión del mismo tipo y se desea que la red reconozca su silueta, se debería reentrenar dicha red utilizando la nueva silueta, pero también todas las que se usaron en el aprendizaje anterior.

 

Si se entrenase la red sólo con la nueva silueta, podría ocurrir que la red aprendiese esta información pero olvidando las aprendidas previamente. Lo que se está intentando mostrar en esta descripción es lo que S. Grossberg denomina el dilema de la estabilidad y la plasticidad del aprendizaje.  Este dilema plantea las siguientes interrogantes: ¿Cómo una red podría aprender nuevos patrones? (Plasticidad del Aprendizaje). ¿Cómo una red podría retener los patrones previamente aprendidos? (Estabilidad el Aprendizaje). Conseguir una red que pueda dar respuesta a una de estas interrogantes es sencillo. Sin embargo no lo es si se pretende diseñarla para que solucione ambos.

 

En respuesta a este dilema, Grossberg, Carpenter y otros colaboradores desarrollaron la denominada Teoría de la Resonancia Adaptativa (ART). Esta teoría se aplica a sistemas competitivos (Redes con Aprendizaje Competitivo) en los cuales cuando se presenta cierta información de entrada solo una de las neuronas de salida de la red (O Una por Cierto Grupo de Neuronas) se activa alcanzando su valor de respuesta máximo después de competir con las otras. Esta neurona recibe el nombre de vencedora (Winner-Take-All Unit).

 

Lo que se pretende categorizar (Clustering) los datos que se introducen en la red. Las informaciones similares son clasificadas formando arte de la misma categoría, y por tanto deben activar la misma neurona de salida, la neurona vencedora.  Las clases o categorías deben ser creadas por la propia red, puesto que se trata de un aprendizaje no supervisado, a través de las correlaciones de los datos de entrada.

 

Para solucionar el dilema de la plasticidad y la estabilidad, el modelo ART propone añadir a las redes un mecanismo de realimentación entre las neuronas competitivas de la capa de salida de la red y la capa de entrada. Este mecanismo facilita el aprendizaje de una nueva información sin destruir la ya almacenada.

 

La teoría de resonancia adaptativa se basa en la idea de hacer resonar la información de entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en resonancia con alguno, es suficientemente similar, la red considera que pertenece a dicha categoría y únicamente realiza una pequeña adaptación del prototipo almacenado representante de la categoría para que incorpore algunas características del dato presentado. Cuando no resuena con ninguno no se parece a ninguno de los existentes, recordado por la red hasta ese momento, la red se encargada de crear una nueva categoría con el dato de entrada como prototipo de la misma.

 

Como resultado de este enfoque los autores mencionados presentaron dos redes neuronales especialmente adecuadas para las tareas de clasificación de patrones. Estas redes suelen denominarse ART1 (O ART) y ART2 .Ambas difieren de la naturaleza de la información que se presenta a la entrada.  La red ART1 trabaja con vectores de entrada binarios mientras que ART2 es capaz de procesar informaciones continuas o analógicas.

 

atras indice adelante