martes, 25 de junio de 2013

“Diseño de políticas de identificación y control de robots basadas en redes neuronales y sistemas neuro-fuzzy”

En palabras de Marichal Plasencia, descritas en la tesis escrita el año 1999 titulada “Diseño de políticas de identificación y control de robots basadas en redes neuronales y sistemas neuro-fuzzy”, las redes neuronales generalmente han sido implementadas mediante la programación sobre computadoras digitales, sin embargo ya en estos días empiezan a proliferar implementaciones en hardware, ya sea mediante montajes electrónicos o incorporando dispositivos ópticos. Tales ingenios, presentan un paso importante hacia la consecución de mayores velocidades de procesamiento, así como un camino hacia la popularización de las mismas, siendo ésta un área de investigación muy activa. En relación con la clasificación de las redes neuronales podría establecerse una división de las mismas en función de su arquitectura y forma de procesar las señales en tres clases. (1) La primera clase de redes se conoce con el nombre de redes neuronales estáticas. En esta clase se puede encontrar la red Multicapa de Perceptrones, la red de Funciones de Base Radial, Red Neuronal Probabilística. Todas ellas tienen como característica común el no poseer memoria, es decir, sólo son capaces de transformar un conjunto de entradas en un conjunto de salidas, de tal manera que una vez establecidos todos los parámetros de la red las salidas únicamente dependen de las entradas. Este tipo de redes se ha empleado con éxito en muchos problemas de clasificación, como funciones lógicas, así como en el campo de la aproximación funcional. (2) Como segunda clase de redes neuronales figuran las redes neuronales dinámicas. Estas a diferencia de las anteriores permiten establecer una relación entre salidas y entradas o salidas y entradas previas. Esto añade cierta memoria a estas redes. Como ejemplos de este tipo de redes se encuentran la red de Hopfield, la red de retardos en el tiempo, la red de tiempo discreto, etc. Las redes neuronales dinámicas se han revelado útiles en problemas de modelización de la dinámica directa e inversa de sistemas complejos, tales como robots, cohetes, naves espaciales, etc., así como en el modelado de circuitos secuenciales y en la conversión de texto a voz. (3) En este punto se destacan las denominadas redes auto-organizativas, en las cuales los nodos vecinos dentro de la red neuronal compiten en actividad por medio de las interacciones mutuas laterales, y evolucionan adaptativamente hacia detectores específicos de las diferentes señales de entrada. El aprendizaje en este caso se denomina aprendizaje competitivo, no supervisado o autoorganizativo. Estas se han aplicado con éxito en problemas de reconocimiento de patrones, control de procesos e incluso en el procesamiento de información semántica. Para la comprensión de la red de Hopfield es necesario realizar un breve recorrido acerca de los conceptos que rodean al término “memoria asociativa.” Según Sossa y Barrón, en el artículo escrito el año 2003 titulado “Reconocimiento de objetos por su recuerdo”, una memoria asociativa es un dispositivo electrónico, programa computacional o modelo matemático, que permite recuperar patrones a través de su recuerdo por medio de otros patrones llamados llaves; a los patrones que se recuperan se les llama patrones de información. En una primera etapa, la memoria es construida a través de un conjunto de patrones de información junto con sus llaves respectivas. Al conjunto de asociaciones (llave, patrón) se le llama conjunto de entrenamiento de la memoria asociativa. En una segunda etapa, a la memoria se le presenta una llave. Según Hassoun, en el libro escrito el año 1993 titulado “Memorias neuronales asociativas: Teoria e implementación”, si la memoria asociativa es capaz de recordar todos los patrones del conjunto de entrenamiento, se dice que dicha memoria tiene la capacidad básica de recuerdo o recuperación. A la cantidad de patrones que se pueden almacenar en la memoria sin alterar su capacidad básica de recuerdo se le llama capacidad de la memoria asociativa. En general, las memorias asociativas más eficientes desarrolladas hasta el momento, son capaces de reconocer patrones del conjunto de entrenamiento a través de versiones alteradas de los mismos, pero en presencia de ruido ya sea aditivo o substractivo. El ruido aditivo se caracteriza por alterar un patrón de manera que sus componentes se ven sesgadas hacia valores mayores. El ruido substractivo, por otro lado, altera un patrón de manera que sus componentes se ven sesgadas hacia valores menores. El ruido combinado o mezclado, que es el que se presenta en la realidad, altera un patrón de manera que sus valores se ven cargados en forma aleatoria hacia valores mayores o menores. En resumen, según Ricardo Barrón, en la tesis escrita el año 2006 titulada “Memorias asociativas y redes neuronales morfológicas para la recuperación de patrones”, una memoria asociativa ideal debe tener las siguientes características: (1) Capacidad de almacenamiento ilimitada. (2) Recuperación básica. (3) Recuperación robusta. (4) Soportes de tamaño máximo para cada patrón llave del conjunto de entrenamiento. (5) Una forma de representación sencilla que implique un costo computacional pequeño. Las aplicaciones de las memorias asociativas con características ideales son numerosas. Una de ellas es el reconocimiento de personas a partir de las fotografías. En este caso sería muy interesante recuperar la fotografía de una persona dada, a partir de otra fotografía con o sin lentes, con o sin bigote, por ejemplo.

No hay comentarios:

Publicar un comentario