lunes, 16 de marzo de 2015

Mecanismos de cooperación entre agentes

González de Rivera hacia el año 2011, en la tesis doctoral titulada “Mecanismos de cooperación en robots como agentes móviles”, menciona que la inteligencia artificial se caracteriza por ser un área de trabajo especialmente interdisciplinario, en la que se pueden distinguir dos grandes campos de trabajo. El primero de ellos está involucrado en la creación de los elementos hardware necesarios para estar frente a un “entorno inteligente”, tales como sistemas de comunicación, sistemas biométricos, sistemas de localización, etc. El segundo de ellos se encarga del desarrollo de los algoritmos y aplicaciones de software necesarias para dar funcionalidad al hardware anteriormente mencionado. Esta amplia interdisciplinaridad, necesaria para crear sistemas que ayuden a realizar las tareas diarias a los usuarios, acarrea graves problemas a la hora de desarrollarlos. Por un lado los equipos de investigación no suelen estar especializados en todas las áreas de conocimiento necesarias, lo que hace que las investigaciones acaben en meros algoritmos funcionando sobre un simulador, en hardware poco fiable o, en el peor de los casos, solamente en meras especulaciones. Por otra parte, si el equipo se decide por realizar el trabajo completo para el desarrollo del sistema, se enfrenta a muchos problemas en múltiples campos, lo que supone una gran infraestructura y tiempo de desarrollo.

Un agente se puede concebir como una entidad computacional, especialmente ubicada en un entorno y que es capaz de mostrar un comportamiento flexible, con varias reacciones posibles ante una misma situación e interacción con otros agentes, y autónomo, con la capacidad de tomar la iniciativa sin estímulo previo. Debido a la gran cantidad de definiciones diferentes encontradas, a continuación se muestra una lista de las características más habituales que aparecen en la bibliografía, la misma se encuentra basada en el artículo escrito por Wooldridge y Jennings el año 1995, titulado “Agentes inteligentes: Teoría y práctica”, los agentes son entidades que relacionan percepciones de su entorno con acciones en su entorno, es decir, son reactivos. Son objetos computacionales con un grado variable de autonomía: (1) Los agentes toman iniciativas, es decir, no actúan simplemente en respuesta a su entorno sino que pueden actuar en base a unos objetivos propios. (2) Interactúan y se comunican mediante un lenguaje de comunicación que incorpora actos de habla como informar, preguntar, prometer y requerir. (3) Son racionales, es decir, actúan de “forma correcta”, lo cual se interpreta como que el estado mental del agente es coherente con su comportamiento. Estas características de los agentes pueden sugerir diferentes modelos, de mayor o menor complejidad. Por ejemplo, en informática, la idea de agente como un proceso software que se ejecuta de forma concurrente, que tiene una noción de estado y es capaz de comunicarse con otros agentes por paso de mensajes, es algo que se considera como un resultado natural del desarrollo del paradigma de programación concurrente orientada a objeto. Esta noción de agente es la que también se usa en la denominada “ingeniería de software basada en agentes”, cuyos productos, llamados “agentes de software” o “softbots”, son agentes que interaccionan con un entorno software mediante comandos que usan para obtener información o cambiar el estado del entorno.

Por otra parte la misma inteligencia artificial se ha inspirado en el estudio de los colectivos animales, tratando de extraer los comportamientos presentes en dichas sociedades para trasladarlos al entorno artificial. Zamora, en la tesis doctoral publicada el año 1997 con el título “Aprendizaje y estabilización de comportamientos altruistas en sociedades de agentes autónomos”, menciona que el fruto de este flujo de conocimientos, desde la observación de las sociedades biológicas hacia la robótica inteligente, en la última década ha surgido un nuevo campo de investigación denominado sistemas multiagente. En suma, se trata de la creación de equipos de trabajo formados por colecciones de agentes autónomos. Además de las propiedades inherentes a dichos agentes, de las interacciones entre ellos emergen nuevas propiedades. Estas son fundamentalmente: (1) Mayor robustez del sistema. Dada la redundancia intrínseca del sistema, el mal funcionamiento de alguno de los agentes no paraliza el cumplimiento final de la tarea sino que provoca una degradación gradual del rendimiento. (2) Emergencia de nuevos comportamientos. Al igual que la interacción de los diversos comportamientos individuales dentro de un agente provocan la emergencia de funcionalidades nuevas, las interacciones entre agentes provocan la aparición de comportamientos sociales más complejos. Mataric en el año 1994, en la tesis doctoral titulada “Interacción y comportamiento inteligente”, proporciona una interesante colección de este tipo de comportamientos colectivos emergentes. (3) Incremento en el rendimiento del sistema. El rendimiento del sistema se incrementa a través de las siguientes estrategias: (3.1) La inclusión de estrategias de cooperación entre agentes abre el camino a incrementos en el rendimiento global del sistema. (3.2) Las estrategias de especialización pueden incrementar el rendimiento del colectivo a través de una mejor distribución de los recursos en distintas subtareas. (3.3) El funcionamiento paralelo de los sistemas multiagente incrementa también el rendimiento del sistema. (4) Nuevas competencias. La posibilidad de realizar trabajos de tipo cooperativo amplia el espectro de tareas que pueden realizar los agentes. Muchas tareas son inherentemente distribuidas, en el espacio o en el tiempo o en sus partes, siendo por tanto necesario resolverlas de forma cooperativa.

No hay comentarios:

Publicar un comentario en la entrada