lunes, 31 de agosto de 2015

La inteligencia artificial mejora el diagnóstico de enfermedades mentales


Una de las pruebas más comunes para detectar trastornos cognitivos con diverso origen, como por el párkinson o el alzhéimer, es un simple test conocido como el "test del reloj”, en el que el paciente debe dibujar un reloj que debe marcar una determinada hora y, además, debe copiar otro ya dibujado. La observación de alteraciones en la manera de realizar estos dibujos permite a los médicos identificar síntomas de deterioro en el cerebro del paciente.

Muchos desórdenes neurológicos pueden estar presentes mucho antes de comenzar a tener un efecto apreciable en nuestras vidas. Por ejemplo, en el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables. Sin embargo, la evaluación de estas pruebas es subjetiva, puesto que no es fácil llegar a conclusiones definitivas cuando los síntomas son muy leves. Contar con un método de diagnóstico más preciso y fiable podría permitir tratar a los enfermos mucho antes, retrasando el desarrollo de la enfermedad.

Con este objetivo, un grupo de científicos, liderados por investigadores del Laboratorio para la Inteligencia Artificial y Ciencias Computacionales del Instituto Tecnológico de Massachusetts (MIT), ha creado un programa informático capaz de detectar de manera mucho más precisa y automatizada estas alteraciones, ofreciendo un diagnóstico más fiable y precoz a partir de la misma prueba.

Para ello se han valido de los datos recogidos en el Lahey Hospital, un centro médico a las afueras de Boston (EE UU), que desde hace nueve años realiza el test del reloj utilizando un bolígrafo digital que captura en el ordenador los dibujos realizados por los pacientes, además de registrar el proceso de creación de los mismos con gran precisión. Este bolígrafo no fue creado expresamente para este fin, sino que se trata de un dispositivo comercial que incluso se puede comprar por internet. Sin embargo, ha venido como anillo al dedo para recoger la información necesaria de manera precisa y con un registro temporal, es decir, sabiendo en todo momento dónde está la punta del bolígrafo y, por tanto, si el paciente hace una pausa o duda a la hora de escribir.

En el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables

Basandose en estos datos, el equipo, liderado por los investigadores Cynthia Rudin y William Souillard-Mandar del MIT, ha creado un programa informático capaz de interpretar y evaluar automáticamente el test del reloj, aumentando la precisión y eliminando la subjetividad de una evaluación realizada por humanos. "Hemos mejorado el análisis, de manera que es automático y objetivo” explica Rudin. "Con el equipamiento adecuado es posible obtener un resultado rápido y más preciso”. Los resultadosse han sido aceptados para su publicación en la revista Machine Learning.

Para crear el programa, el equipo de Rudin y Souillard-Mandar ha utilizado una serie de casos ejemplares para enseñar a la máquina qué es lo que debe buscar. "Estos ejemplos ayudan a calibrar el poder predictivo de cada una de las partes del dibujo” ha explicado Souillard-Mandar. "Gracias a ellos, hemos podido extraer miles de rasgos del proceso de dibujo que dan pistas acerca del estado cognitivo de cada sujeto, y nuestros algoritmos ayudan a determinar cuáles de ellos llevan a la predicción más fiable”.

Cuando la memoria está afectada, el periodo de reflexión se alarga

Los distintos desórdenes se revelan de diferente manera en el test del reloj. Por ejemplo, mientras que es normal que los adultos sanos pasen más tiempo pensando que dibujando, cuando la memoria está afectada, el periodo de reflexión se alarga. Por otra parte, en el caso del párkinson, los enfermos tienden a necesitar más tiempo para dibujar los relojes que, a su vez, tienden a ser más pequeños, sugiriendo que les está costando un mayor esfuerzo realizar la tarea. Estas consideraciones se podían pasar por alto en la prueba tradicional, ya que, en muchas ocasiones, el médico no ve en detalle cómo el paciente realiza el dibujo, sino tan solo el resultado final.

Este trabajo no sólo permite diagnosticar mejor una serie de patologías muy graves para quienes las sufren, sino que además ofrece un gran avance a la hora de automatizar procesos que pueden resultar tediosos y poco eficientes cuando se realizan por humanos. Una vez conseguido el propósito inicial de demostrar la eficacia de su método, el equipo científico ya se dispone a desarrollar un sistema sencillo que permita tanto a los neurólogos como a los no especialistas utilizar esta tecnología en los hospitales y centros de salud.

¿Qué sueñan las máquinas?

Las redes de neuronas artificiales de los programas de reconocimiento gráfico analizan el contenido de una imagen para clasificarla, pero también pueden generar cuadros surrealistas de animales, plantas, objetos, paisajes y edificios, que solo existen... en la “imaginación” de las máquinas.

Los programas y equipos electrónicos de Google que manejan buena parte de los datos que circulan por el mundo, también pueden tener “sueños” con espectaculares colores y formas, según se desprende de una investigación.

Los autores del post “Inceptionism: Going Deeper into Neural Networks” (http://googleresearch.blogspot.co.uk/), publicado desde la filial de Google en el Reino Unido, han denominado “inceptionismo” a la técnica mediante la cual las máquinas y su software generan surrealistas “sueños” digitales.

El inceptionismo es producto de uno de los complejos sistemas utilizados por la compañía para reconocer y clasificar, de forma automática, el enorme volumen de imágenes de Internet: las redes neuronales artificiales (ANNs por sus siglas en ingles).

Las ANNs son modelos estadísticos y matemáticos usados en computación para dotar a los programas informáticos de capacidad de aprender y que se inspiran en el funcionamiento del sistema nervioso central de los animales, sobre todo de su cerebro.

Estos modelos, estructurados como neuronas interconectadas que intercambian mensajes entre sí, y cuyas interconexiones evolucionan con la experiencia, tienen la capacidad de aprender, corregir errores, organizarse y adaptarse a distintas situaciones.

“Las redes neuronales artificiales han impulsado progresos notables en la clasificación de imágenes y el reconocimiento de la voz”, explican los ingenieros de Google Alejandro Mordvintsev, Christopher Olah y Mike Tyka.

Mordvintsev, Olah y Tyka explican que entrenan a sus redes neuronales artificiales en tareas de reconocimiento “mostrándoles millones de ejemplos de imágenes de un determinado elemento y ajustando, poco a poco, los parámetros hasta que producen las clasificaciones que deseamos”.

Descubrimientos sorprendentes
Estos ingenieros señalan que entrenan a estas redes simplemente mostrándoles muchos ejemplos de lo que quieren que aprendan, esperando que las ANNs extraigan la esencia de dicho elemento y lo reconozcan en cualquiera de sus formas, tamaños, colores y orientaciones, y que ignoren aquello que no es importante.

Al profundizar en el funcionamiento de estas redes, que aún no se comprende del todo, para mejorar su eficacia, Mordvintsev, Olah y Tyka descubrieron dos hechos sorprendentes.

Por un lado hallaron que las ANNs que son entrenadas para discriminar entre diferentes tipos de imágenes, también tienen la información necesaria para generar ellos mismos imágenes y, por otra parte, descubrieron que las imágenes generadas por medio del llamado ‘inceptionismo’ adquieren un aspecto surrealista no ajustándose, en muchos casos, al elemento que tendrían que representar.

Los ingenieros emplearon distintos métodos para visualizar el funcionamiento de las ANNs y su eficacia para reconocer imágenes, partiendo de la idea de que el mismo proceso usado para distinguir imágenes podría usarse para generarlas, y de que si una red neuronal conoce el aspecto de un objeto, por ejemplo un tenedor, entonces podría crear una imagen de dicho tenedor.

Por ejemplo, le dieron instrucciones a sus ANNs para que creen un objeto determinado, para que amplifiquen una determinada figura en el contexto de una imagen, o para que amplifiquen cualquier elemento que reconozcan por si mismas dentro de una imagen, tomando sus propias decisiones.

Creatividad de redes neuronales
También entregaron a las redes neuronales una imagen y les dieron instrucciones del tipo “cualquier cosa que reconozca aquí. Queremos más de dicha cosa” e incluso les entregaron los cuadros creados por ellas mismas para que hicieran “zoom” sobre determinados partes y las procesaran de forma repetitiva, originando nuevas imágenes.

En el aspecto técnico, estos estudios hicieron concluir a los ingenieros de Google que, a veces, estas redes no están buscando el elemento que se les solicitó que busquen y que pueden aprovechar estas visualizaciones surrealista para corregir los errores y mejoran el entrenamiento de las ANNs.

En el plano estético el resultado es fascinante: una serie de coloridos cuadros de aspecto surrealista, intrincados diseños y toques impresionistas, en los que se observan, desde pesas con aspecto de músculos o animales con pieles de arcoiris, hasta montañas y árboles reconvertidos, en pagodas, hojas transformadas en aves, así como edificios y paisajes oníricos.

En uno de los ensayos se entregó a una de las ANNs una imagen de un cielo nublado y esta red, que había sido entrenada para detectar imágenes de animales, encontró una serie de nubes con formas de animales quiméricos, como un perro-caracol, un pájaro-camello y un pez-perro “del mismo modo que los niños disfrutan observando las nubes e interpretando sus formas”.

“Los ‘sueños de las máquinas’ no solo son útiles para el progreso tecnológico, sino además se pueden convertir en una nueva herramienta de expresión artística, una novedosa forma de remezclar conceptos visuales, e incluso de echar algo de luz sobre las raíces de los procesos creativos en general”, según Mordvintsev, Olah y Tyka.

Mapas genéticos Guillermo Choque Aspiazu

La genómica es el estudio de la estructura y organización de genomas completos. En palabras de Gonzales, en la tesis doctoral publicada el año 2002 titulada “Evolución comparada de los elementos cromosómicos en el género Drosophila”, la genómica se divide en dos áreas básicas: La genómica estructural se ocupa de la caracterización de la naturaleza física de los genomas y la genómica funcional encargada de la caracterización del proteoma y de los patrones globales de expresión génica. La genómica estructural comparada examina a partir de la comparación de los mapas genéticos o físicos las propiedades del genoma en especies diferentes. La primera especie en la que se construyó un mapa genético fue Drosophila melanogaster. En el año 1913 Sturtevant descubrió que la proporción de progenie recombinante observada en un apareamiento se podía utilizar como medida de la distancia entre genes: Cuanto más alejados están dos genes en un cromosoma mayor es la probabilidad de que un entrecruzamiento los separe. En los mapas genéticos la unidad de distancia es la unidad de mapa o el centiMorgan que equivale a la distancia entre dos marcadores para los que la frecuencia de recombinación es del uno por ciento. La relación entre la distancia real de mapa y la frecuencia de recombinación entre dos marcadores o loci no es lineal. Cuanto más separados están los marcadores peor es la estima debido a que hay entrecruzamientos que no son detectados y a que los entrecruzamientos no se producen al azar sino que la presencia de un entrecruzamiento inhibe la formación de un segundo entrecruzamiento en las zonas próximas al primero, denominado fenómeno de interferencia. Las funciones de mapa son funciones matemáticas que permiten obtener mejores estimas de la distancia de mapa ya que corrigen para los entrecruzamientos no detectados y en algunos casos tienen en cuenta la interferencia. Los mapas genéticos no coinciden exactamente con los mapas físicos ya que la frecuencia de recombinación no es igual a lo largo de todo el cromosoma. Por ejemplo en Drosophila la frecuencia de recombinación es inferior en las zonas teloméricas y centroméricas.

Según Strachan y Read, en el libro publicado el año 1996 con el título “Genética molecular humana”, en los mapas físicos de baja resolución, tanto en mapas citológicos o cromosómicos, los marcadores se asignan a porciones más o menos grandes de los cromosomas. La distancia se mide en bandas, que en el caso de los cromosomas metafásicos contienen varias megabases de acido desoxirribonucleico y en el caso de los cromosomas politénicos de Drosophila varias kilobases. En los mapas físicos de alta resolución los genes se sitúan en la molécula de acido desoxirribonucleico. La distancia de mapa se mide en kilobases o pares de bases.

En el artículo publicado el año 1998, por los investigadores Nadeau y Sankoff con el título “Conteo sobre mapas comparativos”, se menciona que la comparación de los mapas físicos de dos especies permite identificar los segmentos cromosómicos que se han conservado a lo largo de la evolución de estas especies y estimar el número mínimo de reordenaciones cromosómicas necesarias para transformar el genoma de una especie en el de la otra. Un segmento conservado se define como la región cromosómica en la que el orden relativo de marcadores contiguos es idéntico en las dos especies comparadas. Wright, en el artículo publicado el año 1996 con el título “Análisis fenotípico del grupo de genes mutantes dopa decarboxylase en Drosophila melanogaster”, menciona que los genes que forman un segmento conservado pueden representar combinaciones de genes que interactúan funcionalmente y que por tanto son mantenidos juntos por la selección natural. Nadeau y Taylor, en el artículo publicado el año 1984 titulado “Tamaños de segmentos de cromosoma conservados desde la divergencia de hombres y ratones”, complementa mencionando que, sin embargo, debido a que todos los genomas están interrelacionados, es decir, tienen un antepasado común, estos segmentos conservados pueden ser también el resultado de la fijación de un número limitado de reordenaciones cromosómicas con puntos de rotura al azar desde la divergencia de las dos especies.

Devos y Gale, en el artículo publicado el año 2000 con el título “Relaciones genómicas: El modelo de la hierba en la investigación actual”, además de Murphy y sus colegas, en el artículo publicado el año 2001 con el título “Evolución de la organización del genoma de mamíferos inferida del mapeo de genes comparativo”, mencionan que la identificación de segmentos cromosómicos conservados a lo largo de la evolución de especies pertenecientes a diferentes taxones sugiere que es posible la construcción de mapas genéticos unificados para grupos de organismos. Esto implica que se puede transferir información de las especies mejor estudiadas a otras que no lo han sido tanto. A pesar de que se dispone de mapas físicos para un número elevado de especies tanto de plantas como de animales, Drosophila sigue siendo un buen modelo para la realización de estudios de comparación de genomas. Madueño y sus colegas, en el artículo publicado el año 1995 titulado “Mapa físico del cromosoma X de Drosophila melanogaster: Secuencias de sitios contiguos y etiquetados”, mencionan que la construcción de las primeras genotecas en Drosophila melanogaster: Cósmidos, fagos P1, y cromosomas artificiales de levadura, permitió la construcción de mapas físicos de alta resolución de cromosomas enteros en esta especie. Posteriormente el genoma de Drosophila melanogaster fue secuenciado, facilitando así los estudios comparativos. La secuenciación es descrita en el artículo publicado el año 2000 por Adams y sus colegas con el título “La secuencia genómica de Drosophila melanogaster.

lunes, 24 de agosto de 2015

Primera parte Análisis de datos con redes neuronales

Si se busca en el Diccionario de la Real Academia Española de la Lengua el vocablo “estadística” aparecen tres acepciones de dicha palabra: (1) Estudio de los datos cuantitativos de la población, de los recursos naturales e industriales, del tráfico o de cualquier otra manifestación de las sociedades humanas. (2) Conjunto de estos datos. (3) Rama de la matemática que utiliza grandes conjuntos de datos numéricos para obtener inferencias basadas en el cálculo de probabilidades. Según Saez Castillo, en el libro publicado el año 2012 titulado “Apuntes de estadística para ingenieros”, se menciona que probablemente el más común de los significados conocidos de la palabra sea el segundo, y por ello se suele ver en los medios de comunicación que cualquier recopilación de cifras referentes a algún asunto es denominado, de forma muy reduccionista, estadística o estadísticas. Sin embargo, el valor real de la Estadística como ciencia tiene que ver mucho más con la primera y la tercera acepción del Diccionario de la Real Academia Española de la Lengua. Concretamente, el primero de los significados se corresponde con lo que se estudia como “estadística descriptiva”, donde la estadística se utiliza para resumir, describir y explorar datos, y el tercero con lo que se denomina “inferencia estadística”, donde lo que se pretende mediante la estadística es utilizar datos de un conjunto reducido de casos para inferir características de éstos al conjunto de todos ellos. La estadística es una disciplina que proporciona las herramientas necesarias para el análisis de los datos. Dado que en algunas situaciones no es posible realizar estudios exhaustivos en toda la población, la estadística permite cuantificar la probabilidad de cometer error al extrapolar los resultados obtenidos de una serie de muestras al conjunto de la población. Por tanto, la estadística permite cuantificar el error que se comete al aceptar los resultados obtenidos a partir de muestras, habitualmente basadas en encuestas, de una población generalmente muy extensa.

En la tesis doctoral de Castellano, publicada el año 2009 con el título “Modelización estadística con redes neuronales”, se menciona que una red neuronal es un proceso sólido y paralelamente distribuido con la propensión natural a acumular procedimientos experimentales y hacerlos disponibles para su uso. Se parece al cerebro en dos aspectos, por una parte la red adquiere conocimientos a través de un proceso de aprendizaje, y por otra las conexiones inter-neuronales, conocidas como cargas sinápticas presentan una gran solidez encargándose de almacenar conocimiento. Las redes neuronales se usan principalmente con tres objetivos diferenciados: (1) Como modelos nerviosos biológicos. Parte de las motivaciones biológicas que dieron lugar a las redes neuronales se han conservado, y se siguen empleando como instrumentos que ayudan a entender y duplicar el funcionamiento del sistema nervioso de los seres vivos. (2) Como procesadores adaptativos de señal en tiempo real. Corresponde al área de reconocimiento de patrones, se encuentran implementadas en hardware para aplicaciones tipo robot. La tecnología, la ciencia y los negocios han aportado nuevas tareas de interés, que en algunos casos son eminentemente tecnológicas. El objetivo es construir máquinas que realicen estas labores de un modo más rápido, barato y exacto que las personas. Cada vez es más factible idear sistemas automáticos que sustituyan y mejoren al especialista, o clonar al experto. (3) Como métodos de análisis de datos. Principalmente este trabajo se encuentra centrado en esta última faceta de las redes. De hecho en multitud de ocasiones si se analiza detalladamente lo que está haciendo una red neuronal se descubrirá que se dedica a rescribir métodos estadísticos clásicos. Así mismo cualquier red, aún cuando su objetivo final sea algo muy concreto y a simple vista alejado de la estadística, como “la voz” del desfibrilador que indica si el paciente tiene pulso y no puede recibir la descarga, fue diseñada, y por lo tanto puede ser analizada desde un punto de vista meramente estadístico.

En palabras del investigador Escobar, en el artículo publicado el año 2002 titulado “Análisis de datos con redes neuronales aplicadas al diagnóstico de la solvencia empresarial”, la introducción de las redes neuronales, en el análisis de datos, viene motivada por el deseo de mejorar los resultados que se alcanzaban con los modelos estadísticos, análisis discriminante y regresión lógica principalmente, que proporcionan regiones de decisión definidas a través de combinaciones lineales de sus variables, mientras que en las redes neuronales es posible la definición de regiones mucho más complejas y, por lo tanto, la reducción del número de elementos incorrectamente clasificados. Otra característica positiva que presentan las redes es que el conocimiento representado en las mismas es adaptativo, es decir, aunque el “aprendizaje” se realiza en el momento inicial con un número limitado de casos, posteriormente puede reentrenarse la red incorporando al conjunto de datos nuevos casos producto de las condiciones cambiantes del entorno o de información que no se disponía en momentos anteriores. Además, en muchas oportunidades la información base, suele constar de multitud de datos correlacionados, incompletos, erróneos o adulterados. Estas características son la materia con la que las redes neuronales proporcionan mejores resultados, ya que gozan de una elevada capacidad de filtrar los ruidos que acompañan a la información y de una alta tolerancia a las fallas. En ese mismo sentido, destacan las virtudes de las redes neuronales cuando los modelos a reconocer presentan variaciones.

lunes, 17 de agosto de 2015

Mapas cognitivos difusos


Los mapas cognitivos difusos fueron desarrollados por Kosko, específicamente en el artículo escrito el año 1986 titulado “Mapas cognitivos difusos”, a partir de los mapas cognitivos de Axelrod, reportados en el libro escrito el año 1976 con el título “Estructura de decisión: Los mapas cognitivos de las elites políticas”. El análisis estructural de estos mapas permite deducir información sobre la importancia de los conceptos implicados en el problema e identificar cuáles son los verdaderos argumentos involucrados. Los mapas cognitivos difusos fueron presentados inicialmente como mecanismos difusos, pudiendo los conceptos y relaciones ser representados con variables difusas, las cuales se expresan en términos lingüísticos. Términos como “casi siempre”, “siempre”, “normalmente”, “algunos”, son variables difusas utilizadas para describir las relaciones entre conceptos. Los valores “congestionamiento”, “mal tiempo”, “comportamiento de riesgo”, “velocidad” son utilizados para describir los conceptos. En los mapas las relaciones son presentadas de forma cualitativa. Podría, por ejemplo, definirse la relación “las reivindicaciones populares normalmente aumentan la solidaridad de la ciudadanía”, y de esta manera representar de forma cualitativa aquello que se asocia por sentido común, o sea la forma como el ser humano percibe e interpreta las situaciones que lo rodean.

José Contreras, en la tesis de grado publicada el año 1995 con el título “Aplicación de mapas cognitivos difusos dinámicos a tareas de supervisión y control”, menciona que sin embargo, e infelizmente, la noción de difuso en la ejecución de un mapa cognitivo difuso se limita al hecho de que los conceptos y las relaciones pueden tener valores continuos, no existiendo ningún mecanismo de inferencia difusa asociado a la ejecución de los mapas cognitivos difusos. Cuando Kosko introdujo los mapas cognitivos difusos, encontró una forma de simular la dinámica de los mapas cognitivos, posibilitando así la existencia de herramientas no destinadas exclusivamente a especialistas con conocimientos en dinámica de sistemas, o matemáticas, para así hacerlos accesibles a interesados de todas las áreas científicas. En su arquitectura los mapas cognitivos difusos, al igual que los mapas de Axelrod, están compuestos por conceptos y relaciones. Hay que resaltar que el único tipo de relación entre conceptos que es permitido por un mapa cognitivo difuso es la causalidad, por lo que el nombre más adecuado para un mapa cognitivo difuso sería de “mapa causal difuso” y no de mapa cognitivo difuso. Los mapas cognitivos difusos son mecanismos iterativos. Como tal, cada iteración simula el paso de un intervalo de tiempo determinado en el sistema modelado, y el valor de cada concepto en la iteración actual es calculado a partir de los valores de sus conceptos antecedentes en la iteración anterior. Dada su naturaleza iterativa, el sistema representado por un mapa cognitivo difuso evoluciona a lo largo del tiempo, y a semejanza del sistema real podrá o no converger a un estado o ciclo de estados. Como ya se ha mencionado, en un mapa cognitivo difuso el nivel de representación de cada concepto depende del nivel de sus antecedentes en la iteración anterior, y es calculado por medio de una suma de productos normalizada, donde la relación entre un concepto y sus antecedentes es modelada por un simple peso

Según Glykas, en el libro publicado el año 2010 titulado “Mapas cognitivos difusos”, los mapas cognitivos difusos son modelos difusos con retroalimentación para representar causalidad. Combinan herramientas teóricas de los mapas cognitivos, la lógica difusa, las redes neuronales, las redes semánticas, los sistemas expertos y los sistemas dinámicos no lineales. Esta técnica permite modelar sistemas con retroalimentación, con grados difusos de causalidad en el intervalo menos uno, uno. En mapas cognitivos difusos, cada nodo representa un conjunto difuso o evento que ocurre en algún grado. Los nodos son conceptos causales y pueden modelar eventos, acciones, valores, metas o procesos. Bueno y Salmeron, en el artículo publicado el año 2009 con el título “Evaluación comparativa de las principales funciones de activación en los mapas cognitivos difusos”, mencionan que en un mapa cognitivo difuso existen tres posibles tipos de relaciones causales entre conceptos: (1) Peso mayor a cero. Indica una causalidad positiva entre dos conceptos. Es decir, el incremento o disminución en el valor del primer concepto, lleva al incremento o disminución en el valor del segundo concepto. (2) Peso menor a cero. Indica una causalidad negativa entre dos conceptos. Es decir, el incremento o disminución en el valor del segundo concepto lleva a la disminución o incremento en el valor del primer concepto. (3) Peso igual a cero. Indica la no existencia de relación entre dos conceptos. El análisis dinámico de los mapas cognitivos difusos comienza con la determinación de un vector de estímulo, que representa el valor inicial de cada variable o concepto. De acuerdo con este vector, el mapa cognitivo difuso convergerá a un punto fijo, ciclo límite o atractor caótico.

En la tesis doctoral de Alejandro Peña, publicada el año 2008 con el título “Un modelo del estudiante basado en mapas cognitivos”, señala que los mapas cognitivos difusos se han empleado en campos tales como diseño de mundos virtuales, inferencia causal, toma de decisiones, supervisión de procesos terapéuticos de radiación, ergonomía cognitiva, representación de hiper-conocimiento e inferencia dinámica. Así mismo, en cuanto a la generación automática de los valores causales para los arcos existen diversos métodos basados en inteligencia de partículas, computación evolutiva y redes neuronales artificiales. También se ha diseñado un método para estimar en forma automática los valores iniciales para los conceptos a través de una red neuronal aleatoria.

lunes, 3 de agosto de 2015

Segunda Parte Agentes de inteligencia ambiental

El argumento central de este artículo es el uso de agentes y sistemas multiagente. Según Bajo y sus colegas, en el artículo publicado el año 2006 titulado “SMas: Centro comercial de sistemas multiagente”, los sistemas multiagente han sido aplicados con éxito en diversos desarrollos basados en la inteligencia ambiental, en áreas como la educación, la cultura, el ocio y entretenimiento, la medicina, la robótica, etc. Grill e Ibrahim, en el artículo publicado el año 2005 titulado “Interacción de agentes en espacios de inteligencia ambiental”, mencionan que los agentes poseen características tales como autonomía, razonamiento, reactividad, habilidades sociales, pro-actividad y movilidad, entre otras. Estas características hacen que resulten adecuados para ser utilizados en la construcción de sistemas basados en el paradigma de la inteligencia ambiental

Sashima, Izumi y Kurumatani, en el artículo publicado el año 2004 titulado “Consorts: Arquitectura multiagente para la coordinación de servicios en computación ubicua”, describen un sistema multiagente para entornos de inteligencia ambiental denominado Consorts. La arquitectura de dicho sistema se encuentra compuesta por un agente personal, en cada dispositivo del usuario, el cual se comunica con otros dispositivos, con un agente de razonamiento espacio-temporal y con un agente de servicios. El agente de servicios administra los servicios web. Mediante una base de datos espacial y una ontología, se manipula la información de localización. Como escenarios de aplicación en el mundo real, se describen hogares inteligentes y espacios de eventos tales como conferencias, exposiciones, conciertos o fiestas. Captura la posición del cliente a través de los sensores de la red y el razonador espacio-temporal gestiona las distancias. Cuando se satisface una relación geométrica, el agente razonador advierte al agente de servicios, y éste envía un mensaje al usuario proveyendo los servicios adecuadamente. El principal problema que se detecta es que los servicios se ofertan ignorando cualquier tipo de preferencia del cliente.

En el artículo “Inteligencia ambiental, de la asistencia personal a las mega ciudades inteligentes”, publicado el año 2007 por Berger y sus colegas, se describen diferentes escenarios de ambientes inteligentes: Una guía personal de la ciudad, un hogar inteligente, el cuidado de la salud e infraestructuras de mega ciudades. Se propone la “Arquitectura de referencia a la inteligencia ambiental”, la cual es una arquitectura de múltiples capas, en donde cada capa depende de los servicios que proveen las capas inferiores, y no tiene conocimiento sobre las capas superiores. Asimismo, se realiza una distinción de diferentes modelos: Modelo del problema, modelo de situación y modelo del mundo. Dentro de la arquitectura se menciona que un sistema multiagente sería una herramienta relevante dadas las condiciones de coordinación necesarias en los sistemas distribuidos. Se muestra como instanciar dicha arquitectura en diferentes escenarios. Dentro de las capas de esta arquitectura se distinguen dos en especial. La primera encargada del razonamiento y actos, comportamiento basado en reglas, planificación, optimización lineal, eventos y enrutamiento, y la segunda, de la percepción y comprensión, razonamiento, control de las estructuras de descripción de recursos. En ambos casos se trabaja directamente con el uso de ontologías.

El articulo “Arquitectura de agente abierta: Una estructura para la construcción de sistemas distribuidos de software”, publicado el año 1995 por Martin y sus colegas, es una estructura para la construcción de sistemas multiagente. Dicha arquitectura está compuesta por los siguientes agentes: (1) Agente facilitador. Es una especie de agente Servidor encargado de la coordinación en la comunicación y cooperación entre agentes. (2) Agentes de aplicación. Son los agentes encargados de proporcionar servicios independientes del dominio tecnológico o dependientes del usuario y contexto. A su vez, cada agente de aplicación puede trabajar con una biblioteca específica a los fines de otorgar un servicio en particular. (3) Meta agentes. Son aquellos cuyo rol es asistir al agente facilitador en su tarea de coordinar las actividades de los otros agentes. Son los encargados de proporcionar soporte a dicho proceso mediante el conocimiento o razonamiento sobre un dominio u aplicación específica. (4) El agente interfaz de usuario. Juega un rol bastante importante, se implementa como una colección de micro-agentes, cada uno de los cuales monitorean una modalidad de entrada de datos diferentes, y realizan la interpretación de esos datos. (5) Otros agentes. Todo otro agente que se encuentre dentro del sistema, es considerado un agente cliente. Que tras una invocación, se conecta al agente facilitador, el cual es conocido como facilitador padre.

Resulta un tanto complicado intentar innovar sobre las numerosas arquitecturas multiagente existentes, sin embargo un desafío interesante para los científicos del área es la adaptación de las arquitecturas existentes a las necesidades del problema que se aborda. La arquitectura multiagente, propuesta por Fuentes, en el artículo publicado el año 2007 titulado “Estructura multiagente BDI genérica y de contexto consciente con la metodología GAIA”, es la que se adapta a cualquier dominio con características contextuales predominantes. Son tres los tipos de agentes involucrados: (1) Agente Cliente. Tiene como objetivos la negociación con agentes proveedores, la recomendación de servicios a otros agentes clientes, confiar en agentes clientes y manipular y mejorar su perfil interno, de acuerdo con los servicios recibidos. (2) Agente Proveedor. La funcionalidad de este tipo de agente es establecer diálogos con los agentes clientes, realizando tratos con ellos a fin de brindarles servicios de acuerdo a sus preferencias y perfil de usuario. La información contextual se distribuye entre los proveedores. (3) Agente Central. Es el encargado de detectar, registrar y quitar del registro a los usuarios del sistema, mejorando los perfiles de usuario, filtrando y notificando a los proveedores que tienen cerca a un potencial cliente.