lunes, 30 de noviembre de 2015

Evolución de herramientas de minería de datos Guillermo Choque Aspiazu

El investigador Jasso, en la tesis de maestría en ciencias de la computación escrita el año 2008 con el título “Sistema para explotar servicios de minería de datos a través de la Web”, menciona que algunas de las herramientas de segunda generación son: IlliMine, Rattle, Rapid Miner y Knime. El grupo de investigación en minería de datos de la Universidad de Illinois, el año 2006 libera la versión 1.1.0 de IlliMine, la cual constituye otra herramienta de minería de datos de segunda generación, IlliMine es un paquete libre, implementado en el lenguaje de alto nivel C++ y desarrollada por el Departamento de Ciencias Computacionales de la Universidad de Illinois en conjunto con el Laboratorio de Investigación de Datos y Sistemas de Información de la universidad citada. IlliMine incluye: (1) Algoritmos de cubos de datos, que constituyen una técnica de manipulación de datos utilizando estructuras de matrices multidimensionales, (2) asociación, (3) minería de patrones secuenciales, la cual es una técnica de extracción de patrones en eventos o sucesos secuenciales donde el factor tiempo juega un papel principal, (4) minería de patrones gráficos, la que constituye una técnica de extracción de patrones de datos representados a través de grafos, y (5) clasificación.

La herramienta analítica para el aprendizaje fácil “Rattle”, fue liberada por Williams en su versión 2.2.74 el año 2007, Rattle es una herramienta libre de minería de datos usada para analizar colecciones de datos muy grandes. Rattle presenta resúmenes estadísticos y visuales de datos, transforma los datos en formas que pueden ser fácilmente modeladas, construye modelos supervisados y no supervisados a partir de los datos, presenta el rendimiento de los modelos gráficamente y da una puntuación a los conjuntos de datos nuevos. A través de una interfaz de usuario simple y lógica basada en Gnome puede ser usado para realizar proyectos de minería de datos. Es posible también realizar proyectos de minería de datos más sofisticados haciendo uso del lenguaje estadístico de licencia libre “R”.

Mierswa y sus colegas, en el artículo publicado el año 2006 con el título “Yale: Prototipado rápido para tareas complejas de minería de datos”, mencionan que Rapid Miner, más formalmente conocido como Yale, es una de las principales herramientas para prototipado y minería de datos de licencia pública a nivel mundial. Desarrollado puramente en Java, contiene una extensión para su fácil uso desde programas de terceros. Ofrece una amplia variedad de diferentes algoritmos y métodos los cuales pueden ser combinados de manera flexible y anidada arbitrariamente. Yale abstrae sus métodos bajo el concepto de operadores contando con más de cuatrocientos y ofreciendo un enfoque de combinación de operadores como un grafo dirigido para representar el proceso de descubrimiento del conocimiento. En este enfoque cada vértice del árbol corresponde a un operador sencillo, permitiendo a los usuarios la fácil incorporación de ciclos dentro de sus experimentos. Los ciclos son esenciales para muchas tareas como optimización de parámetros, selección de características o la aplicación de métodos de aprendizaje iterativos. Knime, en su versión 1.3.1, liberado por la universidad alemana de Konstanz el año 2007, es una plataforma modular de datos que permite al usuario crear visualmente flujos de datos. Permite ejecutar selectivamente algunas o todas los pasos del análisis para posteriormente consultar los resultados a través de vistas interactivas sobre datos y modelos. La versión base de Knime incorpora más de cien nodos de procesamiento para entrada y salida de datos, preprocesamiento y limpieza, modelado, análisis y minería de datos entre otras cosas. Incluye todos los módulos de análisis de Weka y plugins adicionales que permiten que scripts en el lenguaje R sean ejecutados, ofreciendo vasto acceso a bibliotecas de rutinas estadísticas.

De manera subsecuente, aparecieron las herramientas de tercera generación, que se enfocan en resolver las limitantes de trabajar sobre un modelo cerrado, esto es localmente, como lo hacen las herramientas de la segunda generación. Algunos ejemplos de herramientas de la tercera generación son los siguientes: (1) Grid Weka, reportado por Khoussainov y sus colegas, en el artículo publicado el año 2004 titulado “Weka de rejilla habilitada: Un juego de herramientas para el aprendizaje automático en la rejilla”, es una herramienta desarrollada en la Universidad de Dublín que modifica Weka para permitir el uso de múltiples recursos computacionales mientras se ejecuta el análisis de datos. En este sistema, un conjunto de tareas de minería de datos pueden ser distribuidas a través de muchas computadoras en un ambiente ad-hoc o cerrado. (2) Guo y sus colegas, en el artículo publicado el año 2002 con el título “Red de descubrimiento: Hacia una rejilla para el descubrimiento de conocimiento”, proponen una arquitectura, denominada “Red de descubrimiento”, para construir un sistema colaborativo y distribuido de descubrimiento de conocimiento dentro de un ambiente de cómputo en rejilla. Este es un enfoque genérico originado de la necesidad de procesos de descubrimiento de conocimiento en la industria bioinformática, donde procesos complicados de análisis de datos son construidos usando un enfoque basado en tuberías. (3) En el artículo publicado el año 2003 con el título “Hacia una arquitectura de servicio abierto para minería de datos en la rejilla”, Tjoa y sus colegas presentan una arquitectura de software basada en servicio para minería de datos distribuida y de alto rendimiento en ambientes de rejilla y su implementación llamada GridMiner. En este trabajo presentan dos modelos de ejecución para el servicio de minería de datos. El primero es una adaptación a la rejilla de la herramienta Weka a la que llamaron minería de datos centralizada y el segundo es una versión distribuida del mismo que hace uso de los recursos de hardware y software distribuidos unificados dentro de la rejilla.

lunes, 19 de octubre de 2015

Evolución de herramientas de minería de datos

El investigador Jasso, en la tesis de maestría en ciencias de la computación escrita el año 2008 con el título “Sistema para explotar servicios de minería de datos a través de la Web”, menciona que algunas de las herramientas de segunda generación son: IlliMine, Rattle, Rapid Miner y Knime. El grupo de investigación en minería de datos de la Universidad de Illinois, el año 2006 libera la versión 1.1.0 de IlliMine, la cual constituye otra herramienta de minería de datos de segunda generación, IlliMine es un paquete libre, implementado en el lenguaje de alto nivel C++ y desarrollada por el Departamento de Ciencias Computacionales de la Universidad de Illinois en conjunto con el Laboratorio de Investigación de Datos y Sistemas de Información de la universidad citada. IlliMine incluye: (1) Algoritmos de cubos de datos, que constituyen una técnica de manipulación de datos utilizando estructuras de matrices multidimensionales, (2) asociación, (3) minería de patrones secuenciales, la cual es una técnica de extracción de patrones en eventos o sucesos secuenciales donde el factor tiempo juega un papel principal, (4) minería de patrones gráficos, la que constituye una técnica de extracción de patrones de datos representados a través de grafos, y (5) clasificación.

La herramienta analítica para el aprendizaje fácil “Rattle”, fue liberada por Williams en su versión 2.2.74 el año 2007, Rattle es una herramienta libre de minería de datos usada para analizar colecciones de datos muy grandes. Rattle presenta resúmenes estadísticos y visuales de datos, transforma los datos en formas que pueden ser fácilmente modeladas, construye modelos supervisados y no supervisados a partir de los datos, presenta el rendimiento de los modelos gráficamente y da una puntuación a los conjuntos de datos nuevos. A través de una interfaz de usuario simple y lógica basada en Gnome puede ser usado para realizar proyectos de minería de datos. Es posible también realizar proyectos de minería de datos más sofisticados haciendo uso del lenguaje estadístico de licencia libre “R”.

Mierswa y sus colegas, en el artículo publicado el año 2006 con el título “Yale: Prototipado rápido para tareas complejas de minería de datos”, mencionan que Rapid Miner, más formalmente conocido como Yale, es una de las principales herramientas para prototipado y minería de datos de licencia pública a nivel mundial. Desarrollado puramente en Java, contiene una extensión para su fácil uso desde programas de terceros. Ofrece una amplia variedad de diferentes algoritmos y métodos los cuales pueden ser combinados de manera flexible y anidada arbitrariamente. Yale abstrae sus métodos bajo el concepto de operadores contando con más de cuatrocientos y ofreciendo un enfoque de combinación de operadores como un grafo dirigido para representar el proceso de descubrimiento del conocimiento. En este enfoque cada vértice del árbol corresponde a un operador sencillo, permitiendo a los usuarios la fácil incorporación de ciclos dentro de sus experimentos. Los ciclos son esenciales para muchas tareas como optimización de parámetros, selección de características o la aplicación de métodos de aprendizaje iterativos. Knime, en su versión 1.3.1, liberado por la universidad alemana de Konstanz el año 2007, es una plataforma modular de datos que permite al usuario crear visualmente flujos de datos. Permite ejecutar selectivamente algunas o todas los pasos del análisis para posteriormente consultar los resultados a través de vistas interactivas sobre datos y modelos. La versión base de Knime incorpora más de cien nodos de procesamiento para entrada y salida de datos, preprocesamiento y limpieza, modelado, análisis y minería de datos entre otras cosas. Incluye todos los módulos de análisis de Weka y plugins adicionales que permiten que scripts en el lenguaje R sean ejecutados, ofreciendo vasto acceso a bibliotecas de rutinas estadísticas.

De manera subsecuente, aparecieron las herramientas de tercera generación, que se enfocan en resolver las limitantes de trabajar sobre un modelo cerrado, esto es localmente, como lo hacen las herramientas de la segunda generación. Algunos ejemplos de herramientas de la tercera generación son los siguientes: (1) Grid Weka, reportado por Khoussainov y sus colegas, en el artículo publicado el año 2004 titulado “Weka de rejilla habilitada: Un juego de herramientas para el aprendizaje automático en la rejilla”, es una herramienta desarrollada en la Universidad de Dublín que modifica Weka para permitir el uso de múltiples recursos computacionales mientras se ejecuta el análisis de datos. En este sistema, un conjunto de tareas de minería de datos pueden ser distribuidas a través de muchas computadoras en un ambiente ad-hoc o cerrado. (2) Guo y sus colegas, en el artículo publicado el año 2002 con el título “Red de descubrimiento: Hacia una rejilla para el descubrimiento de conocimiento”, proponen una arquitectura, denominada “Red de descubrimiento”, para construir un sistema colaborativo y distribuido de descubrimiento de conocimiento dentro de un ambiente de cómputo en rejilla. Este es un enfoque genérico originado de la necesidad de procesos de descubrimiento de conocimiento en la industria bioinformática, donde procesos complicados de análisis de datos son construidos usando un enfoque basado en tuberías. (3) En el artículo publicado el año 2003 con el título “Hacia una arquitectura de servicio abierto para minería de datos en la rejilla”, Tjoa y sus colegas presentan una arquitectura de software basada en servicio para minería de datos distribuida y de alto rendimiento en ambientes de rejilla y su implementación llamada GridMiner. En este trabajo presentan dos modelos de ejecución para el servicio de minería de datos. El primero es una adaptación a la rejilla de la herramienta Weka a la que llamaron minería de datos centralizada y el segundo es una versión distribuida del mismo que hace uso de los recursos de hardware y software distribuidos unificados dentro de la rejilla.

martes, 13 de octubre de 2015

Evolución de herramientas de minería de datos

En la tesis de grado titulada “Minería de datos aplicada al análisis de la deserción en la Carrera de Analista en Sistemas de Computación”, escrita por el investigador Pautsch en el año 2009, se menciona que el concepto de minería de datos no es nuevo, desde los años 1960, los estadísticos, manejaban términos como “pesca de datos” o “arqueología de datos”. La idea principal era encontrar correlaciones sin una hipótesis previa en base de datos con ruido. Tampoco ninguno de los modelos estadísticos presentes en la minería de datos es nuevo. Los árboles de decisión y de regresión son utilizados desde los señalados años 1960. Las bases de reglas fueron popularizadas durante el auge de los sistemas expertos en los años1980 y las redes neuronales se conocen desde los años 1940, pero han sido necesarios varios años de desarrollo para que fueran utilizables de manera sencilla. Fue a principios de la década de los años 1980 que Rakesh Agrawal, Gio Wiederhold, Robert Blum y Gregory Piatetsky-Shapiro, entre otros, empezaron a consolidar los términos de minería de datos y descubrimiento del conocimiento en bases de datos. Precisamente Piatetsky-Shapiro, en el libro publicado el año 1991 con el título “Descubrimiento de conocimiento en bases de datos”, especifica que la minería de datos se define formalmente como “un conjunto de técnicas y herramientas aplicadas al proceso no trivial de extraer y presentar conocimiento implícito, previamente desconocido, potencialmente útil y humanamente comprensible, a partir de grandes conjuntos de datos, con objeto de predecir, de forma automatizada, tendencias o comportamientos y descubrir modelos previamente desconocidos”. Molina, en el artículo publicado el año 2001 con el título “Torturando a los datos hasta que confiesen”, menciona que, desde el punto de vista empresarial los términos minería de datos y extracción del conocimiento, son tratados como sinónimos, y se los define como: “La integración de un conjunto de áreas que tienen como propósito la identificación de conocimiento obtenido a partir de las bases de datos que aporten un sesgo hacia la toma de decisión”.

El investigador Jasso, en la tesis de maestría en ciencias de la computación escrita el año 2008 con el titulo “Sistema para explotar servicios de minería de datos a través de la Web”, menciona que la minería de datos puede ser vista como una infraestructura que utiliza una selección de diferentes algoritmos y métodos estadísticos para encontrar patrones y tendencias interesantes y novedosas en grandes bases de datos. Entrando en el contexto del artículo propuesto, Shaikh Ali, en el artículo publicado el año 2005 con el título “Composición de servicios Web para minería de datos distribuida”, menciona que a lo largo de la historia de las herramientas de minería de datos, podrían apreciarse tres fases o etapas de su evolución, a estas etapas se las denomina también generaciones para cruzarlas con el concepto mismo de evolución de las herramientas de la minería de datos.

Las herramientas de la primera generación ofrecen típicamente a los usuarios un algoritmo simple de minería de datos que opera sobre un conjunto de datos almacenados de manera local. Algunos ejemplos incluyen el uso de algoritmos de clasificación como el C4.5, planteado por Ross Quinlan en el libro publicado en año 1993 con el título “C4.5: Programas para minería de datos”; algoritmos de agrupamiento como el K-means, descrito por McQueen en el artículo publicado el año 1967 con el título “Algunos métodos para la clasificación y el análisis de multivariaciones”, y otros algoritmos basados en reglas de asociación. Tales herramientas fueron presentadas como programas independientes, obteniendo sus datos de entrada desde la línea de comandos o vía un archivo de configuración.

Las herramientas de la segunda generación combinan una colección de diferentes algoritmos de minería de datos sobre un marco de trabajo común, y permiten a los usuarios proveer datos de entrada de varias fuentes de datos. Algunas de estas herramientas son: Weka, IlliMine, Rattle, Rapid Miner y Knime. Según Witten y Frank, en el libro publicado el año 2000 con el título “Minería de datos: Herramientas practicas de aprendizaje automático con implementaciones Java”, Weka, desarrollado por la Universidad de Waikato en Nueva Zelanda, es un sistema escrito en Java y distribuido bajo los términos de la licencia pública GNU. Contiene una colección del estado del arte de los algoritmos de aprendizaje automático y herramientas de pre-procesamiento de datos escritos en Java. Proporciona un soporte extenso para el proceso completo de minería de datos, incluyendo la preparación de los datos de entrada, la evaluación de los esquemas de aprendizaje, la visualización de los datos de entrada y de los resultados del aprendizaje. Esta herramienta es accedida comúnmente a través de una interfaz común para que sus usuarios puedan comparar diferentes métodos e identificar esos que sean más apropiados para el problema a tratar. Puede ser ejecutado desde casi cualquier plataforma y ha sido probado sobre los sistemas operativos Windows, Linux y Macintosh. En Weka, todo el proceso de minería de datos se realiza en una sola computadora, dado que los algoritmos pueden ser ejecutados sólo localmente.

Jasso, en la tesis de maestría citada, menciona que el objetivo principal de Weka son los algoritmos de clasificación, los cuales mapean un conjunto de instancias con base en un conjunto finito de clases. Cada instancia de los datos es descrita por los valores de sus atributos. Por ejemplo, predecir si va a llover basado en la observación del cielo, la temperatura del aire, la humedad y el viento puede ser visto como una tarea de clasificación. La meta del proceso de obtención de un clasificador, es derivar un clasificador de un conjunto etiquetado de datos, un conjunto de instancias de datos que tienen asignada su clase correspondiente. La idea es que un clasificador obtenido del conjunto de datos etiquetados pueda ser utilizado para predecir las clases de instancias de datos futuras.

lunes, 28 de septiembre de 2015

Grafeno

En el artículo titulado “Propiedades y aplicaciones del grafeno”, escrito por Rodríguez y Vasilievna el año 2008, se menciona que los nanomateriales han acaparado el interés de la investigación científica de las últimas dos décadas, debido al descubrimiento de propiedades disímiles a las que ofrecen los macromateriales, dando lugar al advenimiento de una nueva rama del saber científico: La nanotecnología. El espectro de posibilidades de su aplicación es de bastante amplitud y versatilidad tal que inauguran una verdadera revolución tecnológica. Novoselov y sus colegas, en el artículo publicado el año 2005 con el título “Cristales atómicos bidimensionales”, indican que nanomateriales es el nombre genérico con que se designa a las partículas de una dimensión igual o menor a una millonésima de milímetro. Pueden ser obtenidas a partir de diferentes elementos o compuestos químicos. El carbono, por ser el elemento más conocido e intrigante de la tabla periódica, es el que ha focalizado en mayor grado la atención científica a este respecto. El carbono tiene varias formas alotrópicas. Alotropía, en química, es la existencia, especialmente en el estado sólido, de dos o más formas estructurales moleculares o cristalinas de un elemento. Según Katsnelson, en el artículo escrito el año 2007 titulado “Grafeno: Carbón en dos dimensiones”, los alótropos del carbono pueden ser: (1) Tridimensionales, tales como el diamante y el grafito; (2) Bidimensionales, tales como el grafeno; (3) Monodimensionales, tales como los nanotubos; (4) Cero dimensionales, tales como los fullerenos. Esta alotropía tan extensa se debe a la capacidad de los átomos de carbono para formar redes muy complicadas y numerosas diversas estructuras.

En el articulo “El Grafeno y sus posibilidades de impacto en la industria minera” escrita el año 2014, el investigador Valdivia realiza un análisis del documento mencionando que la aparición del grafeno no es tan sorpresiva en el ámbito científico. Las últimas dos décadas el avance constante de la nanotecnología, aproximadamente desde mediados de los años noventa del siglo veinte, ha estimulado la generación de un sinnúmero de materiales con propiedades sorprendentes. La idea fuerza de la nanotecnología, verificada una y otra vez, es que al reducir el tamaño de los materiales a escala nanométrica, donde un nanómetro es la millonésima parte de un milímetro, sus propiedades físicas y químicas varían notablemente respecto al mismo material pero de mayor tamaño. Estos objetos, de masa tan reducida y dimensiones de entre uno a cien nanómetros se denominan desde entonces nanomateriales. Algunos ejemplos notables de nanomateriales son los nanotubos de carbono, puntos cuánticos de semiconductores, nanofibras, nanoesferas metálicas, nanocintas, y otros.

Geim y Novoselov, en el artículo publicado el año 2007 con el título “El ascenso del grafeno”, mencionan que el grafeno es el bloque de construcción de otros materiales carbonáceos que se conocen desde hace más tiempo. El grafeno es un material bidimensional, una lámina compuesta de átomos de carbono enlazados en hibridación, ordenados en hexágonos regulares que se extienden a lo largo y a lo ancho conservando un átomo de espesor. Si esta lámina se enrolla se obtienen nanotubos de carbono de pared sencilla; si son varias láminas las que se enrollan a la vez serán nanotubos de pared múltiple; si la lámina de grafeno se envuelve como una pelota de fútbol se obtienen fullerenos, y si las láminas de grafeno se apilan como las hojas de un libro se obtiene grafito.

En palabras de Tronc y sus colegas, en el artículo publicado el año 1992 con el título “Transformación de hidróxido férrico en spinel por adsorción de hierro”, los nanotubos de carbono son conocidos desde el año 1991 cuando fueron identificados por el investigador Iijima, mientras que los fullerenos fueron obtenidos por Kroto, Heath, O’Brien, Curl y Smalley en el año 1985. Estos descubrimientos son relativamente recientes si se comparan con el del grafito, cuyo uso se remonta 6000 años atrás cuando en el este de Europa se comenzó a usar para decorar cerámica. Según Zhu y sus colegas, en el artículo escrito el año 2010 con el título “Materiales basados en el grafeno, grafeno y oxido de grafeno: Síntesis, propiedades y aplicaciones”, el grafito debe su nombre precisamente a su uso para escribir, graphein en griego, bien en la cerámica de hace seis mil años o con los lápices que aún se utilizan. El investigador Guo y sus colegas, en el artículo publicado el año 2011 con el título “Microcristales tetracaidecaedrales de magnetita: Síntesis, caracterización y estudio micro-Raman”, mencionan que en el año 1986 Boehm y colaboradores recomendaron el uso de la palabra grafeno para las láminas de carbón que componen el grafito. La terminación “eno” se usa para denominar hidrocarburos aromáticos policíclicos, aún cuando la raíz del nombre sea de origen trivial por ejemplo: naftaleno, antraceno, tetraceno, etc. En 1997 la “Unión Internacional de Química Pura y Aplicada” formalizó esta recomendación al incorporarla en el “Compendio de Tecnología Química”. En él se establece que “el término grafeno se debe usar solo cuando se discutan las reacciones, las relaciones estructurales u otras propiedades de láminas individuales”, descartando así el uso de términos como láminas de grafito, láminas u hojas de carbón, puesto que estas implican una estructura tridimensional que el grafeno no posee.

lunes, 14 de septiembre de 2015

Agentes conversacionales

En la tesis de maestría de Cobos, escrita el año 2013 con el título “Integración de un chatbot como habilidad de un robot social con gestor de diálogos”, se menciona que el uso de los agentes conversacionales o chatbots es bastante común, pues se han vuelto instrumentos de uso múltiples en disciplinas variadas, desde simples supervisores de conversaciones, atención al cliente, ayudantes, hasta mantener una conversación de cualquier tema específico con la capacidad de emular el diálogo que un usuario mantendría con un agente real. Los agentes son programas basados en inteligencia artificial, son entidades capaces de percibir su entorno, procesar lo que perciben y tener una reacción, es decir, una respuesta o actuar en su entorno de manera racional.

El investigador Pérez, en la tesis doctoral escrita el año 2014 con el título “Análisis y optimización de agentes conversacionales 3D para sistemas empotrados”, indica que en el ámbito de la inteligencia artificial existen dos grandes posturas que marcan el objetivo de las investigaciones en todos los campos en los que participa. La “inteligencia artificial fuerte” persigue la creación de máquinas conscientes, una verdadera “vida artificial”, mientras que la “inteligencia artificial débil” descarta esta posibilidad y sus pretensiones son más modestas; considera suficiente el que una máquina pueda actuar como si fuera inteligente. Estas dos visiones tan distantes han impregnado la investigación sobre sistemas conversacionales. La primera aproximación, referida a la inteligencia artificial fuerte, sería la de la percepción de los sistemas conversacionales como una simulación del lenguaje humano, con el objetivo de lograr una teoría completa y capaz de ser implementada en términos computacionales. La segunda aproximación, de la inteligencia artificial débil, con un perfil más ingenieril, es la construcción de interfaces hombre-máquina más naturales y fáciles de usar debido a la incorporación de la comprensión y gestión del dialogo hablado. El análisis realizado se complementa con el efectuado en el artículo escrito por Larsson, el año 2005 titulado “Sistemas de dialogo: Simulaciones o interfaces”.

Edlund y sus colegas, en el artículo publicado el año 2006 titulado “Dos caras de los sistemas de dialogo hablado”, mencionan que otro aspecto relevante que afecta al diseño e implementación del sistema conversacional es la metáfora que el propio sistema representa de cara al usuario. La metáfora “interfaz” considera que el sistema se percibe como una interfaz con la máquina, mientras que la metáfora “humana” hace que el sistema sea percibido como un ser humano. Durante las fases de diseño del agente conversacional se debe ser coherente con el tipo de metáfora que representa el sistema, ya que el tipo de diálogo que el usuario mantiene y espera de él es diferente en ambos casos.

Gracias a este reciente desarrollo en la tecnología de los agentes conversacionales, están surgiendo investigaciones que abordan la incorporación de aspectos “humanos” a estos sistemas, como pueden ser la personalidad, incorporada en el artículo de Galvao y sus colegas del año 2004 titulado “Persona-AIML: Una arquitectura para el desarrollo de chatterbots con personalidad”, y el uso de la intención, reportado en el artículo escrito por Neves y sus colegas el año 2006 con el título “IAIML: Un mecanismo para tratar la intencionalidad en chatterbots AIML”, o las emociones durante los diálogos, mencionado por Baldassarri y sus colegas en el artículo publicado el año 2007 con el título “Interacción emocional con actores virtuales a través de lenguaje natural”. Otro aspecto importante que se introdujo en tiempos relativamente recientes es la idea de dotar al agente conversacional de una representación física virtual, una encarnación, son los denominados ECAs, reportados en el artículo de Baldassarri y sus colegas escrito el año 2007 con el título “Motor de código abierto para agentes animados encarnados”. Estos agentes pueden consistir en simples caras animadas que hablan o ser mucho más complejos, con representaciones gráficas 3D de cara y cuerpo, incluyendo variaciones gestuales, sincronización labial, etc. Cerezo y sus colegas, en el artículo publicado el año 2007 con el título “Agentes virtuales 3D para el control de entornos inteligentes domóticos”, mencionan que entre otras aplicaciones, se están presentando estudios prometedores acerca del uso de este tipo de agentes como nueva forma de interacción en el área de los ambientes inteligentes.

Wooldridge y Jennings, en el libro publicado el año 1995 con el título “Agentes Inteligentes” mencionan que un agente conversacional es un programa de software que interpreta y responde a las declaraciones realizadas por los usuarios en lenguaje natural corriente. Se integra técnicas de lingüística computacional y la comunicación se puede establecer a través de Internet, mensajes instantáneos, correo electrónico, foros, etc. El término “agente conversacional” puede ser analizado por las dos palabras que lo componen. La palabra “agente” es un sistema software, el cual, viene definido por su flexibilidad, entendiendo por flexible que un agente sea: (1) Reactivo, responda al entorno en que se encuentra. (2) Proactivo, que sea capaz de intentar cumplir sus propios objetivos. (3) Social, sea capaz de comunicarse con otros agentes mediante algún tipo de lenguaje. Utilizando el Diccionario de la Real Academia Española, la palabra conversacional significa “Perteneciente o relativo a la conversación.”, entonces un agente conversacional es una entidad artificial diseñada para tener conversaciones con seres humanos u otros agentes conversacionales. Los agentes conversacionales son llamados chatbot, bots, chatterbots, Vpersonas o persona virtual. En la actualidad existen muchos agentes conversacionales con variadas características, utilidades, complejidad y capacidad de respuesta. Se puede encontrar desde sencillos chatbots pensados como juego y diversión, que pretenden responder de forma más o menos cómica, hasta otros muy complejos y técnicos en algún campo que tienen un uso práctico elevado o simplemente que han sido construidos con fines comerciales.

lunes, 7 de septiembre de 2015

Segunda parte Mapas genéticos

En el articulo “Mapeo de genes en peces: Un medio para un fin” publicado el año 2001 por los investigadores Danzmann y Gharbi, se menciona que el mapa genético o mapa de ligamiento de una especie es una representación del orden lineal de un grupo de genes o marcadores a lo largo del genoma, siendo la distancia entre loci adyacentes proporcional a la frecuencia de recombinación entre los mismos. Los marcadores ordenados se distribuyen en grupos de ligamiento, cuyo número debe corresponder al número haploide de cromosomas de la especie cuando el mapa tiene una cobertura genómica adecuada. En un proyecto genómico, estos mapas de ligamiento facilitan el marco de referencia para el ensamblaje a lo largo de los cromosomas de las secuencias brutas de acido desoxirribonucleico obtenidas en los programas de secuenciación genómica. Sakamoto y sus colegas, en el artículo publicado el año 2000 titulado “Un mapa de ligamiento de micro satélites de la trucha arco iris (Oncorhynchus mykiss), caracterizada por grandes diferencias específicas del sexo en las tasas de recombinación”, mencionan que los mapas genéticos proporcionan por sí mismos importante información acerca de los genomas: Son esenciales para entender el comportamiento de los cromosomas y sus interacciones durante la meiosis; permiten la localización de elementos genómicos estructurales, marcadores moleculares y loci que influyen en caracteres mendelianos pero también la “disección genética de rasgos cuantitativos”, definidos por Lynch y Walsh, en el artículo publicado el año 1998 titulado “Genética y análisis de rasgos cuantitativos”, suministran estimaciones del tamaño genómico y posibilitan el estudio evolutivo mediante mapeo comparativo. Por ello, según Naruse y sus colegas, en el artículo publicado el año 2000 con el título “Mapa detallado vinculado de medaka, Oryzias latipes: Genómica comparativa y evolución del genoma”, en la mayoría de las especies, incluyendo los peces, uno de los principales objetivos de los proyectos genómicos ha sido la obtención de mapas genéticos o de ligamiento.

Danzmann y Gharbi, en el artículo mencionado anteriormente, señalan que los mapas genéticos son esenciales para la identificación y el seguimiento de genes o regiones genómicas de interés económico como los “loci de caracteres cuantitativos” para iniciar programas de selección asistida por marcadores moleculares. De acuerdo con Lee, en el artículo publicado el año 1995 con el título “Marcadores de ADN y programas de fitomejoramiento”, los mapas saturados facilitan información para la clonación posicional de genes, permiten la expansión directa del conocimiento del acervo genético a través de la correspondencia comparativa entre taxones y aceleran la identificación e incorporación de genes deseables en los cultivos al aportar pistas importantes para entender la base biológica de los caracteres complejos. El investigador Cornide, en el artículo publicado el año 1993 titulado “Marcadores moleculares, nuevos horizontes en la genética y selección de las plantas: Construcción de mapas genéticos en especies diploides”, señala que la elaboración de un mapa genético se realiza en tres etapas: (1) Determinación de los grupos de ligamiento, (2) Ordenamiento de los genes dentro de cada grupo de ligamiento y (3) Estimación de las distancias entre grupos de ligamiento con base en las frecuencias de recombinación observadas. Gepts y sus colegas, en el artículo publicado el año 1993 titulado “Enlaces en la cartografía del frijol común”, mencionan que una característica de los mapas de ligamiento genético es que la longitud del genoma, medido en centiMorgans, puede ser influenciado por el polimorfismo entre los progenitores, el número de marcadores y las frecuencias de recombinación. Entre otros la longitud del genoma de Phaseolus se estima en 1250 centiMorgans. Korstanje y Paigen, en el artículo publicado el año 2002 con el título “De loci de caracteres cuantitativos a genes: Comienza la cosecha”, señalan que la aplicación de los mapas genéticos para la detección de loci de caracteres cuantitativos, ha ofrecido resultados consistentes en diferentes especies. Los loci de caracteres cuantitativos se identifican dentro del genoma de una planta con base en el principio de asociación entre los marcadores moleculares polimórficos y el fenotipo de los individuos de una población de mejoramiento.

Según Tanksley, en el artículo publicado el año 1993 titulado “Mapeado de polygenes”, tres métodos ampliamente utilizados para la detección de loci de caracteres cuantitativos son: El análisis de un simple marcador, el mapeo por intervalos simple y el mapeo por intervalos compuesto. En palabras de Mora y sus colegas, en el artículo publicado el año 2008 con el título “Mapeo de loci de caracteres cuantitativos usando un enfoque multivariado” La mayoría de los métodos de mapeo de loci de caracteres cuantitativos usados actualmente se basan en la utilización del principio del mapeo por intervalos. El grado de localización necesario para los loci de caracteres cuantitativos individuales varía dependiendo de la característica y del locus estudiado. Tanto la selección asistida por marcadores moleculares como la separación de un loci de caracteres cuantitativos benéfico de uno deletéreo estrechamente ligado serán frecuentemente efectivas con la localización de un intervalo menor o igual a un centiMorgan. Sin embargo, según Funke y sus colegas, en el artículo publicado el año 1993 titulado “Cartografía física de una región en el genoma de la soja que contiene secuencias duplicadas”, el aislamiento de genes en intervalos cada vez menores es necesario debido a que las regiones del genoma de las plantas varían ampliamente en sus frecuencias de recombinación por megabase de acido desoxirribonucleico. De ahí que el grado de saturación con marcadores y la cantidad del mapeo fino requerido para cada loci de caracteres cuantitativos puede variar dependiendo del grupo de ligamiento y del número de loci de caracteres cuantitativos implicados.

lunes, 31 de agosto de 2015

La inteligencia artificial mejora el diagnóstico de enfermedades mentales


Una de las pruebas más comunes para detectar trastornos cognitivos con diverso origen, como por el párkinson o el alzhéimer, es un simple test conocido como el "test del reloj”, en el que el paciente debe dibujar un reloj que debe marcar una determinada hora y, además, debe copiar otro ya dibujado. La observación de alteraciones en la manera de realizar estos dibujos permite a los médicos identificar síntomas de deterioro en el cerebro del paciente.

Muchos desórdenes neurológicos pueden estar presentes mucho antes de comenzar a tener un efecto apreciable en nuestras vidas. Por ejemplo, en el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables. Sin embargo, la evaluación de estas pruebas es subjetiva, puesto que no es fácil llegar a conclusiones definitivas cuando los síntomas son muy leves. Contar con un método de diagnóstico más preciso y fiable podría permitir tratar a los enfermos mucho antes, retrasando el desarrollo de la enfermedad.

Con este objetivo, un grupo de científicos, liderados por investigadores del Laboratorio para la Inteligencia Artificial y Ciencias Computacionales del Instituto Tecnológico de Massachusetts (MIT), ha creado un programa informático capaz de detectar de manera mucho más precisa y automatizada estas alteraciones, ofreciendo un diagnóstico más fiable y precoz a partir de la misma prueba.

Para ello se han valido de los datos recogidos en el Lahey Hospital, un centro médico a las afueras de Boston (EE UU), que desde hace nueve años realiza el test del reloj utilizando un bolígrafo digital que captura en el ordenador los dibujos realizados por los pacientes, además de registrar el proceso de creación de los mismos con gran precisión. Este bolígrafo no fue creado expresamente para este fin, sino que se trata de un dispositivo comercial que incluso se puede comprar por internet. Sin embargo, ha venido como anillo al dedo para recoger la información necesaria de manera precisa y con un registro temporal, es decir, sabiendo en todo momento dónde está la punta del bolígrafo y, por tanto, si el paciente hace una pausa o duda a la hora de escribir.

En el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables

Basandose en estos datos, el equipo, liderado por los investigadores Cynthia Rudin y William Souillard-Mandar del MIT, ha creado un programa informático capaz de interpretar y evaluar automáticamente el test del reloj, aumentando la precisión y eliminando la subjetividad de una evaluación realizada por humanos. "Hemos mejorado el análisis, de manera que es automático y objetivo” explica Rudin. "Con el equipamiento adecuado es posible obtener un resultado rápido y más preciso”. Los resultadosse han sido aceptados para su publicación en la revista Machine Learning.

Para crear el programa, el equipo de Rudin y Souillard-Mandar ha utilizado una serie de casos ejemplares para enseñar a la máquina qué es lo que debe buscar. "Estos ejemplos ayudan a calibrar el poder predictivo de cada una de las partes del dibujo” ha explicado Souillard-Mandar. "Gracias a ellos, hemos podido extraer miles de rasgos del proceso de dibujo que dan pistas acerca del estado cognitivo de cada sujeto, y nuestros algoritmos ayudan a determinar cuáles de ellos llevan a la predicción más fiable”.

Cuando la memoria está afectada, el periodo de reflexión se alarga

Los distintos desórdenes se revelan de diferente manera en el test del reloj. Por ejemplo, mientras que es normal que los adultos sanos pasen más tiempo pensando que dibujando, cuando la memoria está afectada, el periodo de reflexión se alarga. Por otra parte, en el caso del párkinson, los enfermos tienden a necesitar más tiempo para dibujar los relojes que, a su vez, tienden a ser más pequeños, sugiriendo que les está costando un mayor esfuerzo realizar la tarea. Estas consideraciones se podían pasar por alto en la prueba tradicional, ya que, en muchas ocasiones, el médico no ve en detalle cómo el paciente realiza el dibujo, sino tan solo el resultado final.

Este trabajo no sólo permite diagnosticar mejor una serie de patologías muy graves para quienes las sufren, sino que además ofrece un gran avance a la hora de automatizar procesos que pueden resultar tediosos y poco eficientes cuando se realizan por humanos. Una vez conseguido el propósito inicial de demostrar la eficacia de su método, el equipo científico ya se dispone a desarrollar un sistema sencillo que permita tanto a los neurólogos como a los no especialistas utilizar esta tecnología en los hospitales y centros de salud.

¿Qué sueñan las máquinas?

Las redes de neuronas artificiales de los programas de reconocimiento gráfico analizan el contenido de una imagen para clasificarla, pero también pueden generar cuadros surrealistas de animales, plantas, objetos, paisajes y edificios, que solo existen... en la “imaginación” de las máquinas.

Los programas y equipos electrónicos de Google que manejan buena parte de los datos que circulan por el mundo, también pueden tener “sueños” con espectaculares colores y formas, según se desprende de una investigación.

Los autores del post “Inceptionism: Going Deeper into Neural Networks” (http://googleresearch.blogspot.co.uk/), publicado desde la filial de Google en el Reino Unido, han denominado “inceptionismo” a la técnica mediante la cual las máquinas y su software generan surrealistas “sueños” digitales.

El inceptionismo es producto de uno de los complejos sistemas utilizados por la compañía para reconocer y clasificar, de forma automática, el enorme volumen de imágenes de Internet: las redes neuronales artificiales (ANNs por sus siglas en ingles).

Las ANNs son modelos estadísticos y matemáticos usados en computación para dotar a los programas informáticos de capacidad de aprender y que se inspiran en el funcionamiento del sistema nervioso central de los animales, sobre todo de su cerebro.

Estos modelos, estructurados como neuronas interconectadas que intercambian mensajes entre sí, y cuyas interconexiones evolucionan con la experiencia, tienen la capacidad de aprender, corregir errores, organizarse y adaptarse a distintas situaciones.

“Las redes neuronales artificiales han impulsado progresos notables en la clasificación de imágenes y el reconocimiento de la voz”, explican los ingenieros de Google Alejandro Mordvintsev, Christopher Olah y Mike Tyka.

Mordvintsev, Olah y Tyka explican que entrenan a sus redes neuronales artificiales en tareas de reconocimiento “mostrándoles millones de ejemplos de imágenes de un determinado elemento y ajustando, poco a poco, los parámetros hasta que producen las clasificaciones que deseamos”.

Descubrimientos sorprendentes
Estos ingenieros señalan que entrenan a estas redes simplemente mostrándoles muchos ejemplos de lo que quieren que aprendan, esperando que las ANNs extraigan la esencia de dicho elemento y lo reconozcan en cualquiera de sus formas, tamaños, colores y orientaciones, y que ignoren aquello que no es importante.

Al profundizar en el funcionamiento de estas redes, que aún no se comprende del todo, para mejorar su eficacia, Mordvintsev, Olah y Tyka descubrieron dos hechos sorprendentes.

Por un lado hallaron que las ANNs que son entrenadas para discriminar entre diferentes tipos de imágenes, también tienen la información necesaria para generar ellos mismos imágenes y, por otra parte, descubrieron que las imágenes generadas por medio del llamado ‘inceptionismo’ adquieren un aspecto surrealista no ajustándose, en muchos casos, al elemento que tendrían que representar.

Los ingenieros emplearon distintos métodos para visualizar el funcionamiento de las ANNs y su eficacia para reconocer imágenes, partiendo de la idea de que el mismo proceso usado para distinguir imágenes podría usarse para generarlas, y de que si una red neuronal conoce el aspecto de un objeto, por ejemplo un tenedor, entonces podría crear una imagen de dicho tenedor.

Por ejemplo, le dieron instrucciones a sus ANNs para que creen un objeto determinado, para que amplifiquen una determinada figura en el contexto de una imagen, o para que amplifiquen cualquier elemento que reconozcan por si mismas dentro de una imagen, tomando sus propias decisiones.

Creatividad de redes neuronales
También entregaron a las redes neuronales una imagen y les dieron instrucciones del tipo “cualquier cosa que reconozca aquí. Queremos más de dicha cosa” e incluso les entregaron los cuadros creados por ellas mismas para que hicieran “zoom” sobre determinados partes y las procesaran de forma repetitiva, originando nuevas imágenes.

En el aspecto técnico, estos estudios hicieron concluir a los ingenieros de Google que, a veces, estas redes no están buscando el elemento que se les solicitó que busquen y que pueden aprovechar estas visualizaciones surrealista para corregir los errores y mejoran el entrenamiento de las ANNs.

En el plano estético el resultado es fascinante: una serie de coloridos cuadros de aspecto surrealista, intrincados diseños y toques impresionistas, en los que se observan, desde pesas con aspecto de músculos o animales con pieles de arcoiris, hasta montañas y árboles reconvertidos, en pagodas, hojas transformadas en aves, así como edificios y paisajes oníricos.

En uno de los ensayos se entregó a una de las ANNs una imagen de un cielo nublado y esta red, que había sido entrenada para detectar imágenes de animales, encontró una serie de nubes con formas de animales quiméricos, como un perro-caracol, un pájaro-camello y un pez-perro “del mismo modo que los niños disfrutan observando las nubes e interpretando sus formas”.

“Los ‘sueños de las máquinas’ no solo son útiles para el progreso tecnológico, sino además se pueden convertir en una nueva herramienta de expresión artística, una novedosa forma de remezclar conceptos visuales, e incluso de echar algo de luz sobre las raíces de los procesos creativos en general”, según Mordvintsev, Olah y Tyka.

Mapas genéticos Guillermo Choque Aspiazu

La genómica es el estudio de la estructura y organización de genomas completos. En palabras de Gonzales, en la tesis doctoral publicada el año 2002 titulada “Evolución comparada de los elementos cromosómicos en el género Drosophila”, la genómica se divide en dos áreas básicas: La genómica estructural se ocupa de la caracterización de la naturaleza física de los genomas y la genómica funcional encargada de la caracterización del proteoma y de los patrones globales de expresión génica. La genómica estructural comparada examina a partir de la comparación de los mapas genéticos o físicos las propiedades del genoma en especies diferentes. La primera especie en la que se construyó un mapa genético fue Drosophila melanogaster. En el año 1913 Sturtevant descubrió que la proporción de progenie recombinante observada en un apareamiento se podía utilizar como medida de la distancia entre genes: Cuanto más alejados están dos genes en un cromosoma mayor es la probabilidad de que un entrecruzamiento los separe. En los mapas genéticos la unidad de distancia es la unidad de mapa o el centiMorgan que equivale a la distancia entre dos marcadores para los que la frecuencia de recombinación es del uno por ciento. La relación entre la distancia real de mapa y la frecuencia de recombinación entre dos marcadores o loci no es lineal. Cuanto más separados están los marcadores peor es la estima debido a que hay entrecruzamientos que no son detectados y a que los entrecruzamientos no se producen al azar sino que la presencia de un entrecruzamiento inhibe la formación de un segundo entrecruzamiento en las zonas próximas al primero, denominado fenómeno de interferencia. Las funciones de mapa son funciones matemáticas que permiten obtener mejores estimas de la distancia de mapa ya que corrigen para los entrecruzamientos no detectados y en algunos casos tienen en cuenta la interferencia. Los mapas genéticos no coinciden exactamente con los mapas físicos ya que la frecuencia de recombinación no es igual a lo largo de todo el cromosoma. Por ejemplo en Drosophila la frecuencia de recombinación es inferior en las zonas teloméricas y centroméricas.

Según Strachan y Read, en el libro publicado el año 1996 con el título “Genética molecular humana”, en los mapas físicos de baja resolución, tanto en mapas citológicos o cromosómicos, los marcadores se asignan a porciones más o menos grandes de los cromosomas. La distancia se mide en bandas, que en el caso de los cromosomas metafásicos contienen varias megabases de acido desoxirribonucleico y en el caso de los cromosomas politénicos de Drosophila varias kilobases. En los mapas físicos de alta resolución los genes se sitúan en la molécula de acido desoxirribonucleico. La distancia de mapa se mide en kilobases o pares de bases.

En el artículo publicado el año 1998, por los investigadores Nadeau y Sankoff con el título “Conteo sobre mapas comparativos”, se menciona que la comparación de los mapas físicos de dos especies permite identificar los segmentos cromosómicos que se han conservado a lo largo de la evolución de estas especies y estimar el número mínimo de reordenaciones cromosómicas necesarias para transformar el genoma de una especie en el de la otra. Un segmento conservado se define como la región cromosómica en la que el orden relativo de marcadores contiguos es idéntico en las dos especies comparadas. Wright, en el artículo publicado el año 1996 con el título “Análisis fenotípico del grupo de genes mutantes dopa decarboxylase en Drosophila melanogaster”, menciona que los genes que forman un segmento conservado pueden representar combinaciones de genes que interactúan funcionalmente y que por tanto son mantenidos juntos por la selección natural. Nadeau y Taylor, en el artículo publicado el año 1984 titulado “Tamaños de segmentos de cromosoma conservados desde la divergencia de hombres y ratones”, complementa mencionando que, sin embargo, debido a que todos los genomas están interrelacionados, es decir, tienen un antepasado común, estos segmentos conservados pueden ser también el resultado de la fijación de un número limitado de reordenaciones cromosómicas con puntos de rotura al azar desde la divergencia de las dos especies.

Devos y Gale, en el artículo publicado el año 2000 con el título “Relaciones genómicas: El modelo de la hierba en la investigación actual”, además de Murphy y sus colegas, en el artículo publicado el año 2001 con el título “Evolución de la organización del genoma de mamíferos inferida del mapeo de genes comparativo”, mencionan que la identificación de segmentos cromosómicos conservados a lo largo de la evolución de especies pertenecientes a diferentes taxones sugiere que es posible la construcción de mapas genéticos unificados para grupos de organismos. Esto implica que se puede transferir información de las especies mejor estudiadas a otras que no lo han sido tanto. A pesar de que se dispone de mapas físicos para un número elevado de especies tanto de plantas como de animales, Drosophila sigue siendo un buen modelo para la realización de estudios de comparación de genomas. Madueño y sus colegas, en el artículo publicado el año 1995 titulado “Mapa físico del cromosoma X de Drosophila melanogaster: Secuencias de sitios contiguos y etiquetados”, mencionan que la construcción de las primeras genotecas en Drosophila melanogaster: Cósmidos, fagos P1, y cromosomas artificiales de levadura, permitió la construcción de mapas físicos de alta resolución de cromosomas enteros en esta especie. Posteriormente el genoma de Drosophila melanogaster fue secuenciado, facilitando así los estudios comparativos. La secuenciación es descrita en el artículo publicado el año 2000 por Adams y sus colegas con el título “La secuencia genómica de Drosophila melanogaster.

lunes, 24 de agosto de 2015

Primera parte Análisis de datos con redes neuronales

Si se busca en el Diccionario de la Real Academia Española de la Lengua el vocablo “estadística” aparecen tres acepciones de dicha palabra: (1) Estudio de los datos cuantitativos de la población, de los recursos naturales e industriales, del tráfico o de cualquier otra manifestación de las sociedades humanas. (2) Conjunto de estos datos. (3) Rama de la matemática que utiliza grandes conjuntos de datos numéricos para obtener inferencias basadas en el cálculo de probabilidades. Según Saez Castillo, en el libro publicado el año 2012 titulado “Apuntes de estadística para ingenieros”, se menciona que probablemente el más común de los significados conocidos de la palabra sea el segundo, y por ello se suele ver en los medios de comunicación que cualquier recopilación de cifras referentes a algún asunto es denominado, de forma muy reduccionista, estadística o estadísticas. Sin embargo, el valor real de la Estadística como ciencia tiene que ver mucho más con la primera y la tercera acepción del Diccionario de la Real Academia Española de la Lengua. Concretamente, el primero de los significados se corresponde con lo que se estudia como “estadística descriptiva”, donde la estadística se utiliza para resumir, describir y explorar datos, y el tercero con lo que se denomina “inferencia estadística”, donde lo que se pretende mediante la estadística es utilizar datos de un conjunto reducido de casos para inferir características de éstos al conjunto de todos ellos. La estadística es una disciplina que proporciona las herramientas necesarias para el análisis de los datos. Dado que en algunas situaciones no es posible realizar estudios exhaustivos en toda la población, la estadística permite cuantificar la probabilidad de cometer error al extrapolar los resultados obtenidos de una serie de muestras al conjunto de la población. Por tanto, la estadística permite cuantificar el error que se comete al aceptar los resultados obtenidos a partir de muestras, habitualmente basadas en encuestas, de una población generalmente muy extensa.

En la tesis doctoral de Castellano, publicada el año 2009 con el título “Modelización estadística con redes neuronales”, se menciona que una red neuronal es un proceso sólido y paralelamente distribuido con la propensión natural a acumular procedimientos experimentales y hacerlos disponibles para su uso. Se parece al cerebro en dos aspectos, por una parte la red adquiere conocimientos a través de un proceso de aprendizaje, y por otra las conexiones inter-neuronales, conocidas como cargas sinápticas presentan una gran solidez encargándose de almacenar conocimiento. Las redes neuronales se usan principalmente con tres objetivos diferenciados: (1) Como modelos nerviosos biológicos. Parte de las motivaciones biológicas que dieron lugar a las redes neuronales se han conservado, y se siguen empleando como instrumentos que ayudan a entender y duplicar el funcionamiento del sistema nervioso de los seres vivos. (2) Como procesadores adaptativos de señal en tiempo real. Corresponde al área de reconocimiento de patrones, se encuentran implementadas en hardware para aplicaciones tipo robot. La tecnología, la ciencia y los negocios han aportado nuevas tareas de interés, que en algunos casos son eminentemente tecnológicas. El objetivo es construir máquinas que realicen estas labores de un modo más rápido, barato y exacto que las personas. Cada vez es más factible idear sistemas automáticos que sustituyan y mejoren al especialista, o clonar al experto. (3) Como métodos de análisis de datos. Principalmente este trabajo se encuentra centrado en esta última faceta de las redes. De hecho en multitud de ocasiones si se analiza detalladamente lo que está haciendo una red neuronal se descubrirá que se dedica a rescribir métodos estadísticos clásicos. Así mismo cualquier red, aún cuando su objetivo final sea algo muy concreto y a simple vista alejado de la estadística, como “la voz” del desfibrilador que indica si el paciente tiene pulso y no puede recibir la descarga, fue diseñada, y por lo tanto puede ser analizada desde un punto de vista meramente estadístico.

En palabras del investigador Escobar, en el artículo publicado el año 2002 titulado “Análisis de datos con redes neuronales aplicadas al diagnóstico de la solvencia empresarial”, la introducción de las redes neuronales, en el análisis de datos, viene motivada por el deseo de mejorar los resultados que se alcanzaban con los modelos estadísticos, análisis discriminante y regresión lógica principalmente, que proporcionan regiones de decisión definidas a través de combinaciones lineales de sus variables, mientras que en las redes neuronales es posible la definición de regiones mucho más complejas y, por lo tanto, la reducción del número de elementos incorrectamente clasificados. Otra característica positiva que presentan las redes es que el conocimiento representado en las mismas es adaptativo, es decir, aunque el “aprendizaje” se realiza en el momento inicial con un número limitado de casos, posteriormente puede reentrenarse la red incorporando al conjunto de datos nuevos casos producto de las condiciones cambiantes del entorno o de información que no se disponía en momentos anteriores. Además, en muchas oportunidades la información base, suele constar de multitud de datos correlacionados, incompletos, erróneos o adulterados. Estas características son la materia con la que las redes neuronales proporcionan mejores resultados, ya que gozan de una elevada capacidad de filtrar los ruidos que acompañan a la información y de una alta tolerancia a las fallas. En ese mismo sentido, destacan las virtudes de las redes neuronales cuando los modelos a reconocer presentan variaciones.

lunes, 17 de agosto de 2015

Mapas cognitivos difusos


Los mapas cognitivos difusos fueron desarrollados por Kosko, específicamente en el artículo escrito el año 1986 titulado “Mapas cognitivos difusos”, a partir de los mapas cognitivos de Axelrod, reportados en el libro escrito el año 1976 con el título “Estructura de decisión: Los mapas cognitivos de las elites políticas”. El análisis estructural de estos mapas permite deducir información sobre la importancia de los conceptos implicados en el problema e identificar cuáles son los verdaderos argumentos involucrados. Los mapas cognitivos difusos fueron presentados inicialmente como mecanismos difusos, pudiendo los conceptos y relaciones ser representados con variables difusas, las cuales se expresan en términos lingüísticos. Términos como “casi siempre”, “siempre”, “normalmente”, “algunos”, son variables difusas utilizadas para describir las relaciones entre conceptos. Los valores “congestionamiento”, “mal tiempo”, “comportamiento de riesgo”, “velocidad” son utilizados para describir los conceptos. En los mapas las relaciones son presentadas de forma cualitativa. Podría, por ejemplo, definirse la relación “las reivindicaciones populares normalmente aumentan la solidaridad de la ciudadanía”, y de esta manera representar de forma cualitativa aquello que se asocia por sentido común, o sea la forma como el ser humano percibe e interpreta las situaciones que lo rodean.

José Contreras, en la tesis de grado publicada el año 1995 con el título “Aplicación de mapas cognitivos difusos dinámicos a tareas de supervisión y control”, menciona que sin embargo, e infelizmente, la noción de difuso en la ejecución de un mapa cognitivo difuso se limita al hecho de que los conceptos y las relaciones pueden tener valores continuos, no existiendo ningún mecanismo de inferencia difusa asociado a la ejecución de los mapas cognitivos difusos. Cuando Kosko introdujo los mapas cognitivos difusos, encontró una forma de simular la dinámica de los mapas cognitivos, posibilitando así la existencia de herramientas no destinadas exclusivamente a especialistas con conocimientos en dinámica de sistemas, o matemáticas, para así hacerlos accesibles a interesados de todas las áreas científicas. En su arquitectura los mapas cognitivos difusos, al igual que los mapas de Axelrod, están compuestos por conceptos y relaciones. Hay que resaltar que el único tipo de relación entre conceptos que es permitido por un mapa cognitivo difuso es la causalidad, por lo que el nombre más adecuado para un mapa cognitivo difuso sería de “mapa causal difuso” y no de mapa cognitivo difuso. Los mapas cognitivos difusos son mecanismos iterativos. Como tal, cada iteración simula el paso de un intervalo de tiempo determinado en el sistema modelado, y el valor de cada concepto en la iteración actual es calculado a partir de los valores de sus conceptos antecedentes en la iteración anterior. Dada su naturaleza iterativa, el sistema representado por un mapa cognitivo difuso evoluciona a lo largo del tiempo, y a semejanza del sistema real podrá o no converger a un estado o ciclo de estados. Como ya se ha mencionado, en un mapa cognitivo difuso el nivel de representación de cada concepto depende del nivel de sus antecedentes en la iteración anterior, y es calculado por medio de una suma de productos normalizada, donde la relación entre un concepto y sus antecedentes es modelada por un simple peso

Según Glykas, en el libro publicado el año 2010 titulado “Mapas cognitivos difusos”, los mapas cognitivos difusos son modelos difusos con retroalimentación para representar causalidad. Combinan herramientas teóricas de los mapas cognitivos, la lógica difusa, las redes neuronales, las redes semánticas, los sistemas expertos y los sistemas dinámicos no lineales. Esta técnica permite modelar sistemas con retroalimentación, con grados difusos de causalidad en el intervalo menos uno, uno. En mapas cognitivos difusos, cada nodo representa un conjunto difuso o evento que ocurre en algún grado. Los nodos son conceptos causales y pueden modelar eventos, acciones, valores, metas o procesos. Bueno y Salmeron, en el artículo publicado el año 2009 con el título “Evaluación comparativa de las principales funciones de activación en los mapas cognitivos difusos”, mencionan que en un mapa cognitivo difuso existen tres posibles tipos de relaciones causales entre conceptos: (1) Peso mayor a cero. Indica una causalidad positiva entre dos conceptos. Es decir, el incremento o disminución en el valor del primer concepto, lleva al incremento o disminución en el valor del segundo concepto. (2) Peso menor a cero. Indica una causalidad negativa entre dos conceptos. Es decir, el incremento o disminución en el valor del segundo concepto lleva a la disminución o incremento en el valor del primer concepto. (3) Peso igual a cero. Indica la no existencia de relación entre dos conceptos. El análisis dinámico de los mapas cognitivos difusos comienza con la determinación de un vector de estímulo, que representa el valor inicial de cada variable o concepto. De acuerdo con este vector, el mapa cognitivo difuso convergerá a un punto fijo, ciclo límite o atractor caótico.

En la tesis doctoral de Alejandro Peña, publicada el año 2008 con el título “Un modelo del estudiante basado en mapas cognitivos”, señala que los mapas cognitivos difusos se han empleado en campos tales como diseño de mundos virtuales, inferencia causal, toma de decisiones, supervisión de procesos terapéuticos de radiación, ergonomía cognitiva, representación de hiper-conocimiento e inferencia dinámica. Así mismo, en cuanto a la generación automática de los valores causales para los arcos existen diversos métodos basados en inteligencia de partículas, computación evolutiva y redes neuronales artificiales. También se ha diseñado un método para estimar en forma automática los valores iniciales para los conceptos a través de una red neuronal aleatoria.

lunes, 3 de agosto de 2015

Segunda Parte Agentes de inteligencia ambiental

El argumento central de este artículo es el uso de agentes y sistemas multiagente. Según Bajo y sus colegas, en el artículo publicado el año 2006 titulado “SMas: Centro comercial de sistemas multiagente”, los sistemas multiagente han sido aplicados con éxito en diversos desarrollos basados en la inteligencia ambiental, en áreas como la educación, la cultura, el ocio y entretenimiento, la medicina, la robótica, etc. Grill e Ibrahim, en el artículo publicado el año 2005 titulado “Interacción de agentes en espacios de inteligencia ambiental”, mencionan que los agentes poseen características tales como autonomía, razonamiento, reactividad, habilidades sociales, pro-actividad y movilidad, entre otras. Estas características hacen que resulten adecuados para ser utilizados en la construcción de sistemas basados en el paradigma de la inteligencia ambiental

Sashima, Izumi y Kurumatani, en el artículo publicado el año 2004 titulado “Consorts: Arquitectura multiagente para la coordinación de servicios en computación ubicua”, describen un sistema multiagente para entornos de inteligencia ambiental denominado Consorts. La arquitectura de dicho sistema se encuentra compuesta por un agente personal, en cada dispositivo del usuario, el cual se comunica con otros dispositivos, con un agente de razonamiento espacio-temporal y con un agente de servicios. El agente de servicios administra los servicios web. Mediante una base de datos espacial y una ontología, se manipula la información de localización. Como escenarios de aplicación en el mundo real, se describen hogares inteligentes y espacios de eventos tales como conferencias, exposiciones, conciertos o fiestas. Captura la posición del cliente a través de los sensores de la red y el razonador espacio-temporal gestiona las distancias. Cuando se satisface una relación geométrica, el agente razonador advierte al agente de servicios, y éste envía un mensaje al usuario proveyendo los servicios adecuadamente. El principal problema que se detecta es que los servicios se ofertan ignorando cualquier tipo de preferencia del cliente.

En el artículo “Inteligencia ambiental, de la asistencia personal a las mega ciudades inteligentes”, publicado el año 2007 por Berger y sus colegas, se describen diferentes escenarios de ambientes inteligentes: Una guía personal de la ciudad, un hogar inteligente, el cuidado de la salud e infraestructuras de mega ciudades. Se propone la “Arquitectura de referencia a la inteligencia ambiental”, la cual es una arquitectura de múltiples capas, en donde cada capa depende de los servicios que proveen las capas inferiores, y no tiene conocimiento sobre las capas superiores. Asimismo, se realiza una distinción de diferentes modelos: Modelo del problema, modelo de situación y modelo del mundo. Dentro de la arquitectura se menciona que un sistema multiagente sería una herramienta relevante dadas las condiciones de coordinación necesarias en los sistemas distribuidos. Se muestra como instanciar dicha arquitectura en diferentes escenarios. Dentro de las capas de esta arquitectura se distinguen dos en especial. La primera encargada del razonamiento y actos, comportamiento basado en reglas, planificación, optimización lineal, eventos y enrutamiento, y la segunda, de la percepción y comprensión, razonamiento, control de las estructuras de descripción de recursos. En ambos casos se trabaja directamente con el uso de ontologías.

El articulo “Arquitectura de agente abierta: Una estructura para la construcción de sistemas distribuidos de software”, publicado el año 1995 por Martin y sus colegas, es una estructura para la construcción de sistemas multiagente. Dicha arquitectura está compuesta por los siguientes agentes: (1) Agente facilitador. Es una especie de agente Servidor encargado de la coordinación en la comunicación y cooperación entre agentes. (2) Agentes de aplicación. Son los agentes encargados de proporcionar servicios independientes del dominio tecnológico o dependientes del usuario y contexto. A su vez, cada agente de aplicación puede trabajar con una biblioteca específica a los fines de otorgar un servicio en particular. (3) Meta agentes. Son aquellos cuyo rol es asistir al agente facilitador en su tarea de coordinar las actividades de los otros agentes. Son los encargados de proporcionar soporte a dicho proceso mediante el conocimiento o razonamiento sobre un dominio u aplicación específica. (4) El agente interfaz de usuario. Juega un rol bastante importante, se implementa como una colección de micro-agentes, cada uno de los cuales monitorean una modalidad de entrada de datos diferentes, y realizan la interpretación de esos datos. (5) Otros agentes. Todo otro agente que se encuentre dentro del sistema, es considerado un agente cliente. Que tras una invocación, se conecta al agente facilitador, el cual es conocido como facilitador padre.

Resulta un tanto complicado intentar innovar sobre las numerosas arquitecturas multiagente existentes, sin embargo un desafío interesante para los científicos del área es la adaptación de las arquitecturas existentes a las necesidades del problema que se aborda. La arquitectura multiagente, propuesta por Fuentes, en el artículo publicado el año 2007 titulado “Estructura multiagente BDI genérica y de contexto consciente con la metodología GAIA”, es la que se adapta a cualquier dominio con características contextuales predominantes. Son tres los tipos de agentes involucrados: (1) Agente Cliente. Tiene como objetivos la negociación con agentes proveedores, la recomendación de servicios a otros agentes clientes, confiar en agentes clientes y manipular y mejorar su perfil interno, de acuerdo con los servicios recibidos. (2) Agente Proveedor. La funcionalidad de este tipo de agente es establecer diálogos con los agentes clientes, realizando tratos con ellos a fin de brindarles servicios de acuerdo a sus preferencias y perfil de usuario. La información contextual se distribuye entre los proveedores. (3) Agente Central. Es el encargado de detectar, registrar y quitar del registro a los usuarios del sistema, mejorando los perfiles de usuario, filtrando y notificando a los proveedores que tienen cerca a un potencial cliente.

lunes, 27 de julio de 2015

Agentes en inteligencia ambiental

En la memoria escrita el año 2014 para optar al grado de doctor, presentada por el investigador Fernández con el título “Arquitectura de pizarras distribuidas para sistemas de inteligencia ambiental”, se menciona que la información en un sistema de inteligencia ambiental es de naturaleza diversa. Los datos sin procesar de los sensores se agregan y filtran para crear información abstracta, que puede ser procesada por componentes que observan sus cambios para decidir qué acciones tomar. Este proceso involucra las siguientes tareas: Encontrar las fuentes de información disponibles y sus tipos, reunir los datos proporcionados por estas fuentes, facilitar la fusión de los fragmentos de información, y actualizar la representación de este contexto para que sea utilizada por diferentes aplicaciones. Los sistemas de inteligencia ambiental deben adaptarse a estas condiciones cambiantes para ser capaces de proporcionar sus servicios, siendo tan poco intrusivos como sea posible. También hay requisitos de rendimiento que el sistema debe cumplir para proporcionar respuestas en tiempo real a los estímulos del entorno. Los mecanismos de control oportunista, a través de agentes inteligentes, abordan estos aspectos monitorizando el contexto, y suspendiendo o resolviendo objetivos cuando las condiciones apropiadas se cumplen.

En palabras de Russell y Norvig, en el libro publicado el año 1996 con el título “Inteligencia artificial: Un enfoque moderno”, un agente es una entidad de software que puede actuar por sí mismo con el fin de alcanzar unos objetivos que se ha fijado inicialmente y además está caracterizado por una o varias cualidades tales como capacidad de razonamiento o inteligencia, percepción de su entorno y actuación con base a ciertas circunstancias, de manera reactiva. También, tiene la capacidad de actuar en forma proactiva, es decir, actúa sin necesidad de darle una orden y la habilidad de desplazarse de un lugar a otro. Según Wooldridge y Jennings, en el artículo publicado el año 1995 titulado “Agentes inteligentes: Teoría y práctica”, un agente es un sistema computacional que está ubicado en algún ambiente, y está capacitado de acciones autónomas en este ambiente para cumplir sus objetivos planteados. La primera definición general de agente, citada en la tesis doctoral de Pérez, escrita el año 2000 con el título “Sahara: Arquitectura de seguridad integral para sistemas de agentes móviles basados en Java”, fue la proporcionada por G.W. Lecky-Thompson, la cual menciona lo siguiente: “Un agente es una pieza de software que ejecuta una tarea dada usando información obtenida de su entorno para actuar de forma apropiada para completar la tarea exitosamente. El software debe ser capaz de adaptarse a sí mismo en base a los cambios que ocurren en su entorno, para que un cambio en circunstancias le permita aún obtener el resultado deseado”.

Según Horfan, en el artículo publicado el año 2005 titulado “Sistema de seguridad en redes locales utilizando sistemas multiagente distribuidos, las principales características de un sistema multiagente son: (1) Organización. Se encuentra relacionada con la estructura de las componentes funcionales del sistema, sus características, sus responsabilidades, sus necesidades y de la forma como realizan sus comunicaciones. (2) Comunicación. Es el medio por el cual los agentes comparten conocimiento y se sincronizan para llevar a cabo sus tareas conjuntamente. (3) Coordinación. Es una propiedad de un sistema de agentes que realizan alguna actividad en un ambiente compartido, esta característica se describe en detalle en el libro de Weiss, publicado el año 1999 con el título “Sistemas multiagente”. (4) Cooperación. Se refiere a la forma como los agentes trabajan conjuntamente para lograr un objetivo global, la cual depende de la configuración organizacional del sistema. (5) Control. Se encarga de estimar el tiempo para la solución de una tarea, evaluar si se ha generado una solución para una subtarea, escoger entre varias subtareas a realizar basados en su importancia y determinar el contexto que debe ser utilizado por un agente para la solución de una subtarea.

Por su parte O’Hare y sus colegas, en el artículo publicado el año 2004 con el título “Agentes inteligentes agiles”, mencionan que la inteligencia ambiental consiste en la creación de espacios donde los usuarios interactúan de forma natural y sin esfuerzo con los diferentes sistemas, gracias a que las tecnologías de computación y comunicación se vuelven invisibles para el usuario, al estar siempre presentes e integradas en los objetos cotidianos del mismo. Esta visión ha despertado un creciente interés por utilizar las tecnologías de la computación en la construcción de sistemas que soporten las actividades de la vida diaria de forma más eficiente. De esta forma, dentro de estos espacios se abarcan cualidades, como el reconocimiento y la acomodación de los diversos componentes que los constituyen, la personalización y la adaptabilidad del sistema, el entendimiento del estado en determinada situación, la colaboración y la cooperación entre componentes del sistema y las características autónomas como auto-administración y auto-reparación. Aarts y Marzano, en el libro publicado el año 2003 titulado “El nuevo diario: Opiniones sobre inteligencia ambiental”, mencionan que las cinco características principales de la inteligencia ambiental son: (1) Embebida. Muchos dispositivos conectados en red son integrados en el ambiente. (2) Sensible al contexto. Los dispositivos pueden reconocer a las personas y la situación de su contexto en un momento determinado. (3) Personalizada. Los dispositivos pueden adaptarse a las necesidades de las personas. (4) Adaptativa. Estos dispositivos pueden cambiar en respuesta a las personas y a su ambiente. (5) Anticipativa. Los dispositivos pueden anticipar los deseos sin una mediación consciente. Así, los entornos inteligentes, denominados también entornos de inteligencia ambiental, pueden implementarse en escenarios domésticos, espacios móviles, entornos públicos y espacios privados reducidos.

lunes, 20 de julio de 2015

Segunda parte Aprendizaje automático

En la tesis de doctorado de José Giraldez, publicada el año 1999 con el título “Modelo de toma de decisiones y aprendizaje en sistemas multiagente” el primer método inductivo supervisado es el denominado “Inducción descendente de árboles de decisión”, que es una estrategia que puede emplearse para solucionar el problema que plantea el aprendizaje. Consiste en dividir el conjunto de entrenamiento en subconjuntos, empleando la estrategia “divide y vencerás” además de los criterios que separen más los ejemplos. Cuando los ejemplos están descritos en lógica de atributos, esta división se hace introduciendo en el mismo conjunto todos los ejemplos que comparten un mismo valor de un atributo dado. Smith, en el libro publicado el año 1988 con el título “Análisis de decisiones, un enfoque bayesiano”, menciona que si se representa mediante nodos de un árbol cada uno de los subconjuntos así formados, puede construirse un árbol de decisión que permita clasificar instancias. El tipo de métodos que hacen esto se llama: Inducción descendente de árboles de decisión, y el más conocido de ellos es el ID3, que fue seguido por versiones más potentes como C4.5, ambos trabajados por Quinlan, reportados en los libros publicados los años 1983 y 1993 titulados “Procedimientos de clasificación eficiente de aprendizaje y sus aplicaciones al juego del ajedrez” y “C4.5: Programas para el aprendizaje automático”.

Otro método inductivo supervisado es denominado “Programación lógica inductiva”, cuyo objetivo fundamental es aprender programas lógicos que describan un concepto a partir de un conjunto de entrenamiento compuesto por ejemplos. En el artículo de Bratko y Muggleton, publicado en año 1995 con el título “Aplicaciones de la programación lógica inductiva”, se menciona que este paradigma se presta fácilmente al uso de conocimiento del dominio durante el proceso de aprendizaje, siempre que se exprese en el lenguaje de programación lógica. Además, el poder expresivo del lenguaje de entrada y de salida es mayor que en el caso de otros paradigmas de aprendizaje automático que usan lenguajes proposicionales tipo atributo-valor como en el método ID3. Como consecuencia de esto, se extiende el número de aplicaciones que pueden tratarse con métodos de aprendizaje inductivo. En el articulo “Aprendizaje de definiciones lógicas a partir de relaciones”, escrito por Quinlan el año 1990, se presenta el sistema FOIL, que aprende definiciones de conceptos expresadas en forma de cláusulas de Horn, a partir de ejemplos expresados de manera relacional. Entre sus características más relevantes se encuentran: (a) Que es capaz de aprender definiciones recursivas del concepto objetivo; (b) el uso de métodos eficientes adaptados de sistemas de aprendizaje inductivo que emplean el formalismo de representación proposicional atributo-valor; y (c) que es capaz de aprender reglas que, aunque puedan ser ocasionalmente inexactas, son útiles.

En relación con los métodos no inductivos destacan los métodos: Aprendizaje basado en la explicación y el razonamiento basado en casos. Los métodos de aprendizaje basado en la explicación, se encargan de explicar por qué un ejemplo en particular es una instancia de un concepto. Mitchell y sus colegas, en el artículo escrito el año 1986 con el título “Generalización basada en la explicación: Una vista unificada”, mencionan que estas explicaciones son convertidas en reglas y empleadas para la categorización. Los métodos de aprendizaje basado en la explicación son analíticos y hacen un uso intensivo del conocimiento, mientras que los métodos inductivos son empíricos y hacen un uso muy pobre del conocimiento disponible por lo que necesitan muchos ejemplos. Los métodos de aprendizaje basado en la explicación pueden generalizar a partir de un único ejemplo, analizando por qué ese ejemplo es una instancia del concepto. La explicación identifica las características relevantes del ejemplo que constituyen condiciones suficientes para la descripción del concepto. La potencia de los métodos de aprendizaje basado en la explicación radica en su capacidad de utilizar la teoría del dominio para guiar el proceso de análisis.

Por su parte, el investigador Watson, en el libro publicado el año 1997 con el título “Aplicación del razonamiento basado en casos”, menciona que los sistemas de razonamiento basado en casos resuelven nuevos problemas adaptando soluciones que sirvieron para resolver problemas antiguos. Este paradigma de razonamiento es similar al que las personas usan habitualmente para resolver problemas. Según Aha, en el artículo escrito el año 1998 titulado “La omnipresencia del razonamiento basado en casos en la ciencia y su aplicación”, el proceso de resolución de problemas puede resumirse en las siguientes etapas: (1) Extracción. Dado un problema propuesto al sistema de razonamiento basado en casos, se extrae de una biblioteca donde están almacenados los casos en forma de tripletas: Problema, solución, resultado. (2) Reutilización. Se aplican una o más soluciones de estos casos extraídos al problema en cuestión. También pueden aplicarse combinaciones de las soluciones entre ellas y con conocimiento disponible del dominio de aplicación. (3) Adaptación. Se adapta la solución extraída según se necesite para resolver el nuevo problema. (4) Evaluación. Se evalúa el resultado de aplicar la solución adaptada al problema, y si el resultado no es aceptable, se vuelve a la etapa de adaptación. (5) Conservación. se considera el añadido del nuevo caso a la biblioteca de casos. Aquí se precisa de una métrica de la similitud que afectará decisivamente el éxito del sistema de razonamiento basado en casos.

Este proceso de resolver los problemas pertenece a un tipo de solucionado de problemas denominado perezoso, definido en el artículo escrito por Aha y sus colegas el año 1991 titulado “Algoritmos de aprendizaje basados en instancias”, debido a que los cálculos son realizados bajo demanda. Un solucionador de problemas perezoso se caracteriza por: (1) No procesar los datos de que dispone hasta que se le solicita información; (2) responder a peticiones de información combinando información obtenida a partir de datos almacenados; y (3) eliminar resultados intermedios empleados en el proceso de construcción de la solución. La técnica de aprendizaje automático empleada se denomina “Aprendizaje basado en instancias”, debido a que se encuentra basado en instancias específicas para generar predicciones de clasificación.

lunes, 13 de julio de 2015

Aprendizaje automático

En la tesis de maestría en educación superior escrita por Armando Tutau el año 2011, con el título “Estilos de aprendizaje de estudiantes universitarios y su relación con su situación laboral”, se menciona que el proceso de enseñanza aprendizaje es una de las temáticas de más frecuente tratamiento, y mucho es lo que se ha escrito sobre el tema. Aparece de manera sencilla como un cierto acuerdo entre dos personas para la transferencia de conocimiento, que no agotándose en el proceso de comunicación, debería provocar el cambio definitivo en el comportamiento del que aprende. Apoyándose en el Diccionario Santillana, menciona que es el aprendizaje el “proceso mediante el cual un sujeto adquiere destrezas o habilidades prácticas, incorpora contenidos informativos, o adopta nuevas estrategias de conocimiento o acción”; etimológicamente deriva del latín insignare, que sugiere proponer orientación acerca de qué camino seguir, aplicándose a los actos que pueden realizar maestros, padres, profesores, y otros. De acuerdo con visiones actuales, el docente actuaría como “facilitador” o “mediador” entre el conocimiento y los estudiantes, provocando un proceso de interacción, que necesitado de la iniciativa y el interés por saber de los estudiantes, recorre un proceso constante, un ciclo. Según Dolto en el libro escrito el año 1986 titulado “La imagen inconsciente del cuerpo”, es frecuente que los métodos para llevar adelante procesos de enseñanza aprendizaje se encuentren basados en la comunicación, preferentemente oral o escrita, y requiera de técnicas expositivas, estudio de casos, resolución de problemas, dinámicas grupales, etc.

En este entendido, en el blog “Definición de”, se denomina aprendizaje al proceso de adquisición de conocimientos, habilidades, valores y actitudes, posibilitado mediante el estudio, la enseñanza o la experiencia. Dicho proceso puede ser entendido a partir de diversas posturas, lo que implica que existen diferentes teorías vinculadas al hecho de aprender. La psicología conductista, por ejemplo, describe el aprendizaje de acuerdo a los cambios que pueden observarse en la conducta de un sujeto. El proceso fundamental en el aprendizaje es la imitación, es decir la repetición de un proceso observado, que implica tiempo, espacio, habilidades y otros recursos. El aprendizaje humano se define como el cambio relativamente invariable de la conducta de una persona a partir del resultado de la experiencia. Este cambio es conseguido tras el establecimiento de una asociación entre un estímulo y su correspondiente respuesta. La capacidad no es exclusiva de la especie humana, aunque en el ser humano el aprendizaje se constituyó como un factor que supera a la habilidad común de las ramas de la evolución más similares. Gracias al desarrollo del aprendizaje, las personas han logrado alcanzar una cierta independencia de su entorno ecológico y hasta pueden cambiarla de acuerdo a sus necesidades.

En la tesis doctoral de Troncoso, publicada en año 2005 con el título “Técnicas avanzadas de predicción y optimización aplicadas a sistemas de potencia”, se menciona que el aprendizaje automático es la rama de la inteligencia artificial que estudia el desarrollo de técnicas para extraer de forma automática conocimiento subyacente en los datos. Uno de los modelos de aprendizaje más estudiados es el aprendizaje inductivo, el cual engloba todas aquellas técnicas que aplican inferencias inductivas sobre un conjunto de datos para adquirir el conocimiento inherente a ellos.

Por su parte, la capacidad de que un sistema informático aprenda de manera automática es fundamental en inteligencia artificial, pues para que un sistema pueda ser considerado inteligente debe ser al menos capaz de aprender automáticamente, tal como se explica en el libro publicado el año 1998 por Kubat y sus colegas titulado “Revisión de los métodos de aprendizaje automático”. El inicio del aprendizaje automático se remonta a la década de los años 1950 y su objetivo es el desarrollo de métodos computacionales para la implementación de diversas formas de aprendizaje. Generalizando, la tarea de aprendizaje automático se puede describir como un proceso automático que permite mejorar la solución que se le da a los problemas. Según Carbonell, en el libro publicado el año 1990 titulado “Paradigmas del aprendizaje automático”, los métodos de aprendizaje automático pueden clasificarse de forma muy genérica en inductivos y no inductivos. Los inductivos son aquellos que dado un conjunto de ejemplos positivos y negativos del concepto objetivo, construyen una descripción del mismo de la cual se pueden derivar todos los ejemplos positivos y ninguno de los negativos. Además, un método de aprendizaje automático puede clasificarse como supervisado, no supervisado y criticado según la información que contengan los ejemplos de aprendizaje que se le proporcionen al sistema. (a) Método supervisado. Es el método que aprovecha la supervisión de un “profesor” durante el aprendizaje que le informa sobre la relación entre el ejemplo a aprender y el concepto objetivo. (b) Método criticado. Es el método que recibe una crítica sobre el acierto de sus decisiones en la que se basa para mejorar su comportamiento. También se le conoce como método de aprendizaje por refuerzo. (c) Método no supervisado. Es el método que no obtiene ningún tipo de ayuda externa para realizar su labor de aprendizaje.En este caso no hay ni crítico ni “profesor”.

lunes, 8 de junio de 2015

Logran recuperar recuerdos

Los recuerdos que se han “perdido” como resultado de una amnesia pueden ser recuperados activando ciertas células cerebrales con luz.

Así lo ha comprobado el equipo de Susumu Tonegawa, del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos.

Esta técnica de activación, llamada optogenética, se basa en la adición, en neuronas, de proteínas sensibles a la luz, lo que permite activar dichas neuronas a través de la estimulación lumínica de las proteínas cuando se hace llegar a ellas un haz de luz.

Tonegawa cree que el avance logrado en esta investigación puede ofrecer una respuesta definitiva a una cuestión ampliamente debatida en neurociencia sobre la naturaleza de la amnesia.

La mayoría de los investigadores se han venido decantando por la teoría del almacenamiento, pero los resultados conseguidos por Tonegawa y sus colegas en la investigación reciente parecen demostrar que dicha teoría es probablemente incorrecta, y que muchos de esos casos de amnesia pueden ser un simple problema de deterioro en la capacidad de acceder a los recuerdos almacenados.

Los expertos en memoria han especulado con anterioridad acerca de la idea de que en alguna parte de la red cerebral se halla una población de neuronas que son activadas durante el proceso de adquisición de un recuerdo, ocasionando cambios físicos o químicos duraderos.

Si estos grupos de neuronas son posteriormente reactivados por un desencadenante, como una imagen u olor particulares, por ejemplo, se puede rememorar todo el recuerdo.

La comunidad científica ha estado dedicando últimamente muchos esfuerzos a localizar estos engramas. Tonegawa y sus colegas del Instituto Picower para el Aprendizaje y la Memoria, dependiente del MIT, ya mostraron que es factible identificar las células que forman parte de un engrama para un determinado recuerdo, y reactivarlo (o reprocesarlo) mediante tecnología optogenética.

Los investigadores intentaron incluso descubrir qué les pasa a los recuerdos sin este proceso de consolidación. Administrando un compuesto que bloquea la síntesis de proteínas dentro de las neuronas, inmediatamente después de que unos ratones hubieran formado un nuevo recuerdo, los investigadores pudieron evitar que las sinapsis se fortalecieran.



Cuando regresaron un día después e intentaron reactivar el recuerdo usando un desencadenante emocional, no encontraron rastro de dicho recuerdo. Aunque las células de engrama estén ahí, sin la síntesis de proteínas esas sinapsis celulares no se fortalecen, y el recuerdo ya no es accesible.

Sin embargo, de forma inesperada, cuando los investigadores reactivaron después las células de engrama con la síntesis de proteínas bloqueada, usando herramientas optogenéticas, encontraron que los ratones exhibían signos de haber recuperado por completo el recuerdo

lunes, 11 de mayo de 2015

Control artificial del cerebro mediante mensajeros químicos sintéticos

Unos neurocientíficos han perfeccionado un sistema de control artificial del cerebro mediante mensajeros químicos sintéticos que actúan sobre la circuitería cerebral y en consecuencia sobre la conducta del individuo. Esta tecnología puede ahora activar o desactivar cada neurona de un grupo seleccionado, y así activar o desactivar las conductas derivadas de ello, en ratones.



Tal grado de control es fundamental para descifrar los procesos neuronales subyacentes en los comportamientos complejos.



El equipo del Dr. Bryan Roth, de la Universidad de Carolina del Norte en la ciudad estadounidense de Chapel Hill, ha demostrado la segunda generación del sistema, llamado DREADD (por las siglas del término en inglés Designer Receptors Exclusively Activated by Designer Drugs).



DREADD 2.0 basa su mejora en una nueva tecnología ampliamente desarrollada y ensayada por el equipo del Dr. Roth a lo largo de la pasada década. Consigue el control al introducir un sistema de mensajería química cerebral sintética que se integra en el funcionamiento de los sistemas naturales.

Los investigadores modificaron genéticamente a ratones para que tuvieran cerebros que contuvieran receptores artificiales en circuitos específicos. Se trata de proteínas sintéticas en la superficie de las neuronas que solo pueden ser activadas mediante una sustancia sintética específica que aparte de esto no tiene efecto biológico alguno en el cerebro. Es como una cerradura que solo puede ser abierta por una única llave. Cuando la sustancia activadora (la llave) se enlaza a su receptor o receptores artificiales (las cerraduras), dependiendo de su programación, activa o bloquea la actividad neuronal, proporcionando por tanto a los investigadores un control experimental sobre los circuitos cerebrales y los comportamientos del animal.



Las primeras versiones del DREADD solo podían controlar la actividad en una dirección (activar o desactivar) en la misma población de células. DREADD 2.0 aprovecha las propiedades ofrecidas por un tipo particular de receptor, emparejado con una sustancia biológicamente inerte que se enlaza a él, para añadir un control dual. Unido a un DREADD ya existente, la nueva versión puede utilizarse experimentalmente para sondear la circuitería cerebral de una amplia gama de comportamientos, a través del control secuencial, de encendido y apagado, de neuronas. Por ejemplo, los investigadores ya han demostrado cómo su sistema perfeccionado y ampliado puede controlar de forma bidireccional el movimiento y los comportamientos de alimentación de los animales a los que se ha aplicado.

lunes, 4 de mayo de 2015

Científicos consiguen modificar el ADN de embriones humanos


Luego de mucho tiempo y cantidad innumerable de experimentos, científicos chinos han publicado sus avances en el campo de la modificación del ADN humano en embriones. Ante la noticia, muchos han reaccionado pidiendo que se suspenda el proyecto debido a las implicaciones que esto podría tener en el desarrollo de la humanidad. Los científicos encargados del proyecto han afirmado que su investigación se basa en la modificación del gen HBB, responsable en muchos casos de la enfermedad beta-talasemia.

En sus pruebas, los científicos chinos las diferentes maneras posibles para alterar el gen. El primer reporte de la investigación apareció recientemente en las revistas “Nature News” y “Proteins and Cells.” En los artículos, el principal ejecutor de la investigación, el doctor Junjiu Huang jefe de investigaciones de funciones genéticas de la universidad de Sun Yat-sen, describe la metodología que trajo los mejores resultados.

Los embriones en los que se realizaron las pruebas fueron obtenidos de una clínica de fertilidad. Dichos embriones, habían sido descartados por tener diferentes defectos monocromáticos luego de la fecundación artificial. Es decir, no tenían ninguna posibilidad de nacer aún siguiendo el proceso de gestación. Nature News reportó que los investigadores buscaron a lo largo de las pruebas “modificar el gen responsable de la beta-talasemia, un trastorno sanguíneo potencialmente fatal, usando una técnica de edición genética conocida como CRISPR/Cas9.”

Posibles Riesgos

A causa del reporte, la comunidad científica se encuentra dividida. Si bien es cierto, los resultados podrían salvar muchas vidas, al modificar el ADN de embriones humanos se aumenta el número de posibles mutaciones. Esto siempre ha sido algo que ha causado cierto negativismo desde que se supo de esta investigación a mediados del año pasado. “Hay riesgos al modificar el ADN de los embriones,” afirman científicos de la Alianza de Medicina Regenerativa, “riegos que no podemos escatimar en estos momentos y de los cuales no podemos predecir las consecuencias en las generaciones futuras.

“Es inaceptable seguir adelante con este tipo de investigación en este momento. Pedimos una moratoria mundial voluntaria de esta clase de experimentos para dar lugar a conversaciones rigurosas y transparentes sobre su legalidad y su política”, señaló la AMR.

Para muchos, este el es comienzo de un tira y encoje de discusiones de sobre como usar la ciencia en el tema de las modificaciones de genes. Es evidente para la comunidad científica que lo que a corto plazo puede traer beneficios enormes, puede repercutir en el futuro y causar mutaciones y otros problemas de los cuales ni siquiera tenemos idea.

lunes, 27 de abril de 2015

Datos en correo electrónico

En el artículo escrito el año 2008 por los investigadores Albarran, De Pablos y Montero, con el título “Uso del correo electrónico: Un análisis empírico en la UCM”, se menciona que en las últimas décadas, el uso de computadoras personales ha popularizado un número considerable de servicios de información, incluyendo el correo electrónico. El correo electrónico, o en la jerga anglosajona el e-mail, es una forma de intercambio de información en la que se mandan mensajes de una computadora personal o terminal a otra vía módems y sistemas de telecomunicaciones. El uso del correo comenzó con ARPAnet, red precursora de Internet, en el año 1969 en los Estados Unidos, extendiéndose de forma gradual con el uso de los mainframes y las minicomputadoras basadas en redes locales en los años setenta y con un rápido crecimiento gracias al uso de Internet en la década de los años ochenta. El correo electrónico en sus inicios se plantea como un medio de intercambio de información para grupos pequeños y selectos. Actualmente su uso se ha extendido a millones de usuarios por todo el mundo.

El correo electrónico es una aplicación de Internet cuya finalidad consiste en procurar la comunicación entre dos o más personas a través del intercambio de textos escritos digitalizados. En la tesis doctoral escrita el año 2006 titulada “El correo electrónico: El nacimiento de un nuevo género”, por la investigadora Cristina Vela, este medio permite y genera un tipo de interacción verbal mediatizada de carácter diferido. Se trata de un sistema basado en un principio simple: Un usuario de correo electrónico dispone de un espacio, denominado buzón, en una computadora conectada constantemente a la red, al servidor, en el que se almacenan los mensajes enviados por otros usuarios. Este buzón se identifica mediante una secuencia llamada dirección electrónica. Cuando se quiere acceder a la consulta de los mensajes recibidos basta con conectarse con el servidor y abrir, mediante la palabra clave, el buzón. Los mensajes pueden conservarse en el servidor, ocupando un espacio en el mismo, o descargarse y guardarse en la computadora del usuario. El tipo de sistema empleado para el acceso al buzón, a través del servicio de correo en la Web o de un sistema de acceso local, determina una u otra circunstancia.

El correo electrónico se diferencia en un aspecto muy importante del resto de las aplicaciones de Internet como Telnet, FTP o la Web. Todos estos servicios y protocolos presuponen una conexión directa entre remitente y destinatario, es decir, entre la máquina cliente y la máquina servidor, en tiempo real. En el caso del correo electrónico esta relación es diferente. La computadora del destinatario no tiene que estar conectada a la red al mismo tiempo que la del remitente, ya que en el correo electrónico intervienen unas entidades denominadas “enrutadores de correo”, servidores locales de correo electrónico, que reciben y aceptan los mensajes para transmitirlos, posteriormente, a sus destinatarios finales. Para llevar a cabo esta mediación los usuarios deben utilizar programas adecuados de gestión de correo que dominen el “protocolo simple de transferencia de correo”. Este protocolo no sólo le es útil al remitente de un mensaje para asegurar su recepción, sino que es empleado por los enrutadores de correo para hacer que los mensajes circulen entre ellos.

Vela, en la tesis doctoral citada, señala que el mensaje viaja de un enrutador de correo al siguiente hasta que llega a aquél que tiene competencias para el destinatario del mensaje. El hecho de tener competencias significa que el destinatario ha contratado un buzón en el servidor de correo electrónico. El software del servidor de correo guarda los mensajes separándolos en directorios por usuarios. Una vez en el buzón, cada usuario se encarga de recoger por sí mismo su correo mediante el software adecuado. Además de la ventaja que supone recuperar el correo cuando se quiera, con este método un usuario puede consultar su correo desde cualquier computadora, independientemente de dónde se encuentre, siempre que disponga de acceso a Internet. Estos beneficios se ofrecen en las cuentas de correo a través del “protocolo de oficina de correo”, al que se suele acceder a través del correo en la Web, aunque también es posible consultarlo mediante sistemas de gestión independientes de la Web.

Albarran y sus colegas, en el artículo citado anteriormente, mencionan que el correo electrónico es el servicio más utilizado de los que existen hoy en Internet. Desde el año 1970 se ha empleado como herramienta de comunicación para relaciones académicas y personales. Por el año 1990, la popularidad y ubicuidad del correo sobre el resto de los medios de comunicación tradicionales ha permitido que se reconozca como medio estándar de comunicación. Algunos hitos interesantes en la historia del correo electrónico son los siguientes: (1) Octubre 1969, Leonard Kleinrock, un profesor de informática de la universidad de UCLA manda el primer mensaje de correo electrónico a un compañero de la universidad de Stanford. (2) Marzo 1972, Ray Tomlinson, autor del primer software para correo electrónico, elige el símbolo @ para las direcciones de correo electrónico. (3) Febrero 1976, la reina Isabel II es la primera jefa de estado en mandar un mensaje de correo electrónico. (4) Otoño 1976, Jimmy Carter y Walter Mondale utilizan correo electrónico todos los días durante su campaña para coordinar itinerarios. Un mensaje simple cuesta cuatro dólares. (5) Septiembre 1983, el college de Colby en Waterville, Maine es una de las primeras instituciones de educación superior en asignar cuentas de correo a todos sus estudiantes. (6) Enero 1994, el New Yorker publica una entrevista sobre correo electrónico con Bill Gates, quien escribe: “nuestro correo es totalmente seguro”.