domingo, 5 de febrero de 2017

Meta-razonamiento en agentes

PRIMERA PARTE

En el artículo de Fulladoza y sus colegas, publicado el año 2012 con el título “Agentes inteligentes con razonamiento dirigido por factores emocionales”, se menciona que una parte significativa de las arquitecturas de agentes con habilidades cognitivas tienen en común que, para estas, un agente está básicamente definido por un conjunto de metas, un conjunto de creencias, y un conjunto de reglas de razonamiento. Su modelo de funcionamiento se basa en la selección de metas según algún criterio y la búsqueda de reglas de razonamiento que “expliquen” cómo conseguir estas meta. Las reglas brindan información acerca de las condiciones que deben cumplirse para la verificación de la meta. Cada una de estas condiciones constituye una sub-meta que debe ser verificada a su vez mediante el cumplimiento de ciertas otras condiciones, algunas de ellas de manera satisfactoria mediante la realización de una acción. De esta forma, el modo en que un agente razona, y en consecuencia se comporta, es descubierto mediante la búsqueda descendente a través de una jerarquía de reglas tendientes a la satisfacción de una meta de orden superior.

En la tesis de maestría en educación de Carmona y Jaramillo, publicada el año 2010 con el título “El razonamiento en el desarrollo del pensamiento lógico a través de una unidad didáctica basada en el enfoque de resolución de problemas”, se indica que desde la literatura psicológica y pedagógica, el concepto de procedimiento lógico del pensamiento es entendido como aquellos procedimientos más generales, que se utilizan en cualquier contenido concreto del pensamiento, que se asocian a las operaciones lógicas del pensamiento y que se rigen por reglas y leyes de la lógica, desprendiéndose así la amplitud de su aplicación. Según Talizina, en la Conferencia impartida en la Universidad Central de Las Villas, el año 1987 con el título “Procedimientos iníciales del pensamiento lógico”, el hombre se vale de procedimientos para actuar; algunos son procedimientos específicos, como el procedimiento de resolución de ecuaciones matemáticas; otros son procedimientos generales, válidos en cualquier campo del conocimiento, pues garantiza la corrección del pensar, tales como los procedimientos lógicos del pensamiento, que representan los elementos constituyentes del pensamiento lógico. De esta manera, la estructura del pensamiento, desde el punto de vista de su corrección es a lo que se denomina formas lógicas del pensamiento, dentro de las cuales, en palabras de Campistrous señaladas en el artículo publicado el año 1993 con el título “Lógica y procedimientos lógicos del aprendizaje”, se pueden distinguir tres formas fundamentales: (1) Concepto. Reflejo en la conciencia del hombre de la esencia de los objetos o clases de objetos, de los nexos esenciales sometidos a ley de los fenómenos de la realidad objetiva. (2) Juicios. Un juicio es el pensamiento en el que se afirma o niega algo. (3) Razonamiento. Es la forma de pensamiento mediante la cual se obtienen nuevos juicios a partir de otros ya conocidos.

En la tesis de grado de Barrientos y sus colegas, publicado el año 2010 con el título “El razonamiento desde la enseñanza de conceptos matemáticos utilizando las TIC”, se indica que el razonamiento se apoya en habilidades del pensamiento, algunas se ejecutan en forma secuencial y otras simultáneamente. A mayor complejidad en los procesos, mayor número de habilidades involucradas, lo que sugiere que algunas habilidades acogen implícitamente la acción de otras subordinadas. Para hacer una aproximación a un modelado y medición del razonamiento se agrupa los patrones observables de estas habilidades en “momentos de razonamiento”, estos momentos son los siguientes: (1) Momento Perceptivo. Quien percibe, realiza una lectura de la situación, la advierte, la observa, toma los datos que se le enuncian, reconoce cualidades, cantidades, formas, símbolos, posiciones y preguntas. (2) Momento de Enfoque. Quien se enfoca comprende qué es lo que se busca. Identifica, clasifica, separa las partes del todo, establece diferencias y patrones; codifica la información nueva y la agrupa según sus características; selecciona, discrimina, formula, compara y ordena. (3) Momento Conceptual. Conceptualiza quien encuentra las características esenciales para generalizar y estructurar los objetos nuevos con los existentes; de este modo, es posible recorrer reordenando recurrentemente la representación mental: sintetizando, categorizando y sistematizando los objetos en relación con sus funciones y los flujos de información. (4) Momento Crítico. Este es el momento del análisis y la acción, quién se encuentra en esta fase operativa, utiliza su criterio para planificar su aprendizaje, el proceso de solución de un problema o la resolución de un ejercicio, eligiendo metodologías inductivas, deductivas, por analogías, o combinadas; tomando decisiones, siguiendo estrategias, utilizando la información que conoce, regulando los procesos, vinculando causas y efectos, entendiendo el porqué y desarrollando el cómo. (5) Momento Meta. Es el momento de la retroalimentación y la comunicación de resultados. Quien llega a este nivel está en condiciones de explicar las metodologías involucradas en su proceso de equilibrio cognitivo; utiliza la lógica y los argumentos para justificar sus avances y soluciones, evalúa su proceso, reconoce los espacios y tiempos de los errores, efectuando las correcciones necesarias hasta obtener resultados satisfactorios. (6) Momento Creativo. Este momento ocurre simultáneamente en cualquier etapa del proceso y se evidencia cuando el individuo es sensible a detalles inconexos y realiza combinaciones no convencionales en su estructura conceptual que desestructuran el problema reordenándolo mediante asociaciones antes no relacionadas que dan origen a soluciones alternativas. Ahora bien, dada la importante función de los conceptos en el proceso del razonamiento evidenciada en el momento conceptual y también por ser estos unos de los ejes centrales del proceso de enseñanza y aprendizaje.

lunes, 25 de julio de 2016

Gobierno electrónico móvil

Giulianelli, en la tesis publicada el año 2012 con el titulo “Modelo de Sitio Móvil Gubernamental”, menciona que el gobierno movil promueve la eficiencia en la prestación de ciertos servicios y una ciudadanía más activa a través de la información, el requerimiento o el reclamo instantáneo vía mensajes al dispositivo movil. El gobierno movil resulta ser un complemento para el gobierno electrónico y de ninguna forma lo reemplaza. Si bien los dispositivos móviles son excelentes vías de acceso, cuando se trata de transmitir información compleja o voluminosa, la mayoría de ellos no son adecuados. En los países en desarrollo, el gobierno movil exhibe un significativo potencial ya que existe una creciente penetración de la telefonía móvil, particularmente en las áreas urbanas, pero que aún se encuentra en miras de desarrollo. Lallana, en el articulo digital publicado el año 2008 con el titulo “Gobierno electronico para el desarrollo: Aplicaciones moviles en el gobierno”, señala que los principales desafíos del gobierno movil están dados por: (1) el costo de las prestaciones, (2) la brecha en el acceso a la tecnología móvil, (3) la confiabilidad y seguridad de las transacciones, y (4) la eventual sobrecarga de mensajes. El gobierno movil debe ser desarrollado como un componente de la estrategia de gobierno electrónico en función de las condiciones de cada país. Es por ello que el gobierno movil tiene una serie de expectativas cuya concreción se encuentra condicionada por: (1) la disponibilidad de suficiente personal calificado, (2) adecuados sistemas de back-office, (3) la selección de las aplicaciones, no deben ser triviales, pero tampoco complejas, y (4) el grado de usabilidad.

En el desarrollo de aplicaciones de gobierno movil es necesario asegurarse que los usuarios obtendrán exactamente lo que se les prometa en el menor tiempo posible. Pero esto se logra paulatinamente y de forma progresiva. La Organización de las Naciones Unidas, en el documento sobre “Evaluación comparativa de gobierno electrónico: Una perspectiva global” publicado el año 2002, clasifica al gobierno electrónico en cinco niveles distintos, indicando su aplicabilidad para el caso del gobierno móvil. Los niveles mencionados en dicho estudio son: (1) Emergente. Sólo información básica y en su mayor parte estática se encuentra disponible. (2) Ampliado. El contenido y la información son actualizadas con regularidad, y la información está disponible no sólo en su formato original sino que se encuentra explicada y simplificada. (3) Interactivo. Los usuarios pueden descargar los formularios, ponerse en contacto con los funcionarios y hacer peticiones. La información disponible tiene el valor añadido de tener vínculos hacia la legislación relevante. (4) Transaccional. Los usuarios pueden enviar formularios en línea - por ejemplo para solicitar información, o para demandar la solicitud de licencia. (5) Integración Total. Todos los sistemas están integrados y los servicios a los ciudadanos son totalmente en línea, independiente de la agencia gubernamental.

Giulianelli, en la tesis mencionada, considera que se debe hablar de gobierno móvil desde el punto de vista del ciudadano y no desde la tecnología; más allá de la tecnología que lo permite, es el ciudadano el que ha modificado sus patrones de movilidad. Ya no se puede esperar a un ciudadano inmóvil, localizado en un mismo espacio físico, sino que la vida cotidiana moderna implica cada vez más la movilidad constante de individuos e información. Es por ello que el gobierno móvil debe apuntar a brindar facilidades en este sentido, generando nuevos contenidos y aplicaciones que permitan al ciudadano realizar trámites y comunicarse con sus representantes de una manera “móvil”. La movilidad de las tecnologías es acompañada por su individualización, las tendencias del mercado indican que el apoderamiento de las tecnologías es cada día más individual: Celular, netbook, tablet, etc., y que los aparatos familiares: Teléfono fijo, Computadora de escritorio, etc., van quedando en un segundo plano. El gobierno móvil es la adecuación de los servicios a esta individualización de las tecnologías y a la movilidad constante del ciudadano moderno.

Jolías, en el documento de trabajo publicado el año 2011 con el título “Avances del gobierno móvil en los municipios argentinos”, señala que el gobierno móvil puede ser definido como la implementación y utilización por parte de los gobiernos de tecnología, servicios, aplicaciones y dispositivos móviles y conexión inalámbrica con la finalidad de incrementar beneficios y generar nuevos canales de comunicación, ya sea entre el ciudadano y el gobierno, o en los procesos internos de la administración pública. Kushchu y Borukci, en el artículo escrito el año 2004 con el título “Impacto de las tecnologías móviles en el Estado”, menciona que la aplicación de tecnologías móviles en el Estado como medio de comunicación y participación puede adoptar las siguientes modalidades: (1) Gobierno a Gobierno. Hace referencia a la utilización de tecnología móvil entre entes estatales con diferente autonomía, ya sea para comunicarse de un municipio a otro, de un municipio al gobierno departamental o nacional, o entre estos gobiernos entre sí. Esta estrategia puede ser beneficiosa en políticas de regionalización o intermunicipalismo, en donde los distintos municipios pueden comunicarse en tiempo real y así coordinar acciones y reducir costos. (2) Gobierno a Empleados. Es la utilización de las tecnologías móviles dentro de la administración pública o entre diferentes secretarías y ministerios. Comúnmente la implementación de políticas públicas implica el accionar y coordinación entre distintos organismos estatales, lo que requiere una fluida comunicación entre los administradores públicos. Esta modalidad también es fructífera para comunicar cambios estratégicos en la dirección del gobierno al conjunto de los empleados de un municipio o gobernación. (3) Gobierno a Ciudadanos. Sirve para transmitir de manera sintética y precisa información relevante para los ciudadanos, como por ejemplo problemas de tránsito, lugares de pago de subsidios o pensiones, alertas meteorológicas o lugares de votación, por citar sólo algunas. (4) Ciudadanos a Gobierno. Es complementaria a la estrategia anterior, ya que es una de las formas más usuales de participación ciudadana vía tecnologías móviles. Puede ser utilizada para que los ciudadanos notifiquen a sus gobiernos problemas en la vía pública o en los servicios de recolección de basura, así como cualquier problema relacionado con el ámbito público.

lunes, 30 de noviembre de 2015

Evolución de herramientas de minería de datos Guillermo Choque Aspiazu

El investigador Jasso, en la tesis de maestría en ciencias de la computación escrita el año 2008 con el título “Sistema para explotar servicios de minería de datos a través de la Web”, menciona que algunas de las herramientas de segunda generación son: IlliMine, Rattle, Rapid Miner y Knime. El grupo de investigación en minería de datos de la Universidad de Illinois, el año 2006 libera la versión 1.1.0 de IlliMine, la cual constituye otra herramienta de minería de datos de segunda generación, IlliMine es un paquete libre, implementado en el lenguaje de alto nivel C++ y desarrollada por el Departamento de Ciencias Computacionales de la Universidad de Illinois en conjunto con el Laboratorio de Investigación de Datos y Sistemas de Información de la universidad citada. IlliMine incluye: (1) Algoritmos de cubos de datos, que constituyen una técnica de manipulación de datos utilizando estructuras de matrices multidimensionales, (2) asociación, (3) minería de patrones secuenciales, la cual es una técnica de extracción de patrones en eventos o sucesos secuenciales donde el factor tiempo juega un papel principal, (4) minería de patrones gráficos, la que constituye una técnica de extracción de patrones de datos representados a través de grafos, y (5) clasificación.

La herramienta analítica para el aprendizaje fácil “Rattle”, fue liberada por Williams en su versión 2.2.74 el año 2007, Rattle es una herramienta libre de minería de datos usada para analizar colecciones de datos muy grandes. Rattle presenta resúmenes estadísticos y visuales de datos, transforma los datos en formas que pueden ser fácilmente modeladas, construye modelos supervisados y no supervisados a partir de los datos, presenta el rendimiento de los modelos gráficamente y da una puntuación a los conjuntos de datos nuevos. A través de una interfaz de usuario simple y lógica basada en Gnome puede ser usado para realizar proyectos de minería de datos. Es posible también realizar proyectos de minería de datos más sofisticados haciendo uso del lenguaje estadístico de licencia libre “R”.

Mierswa y sus colegas, en el artículo publicado el año 2006 con el título “Yale: Prototipado rápido para tareas complejas de minería de datos”, mencionan que Rapid Miner, más formalmente conocido como Yale, es una de las principales herramientas para prototipado y minería de datos de licencia pública a nivel mundial. Desarrollado puramente en Java, contiene una extensión para su fácil uso desde programas de terceros. Ofrece una amplia variedad de diferentes algoritmos y métodos los cuales pueden ser combinados de manera flexible y anidada arbitrariamente. Yale abstrae sus métodos bajo el concepto de operadores contando con más de cuatrocientos y ofreciendo un enfoque de combinación de operadores como un grafo dirigido para representar el proceso de descubrimiento del conocimiento. En este enfoque cada vértice del árbol corresponde a un operador sencillo, permitiendo a los usuarios la fácil incorporación de ciclos dentro de sus experimentos. Los ciclos son esenciales para muchas tareas como optimización de parámetros, selección de características o la aplicación de métodos de aprendizaje iterativos. Knime, en su versión 1.3.1, liberado por la universidad alemana de Konstanz el año 2007, es una plataforma modular de datos que permite al usuario crear visualmente flujos de datos. Permite ejecutar selectivamente algunas o todas los pasos del análisis para posteriormente consultar los resultados a través de vistas interactivas sobre datos y modelos. La versión base de Knime incorpora más de cien nodos de procesamiento para entrada y salida de datos, preprocesamiento y limpieza, modelado, análisis y minería de datos entre otras cosas. Incluye todos los módulos de análisis de Weka y plugins adicionales que permiten que scripts en el lenguaje R sean ejecutados, ofreciendo vasto acceso a bibliotecas de rutinas estadísticas.

De manera subsecuente, aparecieron las herramientas de tercera generación, que se enfocan en resolver las limitantes de trabajar sobre un modelo cerrado, esto es localmente, como lo hacen las herramientas de la segunda generación. Algunos ejemplos de herramientas de la tercera generación son los siguientes: (1) Grid Weka, reportado por Khoussainov y sus colegas, en el artículo publicado el año 2004 titulado “Weka de rejilla habilitada: Un juego de herramientas para el aprendizaje automático en la rejilla”, es una herramienta desarrollada en la Universidad de Dublín que modifica Weka para permitir el uso de múltiples recursos computacionales mientras se ejecuta el análisis de datos. En este sistema, un conjunto de tareas de minería de datos pueden ser distribuidas a través de muchas computadoras en un ambiente ad-hoc o cerrado. (2) Guo y sus colegas, en el artículo publicado el año 2002 con el título “Red de descubrimiento: Hacia una rejilla para el descubrimiento de conocimiento”, proponen una arquitectura, denominada “Red de descubrimiento”, para construir un sistema colaborativo y distribuido de descubrimiento de conocimiento dentro de un ambiente de cómputo en rejilla. Este es un enfoque genérico originado de la necesidad de procesos de descubrimiento de conocimiento en la industria bioinformática, donde procesos complicados de análisis de datos son construidos usando un enfoque basado en tuberías. (3) En el artículo publicado el año 2003 con el título “Hacia una arquitectura de servicio abierto para minería de datos en la rejilla”, Tjoa y sus colegas presentan una arquitectura de software basada en servicio para minería de datos distribuida y de alto rendimiento en ambientes de rejilla y su implementación llamada GridMiner. En este trabajo presentan dos modelos de ejecución para el servicio de minería de datos. El primero es una adaptación a la rejilla de la herramienta Weka a la que llamaron minería de datos centralizada y el segundo es una versión distribuida del mismo que hace uso de los recursos de hardware y software distribuidos unificados dentro de la rejilla.

lunes, 19 de octubre de 2015

Evolución de herramientas de minería de datos

El investigador Jasso, en la tesis de maestría en ciencias de la computación escrita el año 2008 con el título “Sistema para explotar servicios de minería de datos a través de la Web”, menciona que algunas de las herramientas de segunda generación son: IlliMine, Rattle, Rapid Miner y Knime. El grupo de investigación en minería de datos de la Universidad de Illinois, el año 2006 libera la versión 1.1.0 de IlliMine, la cual constituye otra herramienta de minería de datos de segunda generación, IlliMine es un paquete libre, implementado en el lenguaje de alto nivel C++ y desarrollada por el Departamento de Ciencias Computacionales de la Universidad de Illinois en conjunto con el Laboratorio de Investigación de Datos y Sistemas de Información de la universidad citada. IlliMine incluye: (1) Algoritmos de cubos de datos, que constituyen una técnica de manipulación de datos utilizando estructuras de matrices multidimensionales, (2) asociación, (3) minería de patrones secuenciales, la cual es una técnica de extracción de patrones en eventos o sucesos secuenciales donde el factor tiempo juega un papel principal, (4) minería de patrones gráficos, la que constituye una técnica de extracción de patrones de datos representados a través de grafos, y (5) clasificación.

La herramienta analítica para el aprendizaje fácil “Rattle”, fue liberada por Williams en su versión 2.2.74 el año 2007, Rattle es una herramienta libre de minería de datos usada para analizar colecciones de datos muy grandes. Rattle presenta resúmenes estadísticos y visuales de datos, transforma los datos en formas que pueden ser fácilmente modeladas, construye modelos supervisados y no supervisados a partir de los datos, presenta el rendimiento de los modelos gráficamente y da una puntuación a los conjuntos de datos nuevos. A través de una interfaz de usuario simple y lógica basada en Gnome puede ser usado para realizar proyectos de minería de datos. Es posible también realizar proyectos de minería de datos más sofisticados haciendo uso del lenguaje estadístico de licencia libre “R”.

Mierswa y sus colegas, en el artículo publicado el año 2006 con el título “Yale: Prototipado rápido para tareas complejas de minería de datos”, mencionan que Rapid Miner, más formalmente conocido como Yale, es una de las principales herramientas para prototipado y minería de datos de licencia pública a nivel mundial. Desarrollado puramente en Java, contiene una extensión para su fácil uso desde programas de terceros. Ofrece una amplia variedad de diferentes algoritmos y métodos los cuales pueden ser combinados de manera flexible y anidada arbitrariamente. Yale abstrae sus métodos bajo el concepto de operadores contando con más de cuatrocientos y ofreciendo un enfoque de combinación de operadores como un grafo dirigido para representar el proceso de descubrimiento del conocimiento. En este enfoque cada vértice del árbol corresponde a un operador sencillo, permitiendo a los usuarios la fácil incorporación de ciclos dentro de sus experimentos. Los ciclos son esenciales para muchas tareas como optimización de parámetros, selección de características o la aplicación de métodos de aprendizaje iterativos. Knime, en su versión 1.3.1, liberado por la universidad alemana de Konstanz el año 2007, es una plataforma modular de datos que permite al usuario crear visualmente flujos de datos. Permite ejecutar selectivamente algunas o todas los pasos del análisis para posteriormente consultar los resultados a través de vistas interactivas sobre datos y modelos. La versión base de Knime incorpora más de cien nodos de procesamiento para entrada y salida de datos, preprocesamiento y limpieza, modelado, análisis y minería de datos entre otras cosas. Incluye todos los módulos de análisis de Weka y plugins adicionales que permiten que scripts en el lenguaje R sean ejecutados, ofreciendo vasto acceso a bibliotecas de rutinas estadísticas.

De manera subsecuente, aparecieron las herramientas de tercera generación, que se enfocan en resolver las limitantes de trabajar sobre un modelo cerrado, esto es localmente, como lo hacen las herramientas de la segunda generación. Algunos ejemplos de herramientas de la tercera generación son los siguientes: (1) Grid Weka, reportado por Khoussainov y sus colegas, en el artículo publicado el año 2004 titulado “Weka de rejilla habilitada: Un juego de herramientas para el aprendizaje automático en la rejilla”, es una herramienta desarrollada en la Universidad de Dublín que modifica Weka para permitir el uso de múltiples recursos computacionales mientras se ejecuta el análisis de datos. En este sistema, un conjunto de tareas de minería de datos pueden ser distribuidas a través de muchas computadoras en un ambiente ad-hoc o cerrado. (2) Guo y sus colegas, en el artículo publicado el año 2002 con el título “Red de descubrimiento: Hacia una rejilla para el descubrimiento de conocimiento”, proponen una arquitectura, denominada “Red de descubrimiento”, para construir un sistema colaborativo y distribuido de descubrimiento de conocimiento dentro de un ambiente de cómputo en rejilla. Este es un enfoque genérico originado de la necesidad de procesos de descubrimiento de conocimiento en la industria bioinformática, donde procesos complicados de análisis de datos son construidos usando un enfoque basado en tuberías. (3) En el artículo publicado el año 2003 con el título “Hacia una arquitectura de servicio abierto para minería de datos en la rejilla”, Tjoa y sus colegas presentan una arquitectura de software basada en servicio para minería de datos distribuida y de alto rendimiento en ambientes de rejilla y su implementación llamada GridMiner. En este trabajo presentan dos modelos de ejecución para el servicio de minería de datos. El primero es una adaptación a la rejilla de la herramienta Weka a la que llamaron minería de datos centralizada y el segundo es una versión distribuida del mismo que hace uso de los recursos de hardware y software distribuidos unificados dentro de la rejilla.

martes, 13 de octubre de 2015

Evolución de herramientas de minería de datos

En la tesis de grado titulada “Minería de datos aplicada al análisis de la deserción en la Carrera de Analista en Sistemas de Computación”, escrita por el investigador Pautsch en el año 2009, se menciona que el concepto de minería de datos no es nuevo, desde los años 1960, los estadísticos, manejaban términos como “pesca de datos” o “arqueología de datos”. La idea principal era encontrar correlaciones sin una hipótesis previa en base de datos con ruido. Tampoco ninguno de los modelos estadísticos presentes en la minería de datos es nuevo. Los árboles de decisión y de regresión son utilizados desde los señalados años 1960. Las bases de reglas fueron popularizadas durante el auge de los sistemas expertos en los años1980 y las redes neuronales se conocen desde los años 1940, pero han sido necesarios varios años de desarrollo para que fueran utilizables de manera sencilla. Fue a principios de la década de los años 1980 que Rakesh Agrawal, Gio Wiederhold, Robert Blum y Gregory Piatetsky-Shapiro, entre otros, empezaron a consolidar los términos de minería de datos y descubrimiento del conocimiento en bases de datos. Precisamente Piatetsky-Shapiro, en el libro publicado el año 1991 con el título “Descubrimiento de conocimiento en bases de datos”, especifica que la minería de datos se define formalmente como “un conjunto de técnicas y herramientas aplicadas al proceso no trivial de extraer y presentar conocimiento implícito, previamente desconocido, potencialmente útil y humanamente comprensible, a partir de grandes conjuntos de datos, con objeto de predecir, de forma automatizada, tendencias o comportamientos y descubrir modelos previamente desconocidos”. Molina, en el artículo publicado el año 2001 con el título “Torturando a los datos hasta que confiesen”, menciona que, desde el punto de vista empresarial los términos minería de datos y extracción del conocimiento, son tratados como sinónimos, y se los define como: “La integración de un conjunto de áreas que tienen como propósito la identificación de conocimiento obtenido a partir de las bases de datos que aporten un sesgo hacia la toma de decisión”.

El investigador Jasso, en la tesis de maestría en ciencias de la computación escrita el año 2008 con el titulo “Sistema para explotar servicios de minería de datos a través de la Web”, menciona que la minería de datos puede ser vista como una infraestructura que utiliza una selección de diferentes algoritmos y métodos estadísticos para encontrar patrones y tendencias interesantes y novedosas en grandes bases de datos. Entrando en el contexto del artículo propuesto, Shaikh Ali, en el artículo publicado el año 2005 con el título “Composición de servicios Web para minería de datos distribuida”, menciona que a lo largo de la historia de las herramientas de minería de datos, podrían apreciarse tres fases o etapas de su evolución, a estas etapas se las denomina también generaciones para cruzarlas con el concepto mismo de evolución de las herramientas de la minería de datos.

Las herramientas de la primera generación ofrecen típicamente a los usuarios un algoritmo simple de minería de datos que opera sobre un conjunto de datos almacenados de manera local. Algunos ejemplos incluyen el uso de algoritmos de clasificación como el C4.5, planteado por Ross Quinlan en el libro publicado en año 1993 con el título “C4.5: Programas para minería de datos”; algoritmos de agrupamiento como el K-means, descrito por McQueen en el artículo publicado el año 1967 con el título “Algunos métodos para la clasificación y el análisis de multivariaciones”, y otros algoritmos basados en reglas de asociación. Tales herramientas fueron presentadas como programas independientes, obteniendo sus datos de entrada desde la línea de comandos o vía un archivo de configuración.

Las herramientas de la segunda generación combinan una colección de diferentes algoritmos de minería de datos sobre un marco de trabajo común, y permiten a los usuarios proveer datos de entrada de varias fuentes de datos. Algunas de estas herramientas son: Weka, IlliMine, Rattle, Rapid Miner y Knime. Según Witten y Frank, en el libro publicado el año 2000 con el título “Minería de datos: Herramientas practicas de aprendizaje automático con implementaciones Java”, Weka, desarrollado por la Universidad de Waikato en Nueva Zelanda, es un sistema escrito en Java y distribuido bajo los términos de la licencia pública GNU. Contiene una colección del estado del arte de los algoritmos de aprendizaje automático y herramientas de pre-procesamiento de datos escritos en Java. Proporciona un soporte extenso para el proceso completo de minería de datos, incluyendo la preparación de los datos de entrada, la evaluación de los esquemas de aprendizaje, la visualización de los datos de entrada y de los resultados del aprendizaje. Esta herramienta es accedida comúnmente a través de una interfaz común para que sus usuarios puedan comparar diferentes métodos e identificar esos que sean más apropiados para el problema a tratar. Puede ser ejecutado desde casi cualquier plataforma y ha sido probado sobre los sistemas operativos Windows, Linux y Macintosh. En Weka, todo el proceso de minería de datos se realiza en una sola computadora, dado que los algoritmos pueden ser ejecutados sólo localmente.

Jasso, en la tesis de maestría citada, menciona que el objetivo principal de Weka son los algoritmos de clasificación, los cuales mapean un conjunto de instancias con base en un conjunto finito de clases. Cada instancia de los datos es descrita por los valores de sus atributos. Por ejemplo, predecir si va a llover basado en la observación del cielo, la temperatura del aire, la humedad y el viento puede ser visto como una tarea de clasificación. La meta del proceso de obtención de un clasificador, es derivar un clasificador de un conjunto etiquetado de datos, un conjunto de instancias de datos que tienen asignada su clase correspondiente. La idea es que un clasificador obtenido del conjunto de datos etiquetados pueda ser utilizado para predecir las clases de instancias de datos futuras.

lunes, 28 de septiembre de 2015

Grafeno

En el artículo titulado “Propiedades y aplicaciones del grafeno”, escrito por Rodríguez y Vasilievna el año 2008, se menciona que los nanomateriales han acaparado el interés de la investigación científica de las últimas dos décadas, debido al descubrimiento de propiedades disímiles a las que ofrecen los macromateriales, dando lugar al advenimiento de una nueva rama del saber científico: La nanotecnología. El espectro de posibilidades de su aplicación es de bastante amplitud y versatilidad tal que inauguran una verdadera revolución tecnológica. Novoselov y sus colegas, en el artículo publicado el año 2005 con el título “Cristales atómicos bidimensionales”, indican que nanomateriales es el nombre genérico con que se designa a las partículas de una dimensión igual o menor a una millonésima de milímetro. Pueden ser obtenidas a partir de diferentes elementos o compuestos químicos. El carbono, por ser el elemento más conocido e intrigante de la tabla periódica, es el que ha focalizado en mayor grado la atención científica a este respecto. El carbono tiene varias formas alotrópicas. Alotropía, en química, es la existencia, especialmente en el estado sólido, de dos o más formas estructurales moleculares o cristalinas de un elemento. Según Katsnelson, en el artículo escrito el año 2007 titulado “Grafeno: Carbón en dos dimensiones”, los alótropos del carbono pueden ser: (1) Tridimensionales, tales como el diamante y el grafito; (2) Bidimensionales, tales como el grafeno; (3) Monodimensionales, tales como los nanotubos; (4) Cero dimensionales, tales como los fullerenos. Esta alotropía tan extensa se debe a la capacidad de los átomos de carbono para formar redes muy complicadas y numerosas diversas estructuras.

En el articulo “El Grafeno y sus posibilidades de impacto en la industria minera” escrita el año 2014, el investigador Valdivia realiza un análisis del documento mencionando que la aparición del grafeno no es tan sorpresiva en el ámbito científico. Las últimas dos décadas el avance constante de la nanotecnología, aproximadamente desde mediados de los años noventa del siglo veinte, ha estimulado la generación de un sinnúmero de materiales con propiedades sorprendentes. La idea fuerza de la nanotecnología, verificada una y otra vez, es que al reducir el tamaño de los materiales a escala nanométrica, donde un nanómetro es la millonésima parte de un milímetro, sus propiedades físicas y químicas varían notablemente respecto al mismo material pero de mayor tamaño. Estos objetos, de masa tan reducida y dimensiones de entre uno a cien nanómetros se denominan desde entonces nanomateriales. Algunos ejemplos notables de nanomateriales son los nanotubos de carbono, puntos cuánticos de semiconductores, nanofibras, nanoesferas metálicas, nanocintas, y otros.

Geim y Novoselov, en el artículo publicado el año 2007 con el título “El ascenso del grafeno”, mencionan que el grafeno es el bloque de construcción de otros materiales carbonáceos que se conocen desde hace más tiempo. El grafeno es un material bidimensional, una lámina compuesta de átomos de carbono enlazados en hibridación, ordenados en hexágonos regulares que se extienden a lo largo y a lo ancho conservando un átomo de espesor. Si esta lámina se enrolla se obtienen nanotubos de carbono de pared sencilla; si son varias láminas las que se enrollan a la vez serán nanotubos de pared múltiple; si la lámina de grafeno se envuelve como una pelota de fútbol se obtienen fullerenos, y si las láminas de grafeno se apilan como las hojas de un libro se obtiene grafito.

En palabras de Tronc y sus colegas, en el artículo publicado el año 1992 con el título “Transformación de hidróxido férrico en spinel por adsorción de hierro”, los nanotubos de carbono son conocidos desde el año 1991 cuando fueron identificados por el investigador Iijima, mientras que los fullerenos fueron obtenidos por Kroto, Heath, O’Brien, Curl y Smalley en el año 1985. Estos descubrimientos son relativamente recientes si se comparan con el del grafito, cuyo uso se remonta 6000 años atrás cuando en el este de Europa se comenzó a usar para decorar cerámica. Según Zhu y sus colegas, en el artículo escrito el año 2010 con el título “Materiales basados en el grafeno, grafeno y oxido de grafeno: Síntesis, propiedades y aplicaciones”, el grafito debe su nombre precisamente a su uso para escribir, graphein en griego, bien en la cerámica de hace seis mil años o con los lápices que aún se utilizan. El investigador Guo y sus colegas, en el artículo publicado el año 2011 con el título “Microcristales tetracaidecaedrales de magnetita: Síntesis, caracterización y estudio micro-Raman”, mencionan que en el año 1986 Boehm y colaboradores recomendaron el uso de la palabra grafeno para las láminas de carbón que componen el grafito. La terminación “eno” se usa para denominar hidrocarburos aromáticos policíclicos, aún cuando la raíz del nombre sea de origen trivial por ejemplo: naftaleno, antraceno, tetraceno, etc. En 1997 la “Unión Internacional de Química Pura y Aplicada” formalizó esta recomendación al incorporarla en el “Compendio de Tecnología Química”. En él se establece que “el término grafeno se debe usar solo cuando se discutan las reacciones, las relaciones estructurales u otras propiedades de láminas individuales”, descartando así el uso de términos como láminas de grafito, láminas u hojas de carbón, puesto que estas implican una estructura tridimensional que el grafeno no posee.

lunes, 14 de septiembre de 2015

Agentes conversacionales

En la tesis de maestría de Cobos, escrita el año 2013 con el título “Integración de un chatbot como habilidad de un robot social con gestor de diálogos”, se menciona que el uso de los agentes conversacionales o chatbots es bastante común, pues se han vuelto instrumentos de uso múltiples en disciplinas variadas, desde simples supervisores de conversaciones, atención al cliente, ayudantes, hasta mantener una conversación de cualquier tema específico con la capacidad de emular el diálogo que un usuario mantendría con un agente real. Los agentes son programas basados en inteligencia artificial, son entidades capaces de percibir su entorno, procesar lo que perciben y tener una reacción, es decir, una respuesta o actuar en su entorno de manera racional.

El investigador Pérez, en la tesis doctoral escrita el año 2014 con el título “Análisis y optimización de agentes conversacionales 3D para sistemas empotrados”, indica que en el ámbito de la inteligencia artificial existen dos grandes posturas que marcan el objetivo de las investigaciones en todos los campos en los que participa. La “inteligencia artificial fuerte” persigue la creación de máquinas conscientes, una verdadera “vida artificial”, mientras que la “inteligencia artificial débil” descarta esta posibilidad y sus pretensiones son más modestas; considera suficiente el que una máquina pueda actuar como si fuera inteligente. Estas dos visiones tan distantes han impregnado la investigación sobre sistemas conversacionales. La primera aproximación, referida a la inteligencia artificial fuerte, sería la de la percepción de los sistemas conversacionales como una simulación del lenguaje humano, con el objetivo de lograr una teoría completa y capaz de ser implementada en términos computacionales. La segunda aproximación, de la inteligencia artificial débil, con un perfil más ingenieril, es la construcción de interfaces hombre-máquina más naturales y fáciles de usar debido a la incorporación de la comprensión y gestión del dialogo hablado. El análisis realizado se complementa con el efectuado en el artículo escrito por Larsson, el año 2005 titulado “Sistemas de dialogo: Simulaciones o interfaces”.

Edlund y sus colegas, en el artículo publicado el año 2006 titulado “Dos caras de los sistemas de dialogo hablado”, mencionan que otro aspecto relevante que afecta al diseño e implementación del sistema conversacional es la metáfora que el propio sistema representa de cara al usuario. La metáfora “interfaz” considera que el sistema se percibe como una interfaz con la máquina, mientras que la metáfora “humana” hace que el sistema sea percibido como un ser humano. Durante las fases de diseño del agente conversacional se debe ser coherente con el tipo de metáfora que representa el sistema, ya que el tipo de diálogo que el usuario mantiene y espera de él es diferente en ambos casos.

Gracias a este reciente desarrollo en la tecnología de los agentes conversacionales, están surgiendo investigaciones que abordan la incorporación de aspectos “humanos” a estos sistemas, como pueden ser la personalidad, incorporada en el artículo de Galvao y sus colegas del año 2004 titulado “Persona-AIML: Una arquitectura para el desarrollo de chatterbots con personalidad”, y el uso de la intención, reportado en el artículo escrito por Neves y sus colegas el año 2006 con el título “IAIML: Un mecanismo para tratar la intencionalidad en chatterbots AIML”, o las emociones durante los diálogos, mencionado por Baldassarri y sus colegas en el artículo publicado el año 2007 con el título “Interacción emocional con actores virtuales a través de lenguaje natural”. Otro aspecto importante que se introdujo en tiempos relativamente recientes es la idea de dotar al agente conversacional de una representación física virtual, una encarnación, son los denominados ECAs, reportados en el artículo de Baldassarri y sus colegas escrito el año 2007 con el título “Motor de código abierto para agentes animados encarnados”. Estos agentes pueden consistir en simples caras animadas que hablan o ser mucho más complejos, con representaciones gráficas 3D de cara y cuerpo, incluyendo variaciones gestuales, sincronización labial, etc. Cerezo y sus colegas, en el artículo publicado el año 2007 con el título “Agentes virtuales 3D para el control de entornos inteligentes domóticos”, mencionan que entre otras aplicaciones, se están presentando estudios prometedores acerca del uso de este tipo de agentes como nueva forma de interacción en el área de los ambientes inteligentes.

Wooldridge y Jennings, en el libro publicado el año 1995 con el título “Agentes Inteligentes” mencionan que un agente conversacional es un programa de software que interpreta y responde a las declaraciones realizadas por los usuarios en lenguaje natural corriente. Se integra técnicas de lingüística computacional y la comunicación se puede establecer a través de Internet, mensajes instantáneos, correo electrónico, foros, etc. El término “agente conversacional” puede ser analizado por las dos palabras que lo componen. La palabra “agente” es un sistema software, el cual, viene definido por su flexibilidad, entendiendo por flexible que un agente sea: (1) Reactivo, responda al entorno en que se encuentra. (2) Proactivo, que sea capaz de intentar cumplir sus propios objetivos. (3) Social, sea capaz de comunicarse con otros agentes mediante algún tipo de lenguaje. Utilizando el Diccionario de la Real Academia Española, la palabra conversacional significa “Perteneciente o relativo a la conversación.”, entonces un agente conversacional es una entidad artificial diseñada para tener conversaciones con seres humanos u otros agentes conversacionales. Los agentes conversacionales son llamados chatbot, bots, chatterbots, Vpersonas o persona virtual. En la actualidad existen muchos agentes conversacionales con variadas características, utilidades, complejidad y capacidad de respuesta. Se puede encontrar desde sencillos chatbots pensados como juego y diversión, que pretenden responder de forma más o menos cómica, hasta otros muy complejos y técnicos en algún campo que tienen un uso práctico elevado o simplemente que han sido construidos con fines comerciales.