lunes, 23 de febrero de 2015

Estadística e incertidumbrte

Según Zadeh, en el artículo publicado el año 1999 titulado “Nacimiento y evolución de la lógica difusa, la computación suave y la computación con palabras: Un punto de vista personal”, la teoría de la lógica difusa ha constituido toda una revolución en el campo de las matemáticas. Se han formalizado nuevas disciplinas como la teoría de control difuso, las probabilidades y la estadística difusa, la optimización difusa, por sólo mencionar algunas. El cúmulo de aplicaciones también ha crecido de manera notable en los últimos años y sigue en ascenso.

La investigadora María Gil, en el artículo escrito el año 1993 titulado “Análisis y tratamiento estadístico de elementos difusos en experimentos aleatorios”, menciona que los problemas estadísticos se ocupan en su mayoría de la realización de inferencias o de la toma de decisiones acerca de una población, sobre la base de la información proporcionada por algún experimento aleatorio asociado a dicha población y, ocasionalmente, de alguna otra información complementaria. Llegar a una decisión o inferencia estadística que se encuentre respaldada por una incertidumbre absoluta sobre todos los factores de interés del problema, es un lujo frecuentemente inalcanzable. Los tipos y las fuentes de incertidumbre posibles son variados y no pueden clasificarse en una única categoría. De este modo, algunos de los tipos más comunes de incertidumbre son lo aleatorio y lo difuso, y las fuentes de incertidumbre más usuales son los errores experimentales, la falta de información, la imprecisión en la transmisión de datos, el sesgo personal y la vaguedad, entre otras. De acuerdo con la naturaleza de la incertidumbre pueden distinguirse diferentes modelos. Un modelo de incertidumbre consiste habitualmente en una clase de funciones, medidas o distribuciones, y en un sistema lógico de operadores dentro de esa clase. Los modelos de incertidumbre a los que se hace referencia son el estadístico probabilístico y el difuso. Sin duda alguna, la aproximación de la incertidumbre con mayor desarrollo y consolidación es la basada en la teoría de la probabilidad, cuyos elementos básicos son los espacios probabilísticos y sus componentes; en particular, los sucesos observables, las operaciones entre ellos y la asignación de probabilidades a esos sucesos. Esta aproximación constituye la herramienta matemática más idónea para tratar los problemas que encierran aleatoriedad, entendida esta última como la incertidumbre asociada a la “ocurrencia” de resultados, valores o clases bien definidos.

Gil citando a Zadeh menciona que para los problemas en los que algunos elementos presentan características difusas o incertidumbre asociada a la “definición” o significado de resultados, valores o clases que no están bien definidos, la teoría de conjuntos difusos ha proporcionado desde su creación un marco matemático en el que el modelado y tratamiento de ese nuevo tipo de incertidumbre pueden llevarse a cabo de forma adecuada. Los elementos básicos del modelo vienen dados en este caso por los subconjuntos difusos, sus funciones de pertenencia y las operaciones entre esos subconjuntos. Desde la introducción de la teoría de conjuntos difusos, se han dedicado diversos trabajos al análisis de su conexión con la teoría de la probabilidad desde posiciones distintas y con propósitos diferentes. Entre ellos cabe destacar los que examinan las vinculaciones de los subconjuntos difusos con conceptos probabilísticos, en concreto, la consideración de los primeros como casos especiales de términos aleatorios, y los que establecen y manejan conceptos que combinan nociones de las dos teorías. Para caracterizar un experimento aleatorio es necesario identificar todos los resultados experimentales, definir todos los sucesos de interés asociados al experimento y asignar probabilidades a esos sucesos, y en su caso, a los valores de los parámetros poblacionales.

Gil, continua mencionando que en ese sentido, a veces surgen limitaciones importantes a la hora de asignar probabilidades exactas, de manera que se ajusten mejor a la información disponible ciertas proposiciones imprecisas mediante las cuales se indica que un conjunto de resultados experimentales o de valores paramétricos, es “bastante probable” o “muy poco probable” o “más o menos probable”. Por otra parte, en el proceso de cuantificación de la variable puede asociarse a algún resultado experimental un valor impreciso, como “un número muy pequeño”, “un número elevado”, u otros; de forma análoga, aun cuando la cuantificación anterior fuera numérica el observador puede transmitir el valor de la variable aleatoria de manera imprecisa.

lunes, 16 de febrero de 2015

Estadística e incertidumbrte

La inteligencia artificial y la estadística constituyen áreas de la ciencia que se han desarrollado de manera independientemente, sin embargo, cuentan con muchos problemas que abordan en común. Según Triola, en el libro publicado el año 2009 bajo el titulo “Estadística”, el término estadística se deriva de la palabra latina status, que significa “estado”. Los primeros usos de la estadística implicaron la recopilación de datos y la elaboración de gráficas, para describir diversos aspectos de un estado o de un país. En el año 1662 John Graunt publicó información estadística acerca de los nacimientos y los decesos. Al trabajo de Graunt siguieron estudios de tasas de mortalidad y de enfermedad, tamaño de poblaciones, ingresos y tasas de desempleo. Los hogares, gobiernos y empresas se apoyan mucho en datos estadísticos para dirigir sus acciones. Por ejemplo, se reúnen datos de manera cuidadosa y con regularidad para establecer las tasas de desempleo, las tasas de inflación, los índices del consumidor y las tasas de nacimientos y muertes; en tanto que los líderes empresariales utilizan los datos resultantes para tomar decisiones que afectan futuras contrataciones, los niveles de producción y la expansión hacia nuevos mercados.

Los investigadores Sánchez y Valdés en relación al caso de la estadística como ciencia, en el libro publicado el año 2003 con el título “Kolmogorov. El zar del azar”, mencionan que aunque muchos historiadores la sitúan en los trabajos de Jacob Bernoulli, la estadística moderna tendría su desarrollo en el siglo veinte, los trabajos de Karl Pearson y Ronald Fisher, que sientan las bases de la inferencia junto al estudio teórico propiciado por probabilistas como Kolmogorov o Markov que ligado al boom informático permitirán el nacimiento de la mayoría de las técnicas modernas: La inferencia, el diseño de experimentos, la fiabilidad, el control de calidad, el análisis multivariante, la teoría de juegos, la investigación operativa o la minería de datos. Podría decirse que el siglo veinte ha sido el siglo de la estadística. La panorámica de la estadística como ciencia es muy distinta a su situación en el campo educativo, pues hoy nadie discute su gran importancia, ya no como rama del conocimiento científico sino su interrelación con otras ciencias, tales como la medicina, biología, ingeniería, economía y otras, donde se usa como parte del método de investigación científica y desde donde se desarrollaron muchos métodos estadísticos.

Téllez, en la tesis doctoral escrita el año 2012 titulada “Desarrollo de Sistemas Difusos Tipo 2 Paramétricos”, menciona que el mundo real es incierto, el constante cambio, el incesante caos y la aterradora duda pueden llevar a las personas a tomar decisiones equivocadas. La vida es un sistema colmado de muchas de estas percepciones subjetivas. En todos los sistemas físicos, también se encuentran estas percepciones y los investigadores intentan convertir a las personas en inmunes a ellas utilizando herramientas que permitan predecir, planear, modelar y reaccionar a cualquiera de ellas oportunamente. En la predicción de fenómenos naturales tales como las tormentas, huracanes, heladas, por ejemplo, las variables físicas y los modelos matemáticos muchas veces no son suficientes para determinar un estado climático específico, debido a que existe mucha información del fenómeno que se desconoce. Ese desconocimiento provoca en las personas incertidumbre. La incertidumbre se encuentra en todos los aspectos de la vida, desde la percepción de la naturaleza hasta la vida social del ser humano, tal como la comunicación humana. De esta manera es como las personas se han valido de los sistemas computacionales para reducir o eliminar esa incertidumbre.

El considerado padre de la lógica difusa Lotfi Zadeh, en el artículo escrito el año 1965 con el título “Conjuntos difusos”, menciona que, los sistemas lógico difusos fueron creados para cuantificar la incertidumbre, ambigüedades e imprecisiones que caracterizan a las palabras o expresiones lingüísticas que utilizan a diario las personas para comunicarse. Para esto, Zadeh propuso una teoría de conjuntos que fuera capaz de representar expresiones lingüísticas y las relaciones entre ellas y de esta manera la llamó lógica difusa. En su obra, Zadeh presenta una teoría de conjuntos difusos caracterizado por formas convexas llamadas “funciones de pertenencia”, con las que se puede cuantificar una idea en relación a una expresión lingüística, intrínsecamente incierta, lo cual puede llevarse a varios niveles de entropía. Dependiendo el nivel de entropía se caracteriza el tipo de sistema y los conjuntos que lo componen, se tienen una representación y procesamiento específico. Posteriormente, Zadeh, en el artículo escrito el año 1975 titulado “El concepto de una variable lingüística y su aplicación al razonamiento aproximado”, sentó las bases para que la “computación con palabras”, tuviera cabida en los sistemas computacionales al usar la lógica difusa como una herramienta para cuantificar y clasificar las palabras. El centro de su investigación fue modelar las palabras mediante sistemas difusos debido a que las palabras pueden significar cosas diferentes para personas diferentes, lo cual puede generar incertidumbre en un sistema computacional. La relación que existe entre la computación con palabras y la estadística difusa es una de sus principales contribuciones.

lunes, 9 de febrero de 2015

Agentes inteligentes en educación


En la tesis doctoral escrita por el investigador Celorrio, publicada el año 2010 con el título “Una arquitectura distribuida basada en agentes software para el desarrollo y el soporte de espacios de aprendizaje ubicuos”, menciona que son diversas las aportaciones en la literatura que usan los agentes dentro del campo de la educación, algunas enfocando más la parte de la teoría pedagógica y otras resaltando más la parte técnica. Desde un punto de vista más pedagógico, el investigador Jafari, en el artículo escrito el año 2002 con el título “Conceptualizando agentes inteligentes para la enseñanza aprendizaje”, proporciona un enfoque generalista en el que podría considerarse a los agentes como elementos integrados dentro del aprendizaje y la enseñanza, aportando ejemplos de agentes que podrían ayudar a los profesores y estudiantes como un ‘Agente Profesor Asistente’, que asista al profesor en las tareas pedagógicas y agregue información sobre el progreso de los alumnos, un “Agente Tutor”, capaz de encontrar y recomendar contenidos al alumno, y un “Agente Secretario”, que ayude con las tareas burocráticas. De un modo similar, Gregg, en el artículo escrito el año 2007 con el título “Agentes para la educación virtual”, habla de un hipotético entorno de enseñanza virtual en el cual un conjunto de agentes son utilizados para conseguir un aprendizaje adaptado y personalizado. Entre los agentes que introduce el autor, todo siempre desde una perspectiva teórica, se encuentran distintos agentes para seleccionar y personalizar la distribución de contenidos en función del alumno, junto con un “Agente de colaboración” capaz de ponerle en contacto mediante chat con otros alumnos. Los investigadores Gascueña y Fernández, en el artículo escrito el año 2005 con el título “Sistema tutorial inteligente para el proceso de enseñanza-aprendizaje virtual”, mencionan que desde un punto de vista más tecnológico, varias investigaciones utilizan la tecnología de agentes para aportar nuevas formas de implementar sistemas educativos ya existentes. Un ejemplo es el uso de los sistemas multi-agente para implementar “Sistemas de tutor inteligentes”.

Los sistemas tutores inteligentes comenzaron a desarrollarse en los años 1980, con la idea de impartir el conocimiento usando alguna forma de inteligencia para asistir y guiar al estudiante en su proceso de aprendizaje. Se buscó emular el comportamiento de un tutor humano, es decir a través de un sistema que pudiera adaptarse al comportamiento del estudiante, identificando la forma en que el mismo resuelve un problema a fin de brindarle ayudas cognitivas cuando lo requiera. Según Wolf, en la disertación realizada el año 1984 de su tesis doctoral titulada “Planificación dependiente de contexto en un tutor automático” define los sistemas tutores inteligentes como: “Sistemas que modelan la enseñanza, el aprendizaje, la comunicación y el dominio del conocimiento del especialista y el entendimiento del estudiante sobre ese dominio”.

Por otro lado, varios sistemas se alinean más en consonancia con elementos como son los agentes y el uso del contexto en dispositivos móviles. El investigador Kinshuk, en el artículo escrito el año 2004 con el título “Mejora de los ambientes de aprendizaje móvil mediante la aplicación de tecnología de agentes móviles”, aboga por el uso de agentes móviles, que puedan moverse entre los dispositivos clientes y el servidor, para dar soporte a entornos de aprendizaje móvil. Esmahi & Badidi, en el artículo escrito el año 2004 con el título “Estructura de trabajo basada en agentes para el aprendizaje móvil adaptativo”, presentan una arquitectura que cuenta con repositorios de perfiles de usuarios, perfiles de dispositivos y de contenidos educativos y que son empleados por diversos agentes móviles para ofrecer a los estudiantes contenidos personalizados. Los investigadores Ko, Hur, & Kim, en el artículo escrito el año 2005 con el título “Sistema de aprendizaje móvil personalizado utilizando sistemas multiagente”, presentan un sistema basado en agentes que pretende ser empleado para el aprendizaje del idioma inglés utilizando dispositivos móviles. En el artículo escrito el año 2008 con el título “Desarrollo generalizado de ambientes de aprendizaje”, por Graf y sus colegas, se discute acerca de una infraestructura de agentes para desarrollar actividades basadas en problemas al interior de entornos con dispositivos móviles. Sin embargo, se ofrecen pocos detalles acerca del escenario pedagógico de aplicación y los detalles técnicos del sistema, al comentarse que está en fase de implementación. De la misma forma, Nino y sus colegas, en el artículo escrito el año 2007 con el título “Modelo sensible al contexto en un entorno de aprendizaje ubicuo”, presenta GlobalEdu como una arquitectura adaptada al contexto para el aprendizaje ubicuo, pero tanto su modelo de contexto como la arquitectura de agentes se comentan muy superficialmente en la literatura que hay sobre ella. Esto desgraciadamente es bastante común en la mayoría de las propuestas de desarrollo de sistemas basados en agentes, las cuales muchas veces no llegan a implementarse o se quedan sólo en prototipos bastante básicos. Uno de los principales retos a los que se enfrenta la investigación en este campo es el modelado de los agentes pedagógicos, junto con su funcionalidad y estructura interna, apareciendo todos estos elementos muy vagamente descritos en la literatura en general de los sistemas basados en agentes para la educación y en concreto de los sistemas basados en agentes para el aprendizaje móvil.

lunes, 2 de febrero de 2015

Agentes inteligentes en educación

Responder a la pregunta de qué es un agente resulta una tarea bastante difícil, ya que la literatura proporciona diferentes definiciones, que hacen que lo que para algunos sea un agente, para otros no tenga la suficiente entidad para ser llamado así. Los investigadores Russell y Norvig, en el libro publicado el año 1996 con el título “Inteligencia Artificial: Un enfoque moderno”, utilizan el concepto de agente como nexo de unión para todo los temas, mostrando como dotar de contenidos y funcionalidad a un agente, partiendo de los temas clásicos de la inteligencia artificial como la representación del conocimiento, la ciencia cognitiva y el razonamiento. De hecho el libro es presentado con el subtitulo de “libro del agente inteligente”. La definición que Russell y Norvig proporcionan de agente, es la de aquel ente que percibe su ambiente mediante sensores y que responde o actúa en dicho ambiente mediante efectores. La definición de agente inteligente o racional es obviamente, más restrictiva. Un agente inteligente es aquel que toma sus decisiones de actuación para favorecer lo máximo posible su medida de rendimiento. Es decir que el agente toma decisiones que le permitan desempeñar lo mejor posible sus objetivos. Esta definición es vista como simplista por otros autores, que interpretan que un agente es algo más complejo.

En muchos casos se confía no en una definición sino más bien en un conjunto de características que debe cumplir un determinado ente para ser considerado como agente. Los investigadores Woodridge y Jennings, en el libro publicado el año 1995 con el título “Teorías de agente, arquitecturas y lenguajes: Un estudio”, definen un agente como un sistema informático hardware o más frecuentemente software, que posee las siguientes propiedades: (1) Autonomía. Los agentes actúan sin la intervención directa de humanos u otros agentes y tienen algún tipo de control sobre sus acciones y estado interno. (2) Habilidad social. Los agentes interactúan con otros agentes, e incluso con humanos, por medio de algún tipo de lenguaje de comunicación de agentes. (3) Reactividad. Un agente percibe su entorno y responde de forma apropiada en un tiempo razonable a los cambios que ocurren en él. (4) Pro-actividad. Los agentes no actúan simplemente en respuesta a su entorno, sino que también deben exhibir un comportamiento dirigido por objetivos tomando la iniciativa.

Franklin y Graesser, en el artículo escrito el año 1996 titulado “¿Es un agente o simplemente un programa?”, mencionan que no existe un consenso general sobre en qué medida estas habilidades han de estar presentes dentro del agente, y que, dependiendo del tipo de aproximación utilizado para diseñar e implementar el agente, algunas características estarán más presentes que otras. Si bien es cierto que habitualmente estos son los elementos que comúnmente se consideran aceptados para suponer a un agente como “inteligente”, otras habilidades complementarias son las siguientes: (1) Personalidad. Un agente puede mostrar cualidades que muestran un carácter propio. (2) Adaptabilidad. Un agente puede aprender basándose en la experiencia y modificar su comportamiento futuro en base a ello. (3) Movilidad. Un agente puede migrar, transportando su comportamiento y estado interno, del dispositivo o nodo en el que reside a otro. En palabras de Lange & Oshima, en el artículo escrito el año 1999 titulado “Siete buenas razones para los agentes móviles”, un agente que posee esta última habilidad recibe el nombre de agente móvil y aunque éstos muestran atractivas ventajas son también cuestionados debido a los problemas de seguridad que presentan y a que dichas ventajas pueden conseguirse mediante otros medios. Cabe destacar que un agente móvil no tiene nada que ver con el tipo de dispositivo en el que reside. Es decir, que un agente no es móvil por residir en una PDA o en un teléfono móvil, sino por su capacidad de migrar entre dispositivos, sean éstos móviles o no.

Desde un punto de vista clásico de la inteligencia artificial, el investigador Newell, en el artículo publicado el año 1982 con el título “El nivel del conocimiento”, menciona que un agente puede verse como un sistema que en vez de trabajar dentro del nivel simbólico, es capaz de trabajar en el nivel de conocimiento. Los componentes dentro del nivel de conocimiento se caracterizan por tener un grado de abstracción mayor y se dividen en objetivos y acciones. De esta forma, un agente está compuesto por un conjunto de acciones que es capaz de realizar y un conjunto de objetivos que le es necesario satisfacer. El medio dentro del nivel de conocimiento es, como apunta Newell, obviamente el conocimiento. Finalmente, la principal ley de comportamiento que gobierna al agente es el denominado “principio de racionalidad”. Este principio establece que las acciones de un agente son seleccionadas para satisfacer los objetivos de dicho agente. Una característica importante es que el agente normalmente no dispone información total de lo que pasa a su alrededor, sino que dispone de conocimiento parcial del mundo, de forma similar a lo que le ocurre a cualquier persona. Con el fin de cumplir con el “principio de racionalidad”, el agente es capaz de utilizar el conocimiento que tiene sobre sí mismo y el entorno que le rodea para seleccionar las acciones más apropiadas.