lunes, 20 de octubre de 2014

Realidad aumentada


Según López, en la tesis de maestría mencionada anteriormente, para realizar esta labor es necesaria la realización de cuatro tareas fundamentales: (1) Captura de la escena, (2) identificación de la escena, (3) realidad más aumento y (4) visualización de la escena. Sin embargo se hace mención a que al interior del campo de investigación de la realidad aumentada se sugiere la inclusión de una tarea denominada “interacción”, debido a que esta es una tarea de gran importancia ya que crea la relación directa entre el sistema y el usuario. A continuación se describen cada una de estas tareas de manera específica.

En relación con el punto (1) de captura de la escena, se menciona que existen diversos mecanismos y sistemas para realizar captura de escenas en realidad aumentada para su posterior procesamiento, dentro de los cuales se pueden encontrar: (a) Dispositivos de video. En este conjunto se encuentran las cámaras de video y dispositivos móviles, siempre y cuando tengan una cámara. (b) Dispositivos de visualización. Estos dispositivos acostumbran a trabajar en tiempo real, haciéndolos no sólo más costosos en presupuesto sino también en complejidad. Para el punto (2) identificar el escenario, los investigadores Bimber y Rakar, en el artículo escrito el año 2005 titulado “Realidad aumentada espacial, mezcla de mundos reales y virtuales”, menciona que el proceso consiste en averiguar qué escenario físico real es el que el usuario quiere que se aumente con información digital. López, en la tesis citada, menciona que este proceso puede llevarse a cabo, básicamente, de dos maneras: Utilizando marcadores o sin utilizarlos: (a) Reconocimiento por marcadores: En palabras de Cawood y Fiala, en el libro escrito el año 2008 titulado “Realidad aumentada: Una guía práctica”, en los sistemas de realidad aumentada, un marcador es un objeto cuya imagen es conocida por el sistema. Dichos sistemas son reconocidos por utilizar marcadores fiduciales que se obtienen mediante una cámara y técnicas de visión por computadora. Las maneras en que el sistema conoce el marcador se pueden agrupar en tres conjuntos, mediante su geometría, su color o mediante ambas características. Dentro de los sistemas de detección de marcas se pueden destacar: ARToolKit, ARTag, StudierStube, OsgART, etc. Estos sistemas se encuentran compuestos por una serie de bibliotecas que recogen las técnicas de visión necesarias para realizar el posicionamiento del objeto. (b) Reconocimiento sin marcadores. De la misma forma, es posible identificar la escena mediante reconocimiento de imágenes o mediante la estimación de la posición. También es posible encontrar sistemas que realicen una combinación de ambas en función de la situación. Dentro de los tipos de sistemas más utilizados se puede encontrar los sistemas que registran rasgos naturales, los cuales funcionan de manera similar a los sistemas basados en marcadores, realizando el análisis de la imagen e identificando puntos en una secuencia de imágenes. Entre las aplicaciones que permiten este tipo de reconocimiento se destaca BazAR, compuesto por bibliotecas que permiten el cálculo de la orientación del punto de vista de la cámara a partir de la identificación de rasgos naturales.

Continuando con la descripción de las tareas fundamentales de la realidad aumentada el punto (3) referido a la mezcla de la realidad con el aumento, se dice que una vez descrito el proceso de identificación de escenarios, el siguiente asunto que tiene lugar en los sistemas de realidad aumentada es el sobreponer la información digital que se quiere ampliar sobre la escena real capturada, para esto se necesita las denominadas bibliotecas de aumento, las cuales constituyen el software adecuado para sobreponer a la imagen real la información aumentada deseada. Según la forma de rastreo, estas bibliotecas se clasifican en dos tipos: Las bibliotecas de seguimiento de marcadores fiduciales y las bibliotecas de seguimiento de gestos corporales. Para el reconocimiento de marcadores fiduciales existen diversas bibliotecas disponibles al público. Una de las bibliotecas más conocidas es ARToolKit, que puede considerarse como una biblioteca de realidad aumentada, la misma fue desarrollada por Hirokazu Kato del Instituto Nara de Ciencia y Tecnología en el año 1999. Dicha biblioteca permite la detección de unos marcadores específicos y realiza las tareas de superposición de imágenes. ARToolKit realiza el seguimiento de la cámara en tiempo real, asegurando que los objetos virtuales siempre aparezcan superpuestos sobre los marcadores de seguimiento. ARToolkit también tiene una serie de limitaciones que surgen en los sistemas basados en visión por computadora. De esta biblioteca se derivan diversas versiones que mantienen el mismo principio, entre las más relevantes se pueden mencionar a las siguientes: ARToolKitPlus, FLARToolKit, osgART como una combinación de ARToolKit y OpenSceneGraph, ARTag como alternativa a ARToolkit, además de NyARToolkit. Por otra parte, para el reconocimiento de gestos corporales, es posible encontrar bibliotecas como BazAR, la cual es una biblioteca de visión por computadora basada en la detección y correspondencia de rasgos naturales puntuales. BazAR está compuesto por dos módulos: (a) Garfeild, este módulo proporciona las herramientas para detectar puntos clave o rasgos puntuales, y establecer su correspondencia respecto de una serie de puntos almacenados y (b) Starter, que contiene las estructuras básicas y las herramientas matemáticas.

Finalmente en el punto (4), según Zhou y sus colegas, en el artículo publicado el año 2008 titulado “Tendencias en la realidad aumentada: Seguimiento, interacción y visualización”, la interacción con los sistemas de realidad aumentada especifica como los usuarios manipulan los contenidos virtuales de la realidad aumentada. Portalés, en la tesis doctoral publicada el año 2008 con el título “Entornos multimedia de realidad aumentada en el campo del arte”, define la interacción como una propiedad inherente de cualquier entorno interactivo multimedia que incluye actividades y respuestas físicas, sensoriales y mentales El usuario puede interactuar con un sistema realidad aumentada mediante los tipos e interfaces mencionados anteriormente, sin embargo aún no se han tenido en cuenta factores humanos y de comportamiento que determinan la forma más intuitiva de uso de una interfaz.

lunes, 13 de octubre de 2014

Primera parte Realidad aumentada

Hasta hace pocos años la opción de disponer de información digital añadida sobre cualquier objeto sin alterar su entorno era prácticamente imposible. López, en el proyecto fin de máster en sistemas inteligentes publicado el año 2010 con el título “Análisis y desarrollo de sistemas de realidad aumentada”, menciona que hacia la primera década del siglo veintiuno ya es posible ver casi cualquier tipo de información digital sobre el objeto que sea. Esto se debe a la realidad aumentada, una tecnología a disposición de cualquier persona que permite superponer sobre un escenario real cualquier tipo de contenido digital, sea de la índole que sea, visual, auditivo, etc. A pesar de que en el año 1966, Ivan Sutherland inventó el primer casco de visualización, descrito en el artículo titulado “Casco de visualización tridimensional”, no ha sido prácticamente hasta el siglo veintiuno cuando esta área de investigación ha empezado a coger fuerza y relevancia. Esto se debe a que los esfuerzos del siglo pasado estaban más centrados en la realidad virtual, que se diferencia de la realidad aumentada en que todo lo que el usuario observa es una simulación de la realidad. La especial relevancia que tiene la realidad aumentada no proviene de su naturaleza novedosa, ya que esta tecnología ya venía siendo utilizada en las cabinas de los aviones durante el siglo pasado. Lo que ha producido que haya aumentado su importancia ha sido su apertura a la vida cotidiana de las personas.

Según Azuma, en el artículo publicado el año 1997 titulado “Manual de realidad aumentada”, la realidad aumentada es un término que se asocia al resultado del uso de tecnologías que superponen imágenes generadas por computadora sobre ambientes físicos pertenecientes al mundo real, que el usuario puede percibir de manera natural. Billinghurst y sus colegas, en el artículo publicado el año 1999 con el título “Una aplicación de realidad mixta en tres dimensiones”, este proceso se lleva a cabo en tiempo real, permitiendo a los usuarios interactuar con contenidos digitales a través del manejo de objetos reales o bien, tener una experiencia meramente visual al complementar el mundo real mediante objetos virtuales en un entorno de realidad mixto, creando la sensación de que el ambiente ha sido aumentado. Azuma, en el artículo mencionado, explica que al igual que la realidad aumentada, la realidad virtual es capaz de dar la impresión al usuario de que se encuentra en un ambiente diferente al que está acostumbrado, sin embargo, en el caso de la realidad virtual, dicho entorno es cien por ciento sintético, es decir todos los objetos son virtuales. Mientras el usuario se encuentre en dicho ambiente, no es capaz de ver el mundo real sino sólo el entorno virtual que lo rodea, generalmente desde una perspectiva en primera persona. Si el usuario es proyectado en el ambiente desde una perspectiva en tercera persona, también será mostrado como un objeto virtual. Billinghurst y sus colegas, en el artículo citado, complementan mencionando que otra diferencia destacable es que la realidad virtual se auxilia de aditamentos generalmente de tipo visuales, tales como lentes, aunque también puede emplear otros medios para que la simulación parezca más real, ya sean audífonos, interfaces hápticos o inclusive trajes sensoriales, mientras que la realidad aumentada tiene la opción de utilizar o no dichos aditamentos. Además, cuando se realiza el proceso inverso al de la realidad aumentada, es decir, utilizar tecnologías para superponer imágenes del mundo real sobre entornos cien por ciento virtuales, se estará refiriendo a ello como virtualidad aumentada. Finalmente, una mezcla entre la realidad, la realidad aumentada, la realidad virtual y la virtualidad aumentada puede ser denominada realidad mixta.

En palabras de los investigadores Barfield y Caudell, expresadas en el libro publicado el año 2001 con el título “Fundamentos de informática usable y realidad aumentada”, la realidad aumentada es el término que se usa para definir una visión directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta a tiempo real. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real. Existen definiciones comúnmente utilizadas para definir a esta tecnología. La primera fue propuesta por Milgram y Kishino el año 1994, la cual es explicada por López en la tesis de maestría escrita el año 2009 titulada “Análisis y Desarrollo de sistemas de realidad aumentada”, en la cual la realidad aumentada es descrita como un continuo que abarca desde el entorno real a un entorno virtual puro. La realidad aumentada permite al usuario ver el mundo real con objetos virtuales superpuestos o mezclados con el mundo real. De esta manera, la realidad aumentada es un complemento de la realidad, en lugar de sustituirla completamente, y mantiene tres características esenciales: (1) Combina elementos reales y virtuales. (2) Es interactiva en tiempo real. (3) Está registrada en tres dimensiones.

lunes, 6 de octubre de 2014

Segunda Parte Agentes virtuales autonomos

Los agentes virtuales inteligentes constituyen un caso particular de los entornos virtuales inteligentes en tres dimensiones. En palabras de Huhns y Singh, en el artículo escrito el año 1998 titulado “Lecturas sobre agentes”, los agentes virtuales inteligentes consisten en agentes inteligentes que se desenvuelven al interior de un entorno virtual en tres dimensiones. A menudo son conocidos como “agentes virtuales autónomos”. Un agente inteligente se define como una entidad de software que, basándose en su propio conocimiento del entorno, realiza una serie de operaciones destinadas a realizar un objetivo ya sea por iniciativa propia o porque dada una situación se lo requiera. Los agentes inteligentes pueden considerarse como entidades individuales dentro de un programa, en el caso que se presenta un entorno virtual en tres dimensiones, que tienen control sobre los movimientos al interior del mismo. Pueden realizar procesos de manera continua que les ayudan a conocer qué y cómo hacer sus tareas. Además, pueden comunicarse con otros agentes dentro o fuera de su ambiente, lo que le ayuda a lograr de forma más eficiente su objetivo. Según Wooldridge y Jennings, en el artículo citado anteriormente, de acuerdo al punto de vista de la inteligencia artificial un agente inteligente debe tener las siguientes propiedades: Continuidad temporal, autonomía, sociabilidad, capacidad de reacción, pro-actividad, iniciativa propia, movilidad, veracidad, benevolencia y racionalidad. Algunas de dichas propiedades ya fueron comentadas en párrafos precedentes.

Según Aylett y Luck, en el artículo escrito el año 2000 titulado “aplicación de la inteligencia artificial a la realidad virtual: Ambientes virtuales inteligentes”, un agente virtual autónomo posee características propias de los entornos virtuales y de los agentes inteligentes: (1) Habitan dentro de un entorno de ejecución tridimensional simulado. (2) Poseen una representación gráfica tridimensional al interior del mundo que habitan, y son capaces de percibir, adaptarse y reaccionar a su entorno. (3) Son capaces de expresar su comportamiento de manera gráfica como lo haría un ser vivo. (4) Aunque solo existen y funcionan en un entorno específico, son conscientes de los cambios que se producen a su alrededor y son capaces de responder a ellos de manera autónoma. Resulta bastante común confundir el concepto de agente virtual autónomo con el de Avatar. Un Avatar es la representación gráfica de una persona o elemento que existe en la vida real, su comportamiento es explícitamente controlado por un usuario externo, mediante comandos de control; por lo tanto, no es autónomo. La incorporación de los agentes inteligentes dentro de un entorno virtual tridimensional es un campo extendido de investigación, como el análisis del comportamiento de los agentes inteligentes y su credibilidad en entornos virtuales, creación de agentes sintéticos, actores virtuales, humanos virtuales, entre otros.

Producto del análisis realizado por Luengo, en la tesis doctoral publicada el año 2005 titulada “Nuevas técnicas para la animación del comportamiento de agentes virtuales autónomos”, los agentes virtuales autónomos son entidades de software que representan actores virtuales inmersos en escenarios tridimensionales, los cuales tienen la capacidad de reaccionar al entorno que los rodea, simulando tener vida propia. Estas características los ha dotado de gran atractivo para las industrias cinematográficas y del video juego, no siendo los únicos beneficiarios de esta tecnología. También se los encuentra en aplicaciones tales como simuladores civiles de conducción, tutores inteligentes, simuladores para el estudio del comportamiento, entre otros; que están basados en los agentes virtuales autónomos. Pero son las simulaciones en tiempo real las que ofrecen el mayor reto a los actores virtuales, ya que la evolución en cuanto al aspecto gráfico ha superado los avances respecto a la animación del comportamiento. Esto se ha debido fundamentalmente a la falta de técnicas computacionales capaces de crear comportamientos complejos en entornos virtuales tridimensionales.

En palabras de Nedel, en el tutorial escrito el año 1998 titulado “Simulando humanos virtuales”, suele referirse a los agentes virtuales autónomos como criaturas o actores virtuales, de manera genérica o haciendo referencia a un animal o humanoide, o también como humanos virtuales, refiriéndose específicamente a personas, y omitiendo la característica de “autónomos” cuando queda implícito en el contexto en que aparecen, o cuando el agente virtual autónomo recibe alguna clase de ayuda externa para su animación, no siendo completamente autónomo. Claro está, en el desarrollo de los agentes virtuales autónomos el mayor reto es construir humanos virtuales autónomos inteligentes. Se hace hincapié en el término “inteligente”, ya que su conducta debe ir acorde al objeto a imitar; es decir, un humano virtual debe ser capaz de actuar libre y emocionalmente, ser consciente e impredecible, y ser coherente consigo mismo y su entorno. La creación de humanos virtuales autónomos que resulten creíbles en todos sus aspectos, es una tarea ardua que ha requerido, y requiere, la colaboración de varios dominios del conocimiento, y de diversidad de investigadores dedicando sus esfuerzos a problemas específicos asociados al modelado, animación, y comportamiento de los humanos virtuales autónomos; y aun así, hay una gran cantidad de trabajo por hacer.

lunes, 29 de septiembre de 2014

Agentes virtuales autonomos

Los investigadores Brenner, Zarnekow y Witting, en el libro publicado el año 1998 con el título “Agentes de software inteligentes”, exponen que un agente de software inteligente es un programa que puede realizar tareas específicas para un usuario y posee un grado de inteligencia suficiente para ejecutar parte de sus tareas de forma autónoma y para interactuar con su entorno de forma útil. En este mismo contexto los expertos Russell y Norvig, en el libro publicado el año 1996 titulado “Inteligencia Artificial: un enfoque moderno”, mencionan que un agente es cualquier entidad que percibe su entorno a través de sensores y actúa sobre ese entorno mediante efectores. Asimismo definen que un agente es racional cuando realiza la mejor acción posible a partir de los datos percibidos.

Por su parte Wooldridge y Jennings, en el artículo publicado el año 1995 titulado “Agentes inteligentes: Teoría y práctica”, mencionan que un agente viene caracterizado por una serie de calificativos, los cuales denotan ciertas propiedades a cumplir por el agente. Esto lleva a plantear otra definición bastante aceptada de agente donde se emplean calificativos que, según, los autores se consideran básicos. Esta definición considera a un agente como un sistema de computación capaz de actuar de forma autónoma y flexible en un determinado entorno, entendiendo por flexible que sea social, reactivo o pro-activo. Estos calificativos son definidos de la siguiente manera: (1) Autonomía. Entendida como la capacidad de actuar sin la intervención directa de una persona o de otro agente. Un agente debe controlar sus propias acciones y estado interno. Una vez que el usuario activa el agente indicando algún objetivo de alto nivel, éste actúa independientemente, seleccionando estrategias y monitoreando el progreso en busca de la meta. Si falla con una estrategia, usará otra, pero sin intervención humana o con la mínima indispensable. (2) Habilidad Social. Un agente debe ser comunicativo. Debe tener habilidad para interactuar con otros agentes o incluso con alguna persona, para solicitar información o bien para exponer los resultados obtenidos de la ejecución de las tareas agendadas. La naturaleza de la comunicación dependerá del tipo de agente con quien se comunique, en ambos casos se deberá establecer un protocolo común de intercambio de información entre ambas partes. Los agentes deben poseer algún tipo de interface para comunicarse con sus usuarios. Dicha interface puede establecerse simplemente mediante el envío de mensajes. (3) Reactividad. Se refiere al hecho de que un agente debe actuar a manera de sensor para observar el estado del ambiente dentro del cual se encuentra inmerso y actuar, respondiendo de manera adecuada a cambios producidos en el mismo. Los efectos producidos pueden modificar el estado de su entorno. (4) Pro-actividad. Un agente no solo debe actuar por cambios detectados en el medioambiente, sino que, además, debe trabajar en función de los objetivos para los cual fue diseñado y las tareas que le fueron delegadas en cada momento. Un agente busca permanentemente satisfacer su agenda interna.

En palabras de Lozano y Calderón, en el artículo escrito el año 2006 titulado “Entornos virtuales 3D clásicos e inteligentes: hacia un marco de simulación para aplicaciones gráficas interactivas”, se menciona que los entornos virtuales inteligentes, en tres dimensiones, son aquellos en los cuales se pone énfasis en incrementar las capacidades de comportamiento e interactivas de los entornos virtuales en tres dimensiones, lo cual se consigue mediante la incorporación de sistemas de inteligencia artificial, tales como los agentes, que interactúan con el sistema gráfico. Sin embargo existe una gran dificultad en la implementación de comportamientos complejos al interior de un entorno, debido en particular a la poca disponibilidad de herramientas que permitan controlar de forma sencilla la interacción asíncrona que pudiera ocurrir entre los objetos y los elementos del entorno. Existen diferentes maneras de incrementar las capacidades interactivas de un entorno virtual en tres dimensione: Representar de forma explícita el conocimiento, mejorar la interactividad del entorno virtual y, brindar alternativas de simulación de los fenómenos físicos.

lunes, 22 de septiembre de 2014

Heurísiticas para la solución de problemas


Los factores que pueden hacer interesante la utilización de algoritmos heurísticos para la resolución de un problema responden a diversas circunstancias, algunas de estas circunstancias son anotadas por Díaz y sus colegas, en el libro publicado el año 1996 titulado “Optimización heurística y redes neuronales en dirección de operaciones e ingeniería”, como las siguientes: (1) Cuando no existe un método exacto de resolución. Ofrecer entonces una solución aceptablemente buena resulta de interés, frente a no presentar ninguna alternativa. (2) En el momento que es innecesaria la solución más favorable. Existen casos en que no se justifica el costo en tiempo y dinero para hallar una solución óptima que, por otra parte, no representará un beneficio importante con respecto a otra que sea simplemente satisfactoria. (3) Cuando los datos son poco fiables, o bien si el modelo ha simplificado fuertemente la realidad. En estas situaciones carece de interés la búsqueda de una solución exacta, dado que de por sí ésta no será más que una aproximación. (4) Cuando limitaciones de tiempo, memoria, espacio para almacenamiento de datos, etc., obligan al empleo de procedimientos de respuesta rápida, aún a costa de la precisión. (5) Como paso intermedio en la aplicación de otro método. A veces se usan soluciones heurísticas como punto de partida de algoritmos exactos.

Yepes Piqueras, en la tesis doctoral anotada, menciona que una ventaja importante que presentan las heurísticas, respecto a las técnicas que buscan soluciones exactas, es que, por lo general, brindan una mayor flexibilidad en el manejo de las características del problema. Además, pueden ofrecer más de una solución, lo cual amplía las posibilidades de elección, sobre todo cuando existen factores que no han sido incorporados al esquema teórico, pero que también deben considerarse. El investigador Ho, en el artículo publicado el año 1994 titulado “Heurísticas: Reglas del sentido común y la proposición 80/20”, atribuye el éxito de las heurísticas a la aplicación de la regla ochenta-veinte, el ochenta por ciento de la riqueza la posee el veinte por ciento de la población, unos pocos proveedores son responsables de la mayoría de los problemas de la calidad y de los retrasos en las entregas, etc. La distribución desigual ha sido propuesta como un Principio Universal: “Pocos vitales y muchos triviales”, propuesta descrita en el libro de Juran, publicada el año 1951 con el título “Manual de control de calidad”. De este modo, las heurísticas evalúan normalmente un número reducido de opciones que permiten la exploración de las soluciones más interesantes.

Díaz y sus colegas, en el libro citado anteriormente, mencionan que las técnicas heurísticas se pueden agrupar de diversas formas: Métodos constructivos, de descomposición, de reducción, de manipulación del modelo y de búsqueda local. (1) Heurísticas de construcción de soluciones factibles. Los métodos constructivos se basan en añadir paulatinamente componentes individuales a la solución, hasta que se obtiene una opción viable. Uno de los más populares lo constituyen los algoritmos voraces “greedy”, que construyen paso a paso la solución buscando el máximo beneficio en cada etapa. (2) Heurísticas de descomposición. Basándose en el principio de “divide y vencerás”, fragmenta el problema en otros más pequeños de forma que al resolverlos todos se obtenga una solución para el problema global. En algunos casos los problemas se resuelven en cascada, es decir, el resultado de unos son datos de los siguientes, mientras que en otras situaciones los subproblemas se consideran independientes entre sí. (3) Heurísticas de reducción. Estos métodos simplifican el problema tratando distinguir alguna característica que presumiblemente deba poseer la solución óptima. (4) Heurísticas de manipulación del modelo. Se trata de simplificar el esquema teórico para encontrar los valores de las variables de decisión con mayor facilidad, deduciendo, a partir de ella, la solución del problema original. Como posibles estrategias se puede ampliar o reducir el espacio de las opciones. (5) Heurísticas de búsqueda local. Los métodos clásicos de mejora iterativa o de búsqueda local constituyen una clase de heurísticas que se basan en la exploración del entorno asociado al “vecindario” de una solución. Este ámbito está formado por las opciones generadas por una alteración de la solución actual. Mediante estos movimientos se pasa iterativamente de una solución a otra mientras no se cumpla un determinado criterio de terminación. Un procedimiento de búsqueda local queda completamente determinado al especificar un movimiento y el criterio de selección de una solución dentro del entorno.

lunes, 15 de septiembre de 2014

Heurísiticas para la solución de problemas


La inteligencia, en el criterio de Sánchez descrito en el artículo publicado el año 2002 titulado “Los sistemas inteligentes de transporte”, entendida como algo privativo de los seres humanos y que comprende aspectos tales como razonar, descubrir significados, generalizar o aprender de experiencias pasadas, da paso a un sentido anglosajón, más mecanicista, cuando con dicho calificativo se designa la incorporación a un sistema o a un elemento de componentes informáticos, de equipos de control y de comunicaciones, que proporcionan un cierto nivel de conocimiento a objetos inanimados, a través de medios de captación, de transmisión y de procesamiento de datos que pueden conducir a sistemas expertos e inteligencia artificial. Fayyard y sus colegas, en el libro publicado el año 1996 titulado “Avances en descubrimiento del conocimiento y minería de datos”, complementan mencionando que los sistemas inteligentes constituyen procedimientos capaces de encontrar patrones y descubrir relaciones entre grandes conjuntos de datos. Las redes neuronales, la lógica difusa, los algoritmos evolutivos, la búsqueda tabú, la cristalización simulada son algunas técnicas que han probado ya su eficacia en la explotación de datos, en el descubrimiento de conocimiento y en la solución de problemas combinatorios difíciles en diferentes campos técnicos y científicos.

En palabras de Marino y Rodríguez, en el artículo publicado el año 2009 con el título “Un estudio exploratorio sobre heurísticas en estudiantes de un curso de matemática de nivel pre-universitario”, en general hay acuerdo en considerar que la formación del sujeto debería ser flexible como para que éste sea capaz de enfrentarse a tareas nuevas, que sean desafiantes y más cercanas al tipo de actividad profesional que eventualmente tendrá que desarrollar. Uno de los referentes en la línea de resolución de problemas, que se menciona en muchas obras como el principal referente, ha sido George Polya, con el libro escrito el año 1945 titulado “Como plantear y resolver problemas”, en el que propone un modelo para el proceso de resolución de problemas y una sistematización interesante de las fases y las heurísticas útiles en dicho proceso; constituyó el primer trabajo en establecer una relación entre la resolución de problemas y la heurística con la enseñanza. El modelo planteado por Polya establece que las fases en el proceso de resolución de problemas son: Comprender el problema, concebir un plan, ejecutar el plan y examinar la respuesta obtenida. En esta corriente la noción de problema es de central importancia. Por ello la mayoría de los investigadores que trabajan en esta línea han dedicado esfuerzo a precisar cómo la conciben. Entre las diversas definiciones algunas tienden a caracterizar a los problemas por oposición a los ejercicios rutinarios.

Según Telfar, en el libro publicado el año 1994 titulado “Heurísticas generales aplicables para la optimización global”, las heurísticas constituyen métodos sencillos que proporcionan soluciones satisfactorias a un problema dado mediante algoritmos específicos con procedimientos tales como los métodos constructivos, de mejora local o combinación de ambos. Estas técnicas explotan las características propias de un problema para buscar soluciones satisfactorias. Telfar denomina a las heurísticas como “algoritmos a medida”, no siendo aprovechables para un problema diferente al que fue diseñado. En palabras de Yepes Piqueras, en la tesis doctoral escrita el año 2002 titulada “Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW”, dada la dificultad práctica para resolver importantes problemas combinatorios, comenzaron a proliferar algoritmos que proporcionaban soluciones factibles que, aunque no optimizaban la función objetivo, se acercaban al valor óptimo en un tiempo de cálculo razonable, ofreciendo soluciones de gran interés práctico. Estos métodos, diseñados específicamente en cada caso, y que ofrecen opciones satisfactorias, resolviendo los problemas complejos con una rapidez adecuada, han abundado en la literatura científica en las últimas cuatro décadas. Este tipo de algoritmos de aproximación se denominan heurísticas. Consisten en un conjunto bien definido de pasos que identifican con un esfuerzo de cálculo razonable una solución satisfactoria para un problema determinado. Zanakis y Evans, en el artículo escrito el año 1981 titulado “Optimización heurística: Por qué, cómo y cuándo usarla”, definen la heurística como “procedimientos simples, a menudo basados en el sentido común, que se supone ofrecerán una buena solución, aunque no necesariamente la óptima, a problemas difíciles, de una manera bastante fácil y rápida”.

Biocomputación extracelular para nanorrobots médicos


La realización de cálculos utilizando biomoléculas dentro de células es una rama de la ciencia muy prometedora que se está desarrollando rápidamente. En ese escenario, la biocomputación suele valerse de mecanismos celulares naturales. Es mucho más difícil, sin embargo, realizar cálculos fuera de las células, donde no existen estructuras naturales que puedan ayudar a llevarlos a cabo de manera viable. Un nuevo estudio se centra específicamente en la biocomputación extracelular.



Maxim Nikitin, del Instituto de Física y Tecnología de Moscú en Rusia, y otros científicos de instituciones rusas, han dado un importante paso hacia la creación de nanorrobots médicos. Descubrieron una forma de permitir que partículas nanométricas y micrométricas produzcan cálculos lógicos usando una serie de reacciones bioquímicas.



En los circuitos electrónicos, los operadores lógicos utilizan corriente eléctrica. Si hay corriente (o voltaje), el resultado es 1, sino es 0. En la computación que utiliza biomoléculas, el resultado puede ser una sustancia dada. Por ejemplo, las técnicas de bioingeniería modernas permiten hacer que una célula se ilumine con diferentes colores (fruto de sustancias químicas distintas), o incluso programarla para que muera, enlazando el inicio de la apoptosis al resultado de operaciones binarias.



Muchos científicos creen que las operaciones lógicas en el interior de células o en sistemas biomoleculares artificiales son una forma de controlar procesos biológicos y de crear micro y nanorrobots completos que puedan, por ejemplo, suministrar fármacos de forma programada a aquellos tejidos donde se les necesite.



La línea de investigación y desarrollo del equipo de Nikitin abre el camino hacia una serie de tecnologías biomédicas y difiere de forma notable de trabajos anteriores sobre biocomputación, que se centran tanto en el exterior como en el interior de las células.

Para los enlaces con las nanopartículas, los investigadores seleccionaron anticuerpos. Esto también distingue su proyecto de una serie de desarrollos experimentales anteriores en biocomputación, que utilizan ADN o ARN para operaciones lógicas. Estas proteínas naturales del sistema inmunitario tienen una región activa pequeña, que responde solo a ciertas moléculas; el cuerpo se vale de la elevada selectividad de los anticuerpos para reconocer y neutralizar bacterias y otros patógenos.



Asegurándose de que la combinación de diferentes tipos de nanopartículas y anticuerpos hace posible implementar varios tipos de operaciones lógicas, los investigadores han mostrado que las células cancerosas pueden ser también usadas específicamente como blanco.

Aunque este es solo un pequeño paso hacia la creación de nanobiorrobots eficientes, esta área de la ciencia abre perspectivas muy prometedoras, en lo que algunos comparan con la creación de los primeros diodos y transistores, que resultaron en el rápido desarrollo de los ordenadores electrónicos.

lunes, 25 de agosto de 2014

Flujos de trabajo


En el análisis realizado por Mendoza y Hazle, en la tesis de grado escrita el año 2003 titulada “Metodología para el análisis y diseño de sistemas de información para automatizar procesos administrativos internos, utilizando workflow”, se menciona que hace más de tres décadas, las aplicaciones computacionales eran altamente dependientes de la organización de los datos en un disco. Un cambio en la estructura de almacenamiento obligaba a actualizar el código de las aplicaciones afectadas. Para superar esta dependencia, surgieron los sistemas de gestión de base de datos. De igual manera, muchas aplicaciones en las empresas no permitían la fácil modificación de los procesos, pues se encontraban inmersos en el código programado. Por esta razón, un cambio en la forma de operar el negocio conllevaba un mantenimiento a los programas existentes. El uso de la tecnología de flujos de trabajo o “workflow” hace posible que la tarea de distribuir el trabajo sea desmembrada de los programas, dando como resultado aplicaciones más flexibles y menos vulnerables a los cambios del negocio. Una aplicación independiente de los procesos consiste de una definición del flujo del trabajo y un conjunto de programas que proporcionan los servicios de usuario y datos.

En la tesis doctoral de Fernández, publicada el año 2008 con el título “Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas”, se menciona que el diseño de procesos por parte de expertos es un problema de gran complejidad. Por otro lado, si además de representar el proceso se quiere interpretar, el problema se agrava aún más. Según el modelo tradicional, si se quieren aprovechar los sistemas informáticos para supervisar y apoyar la implantación de los procesos diseñados es necesario crear un software que lo haga específicamente. Por ello, cuando un experto en procesos, como un médico, quiere poner en marcha un proceso, ha de recurrir a un programador para que le construya el producto software adecuado. Además, un experto en procesos pueden decidir en cualquier momento cambiar el flujo de ejecución para hacerlo más adecuado, lo que requeriría de nuevo la mediación del personal informático. Esta mediación supone a la postre errores y retrasos en la implantación de procesos muy simples. Este problema es resoluble dotando a los diseñadores de procesos de herramientas para diseñar sus propios procesos. Para ello, es necesario encontrar modelos que permitan realizar de un modo natural la automatización de los procesos para estandarizarlos. En el campo de la informática existe una disciplina que se encarga de la investigación en lenguajes de especificación de automatización de procesos y de entornos de ejecución dinámica de estos. Esta disciplina se denomina “Tecnología de flujos de trabajo”. Dicha tecnología proporciona lenguajes para definir procesos de una forma estándar que, de ser suficientemente formales y recoger la suficiente información, permitirían incluso la ejecución automática de los procesos en sistemas informáticos. El principal objeto de esta disciplina son los denominados flujos de trabajo.

Los flujos de trabajo son un tipo de trabajo colaborativo que ayudan a administrar y automatizar procesos de negocio. Chaffney, en el libro publicado el año 1988 titulado “Groupware, workflow e Intranets”, define los flujos de trabajo como “Un flujo y control en un proceso de negocio”. La asociación con varios años en la investigación de modelos y estándares para la industria de los flujos de trabajo, denominada “Coalición para la Administración de Flujos de Trabajo” define a los flujos de trabajo como: “La automatización de un proceso de negocio, total o parcial, en la cual documentos, información o tareas se trasladan de un participante a otro para ser procesados, de acuerdo a un conjunto de reglas establecidas”. De igual forma este grupo define lo que es un proceso de negocio: “Un proceso de negocio es un conjunto de uno o más procedimientos o actividades directamente ligadas, que colectivamente realizan un objetivo del negocio, normalmente dentro del contexto de una estructura organizacional que define roles funcionales y relaciones entre los mismos”. Greif, en el libro publicado el año 1988 titulado “Trabajo cooperativo soportado por computadora”, define los flujos de trabajo como “Un tipo especial de groupware que ofrece la posibilidad de realizar de una manera muy flexible el flujo de acciones de un grupo de usuarios”. Según los anteriores conceptos, la automatización de los procesos del negocio y la colaboración entre los miembros, son los principales objetivos de las soluciones de flujos de trabajo, los cuales toman como meta optimizar los recursos, además de reducir tiempo, dinero y esfuerzo en la administración de los procesos.

lunes, 4 de agosto de 2014

Ética de la nanotecnología

En palabras de Nordmann, en el artículo publicado el año 2007 titulado “Si y entonces: Una crítica de la nanoética especulativa”, de manera similar, la especulación sobre posibles futuros nanotecnológicos, utópicos o distópicos, está siendo desplazada y el debate gira cada vez más sobre preocupaciones que pueden surgir en un futuro cercano, similares a las suscitadas por otras tecnologías ya presentes en el mundo, aunque sean relativamente nuevas o “emergentes”. Ahora bien, la nanoética no es una rama de la ética plenamente aceptada, ni mucho menos. Las dudas sobre su especificidad y sobre su pertinencia pueden proyectarse sobre su “hermana menor”, si es que lo es en absoluto, y en todo caso, mucho menos conocida, a saber, la nanobioética. Según Baumgartner, en el artículo publicado el año 2008 titulado “Bionanotecnologia: Un nuevo cambio para la reflexión ética?”, la mayor parte de la controversia sobre la existencia y naturaleza de una ética de la nanotecnología o “nanoética”, no como mera etiqueta de conveniencia sino como área reconocida y distinta de las otras éticas aplicadas, se ha generado en torno a la pregunta sobre lo específico de las cuestiones y dilemas éticos suscitados a partir del desarrollo de la nanotecnología. Así, varios autores han negado que haya nada nuevo o específico, desde el punto de vista ético, que la nanotecnología por sí sola plantee.

El investigador De Cózar, en el libro escrito el año 2010 titulado “Nanotecnología, salud y bioética: Entre la esperanza y el riesgo”, menciona que los problemas, relativos al desarrollo de diversas aplicaciones nanotecnológicas, son idénticos o al menos muy similares a otros problemas que ya han sido detectados y evaluados por diferentes éticas aplicadas. Es una tarea bastante ardua proporcionar una lista exhaustiva de tales problemas, sin embargo es posible mencionar algunos ejemplos bastante discutidos: (a) En el campo de la biotecnología, las tecnologías biomédicas, las tecnologías de la energía y las de la información, los éticos y otros expertos se muestran preocupados por la posibilidad de que se viertan o fuguen sustancias que puedan contaminar el entorno y poner en riesgo la salud humana, cuestiones de toxicidad y eco toxicidad, básicamente. (b) Las nuevas tecnologías pueden ser usadas de manera abusiva por los ejércitos o con fines terroristas. (c) Las limitaciones generadas por la regulación de los derechos de propiedad y de las patentes pueden dificultar el disfrute de algunos productos de interés general, por ejemplo los medicamentos. (d) Más en general, pueden surgir o incrementarse las desigualdades socio-económicas, entre las que resaltan la equidad y la justicia distributiva, debido al acceso asimétrico a los bienes tecnológicos. (e) Los abusos de las grandes empresas y de los gobiernos en el ejercicio de su poder mediante el control de la tecnología repercuten en la libertad de elección, el bienestar y la seguridad de los ciudadanos. (f) Las amenazas a la privacidad de las personas mediante el uso de dispositivos electrónicos minúsculos y otras tecnologías de acceso y control de la información aumentan en proporción inversa al tamaño de tales artefactos.

Uno de los temas candentes respecto al avance de la nanotecnología es la posibilidad de control sobre su desarrollo. En un informe elaborado el año 2010 por el “Grupo de investigación en erosión, tecnología y concentración”, se ha renovado el pedido de moratoria y se ha expuesto nuevamente sobre la mesa el tema central sobre las cuestiones éticas, y en particular sobre la preponderancia de las investigaciones en nanotecnología con fines militares lideradas por los Estados Unidos de América. Según Johnston y sus colegas, en el artículo escrito el año 2007 titulado “Nanotecnología: Política y posición”, otra Organización No Gubernamental muy activa en proponer el control sobre los productos e investigaciones con base en nanotecnología es Greenpeace, que si bien reconoce las aplicaciones positivas que se podrían realizar en pos de cuidar y remediar el ambiente, también pide una moratoria para la introducción de productos y materiales en nanoescala hasta que se sepa con seguridad que no dañan el ambiente ni la salud humana.

lunes, 28 de julio de 2014

Ética de la nanotecnología

Según el Diccionario de la Real Academia Española, ciencia se define como el conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales. La investigación es un tipo de actividad para mejorar y ampliar el conocimiento humano, generando inventos e innovaciones que necesitan precaución. El aumento del conjunto de conocimientos se ha interpretado como positivo para el hombre. Una corriente filosófica denominada positivismo ha especialmente confiado en la ciencia como una posibilidad de solución para muchos de los importantes problemas que aquejan a los seres humanos.

En palabras de Mitcham, en la obra “Enciclopedia de la Ciencia” escrita el año 2005, la ética es la parte de la filosofía que trata de la moral y de las obligaciones del hombre, y en el caso particular de la ciencia y tecnología, se encarga de realizar una reflexión crítica sobre el accionar humano en estos campos. Sgreccia, en el “Manual de Bioética” publicado el año 2002, complementa mencionando que existe una distinción entre los términos vida ética, ética descriptiva y ética normativa. Ética es la ciencia que estudia el comportamiento humano en relación a los valores, principios y normas morales. Ética descriptiva o ethos es el examen de las costumbres y de los comportamientos relativos a valores, principios y normas de una población o determinado hecho. Ética normativa estudia valores, principios y normas de comportamiento y busca sus fundamentos y justificaciones. Esta ética puede ser general, cuando se dedica a los fundamentos, valores, principios o normas, o especial donde se incluyen la ética económica y profesional.

Se habla a menudo de la nanotecnología, en sentido general, como una “plataforma tecnológica” o “tecno científica”; esto es, según Foladori, en el artículo publicado el año 2010 titulado “Las nanotecnologías en contexto”, no tanto de una tecnología distintiva y separada como de un variado conjunto de técnicas o procedimientos para “descomponer” las partes constituyentes de la naturaleza, como son esencialmente átomos y moléculas, y recomponerlas o reconstruirlas de acuerdo con las propiedades que se persiguen por ser de interés para las personas por los motivos que sea. Se piensa por tanto que con la nanotecnología se pueden hacer más eficientes los productos y procesos productivos, ya que tiene una gran capacidad para crear productos multifuncionales que pueden reducir la cantidad de materia prima utilizada en su fabricación, así como sustituir parte de las materias empleadas hasta ahora por otras que se supone ofrecen más ventajas.

La reflexión que plantean los investigadores Ott y Papilloud, en el artículo escrito el año 2007 titulado “Instituciones convergentes: Estableciendo relaciones entre las nanotecnologías, economía y sociedad”, acerca de que es una opinión bastante extendida entre los expertos el que la nanotecnología será la tecnología dominante de “propósito general” durante las próximas décadas. Una tecnología así se caracteriza por su: (a) universalidad u omnipresencia, lo que significa que puede ser dirigida a una multitud de usos; (b) complementariedad innovadora, es decir, que afecta a los procesos de innovación industrial en varias escalas y es afectada por ellos; y (c) una reorganización de los procesos de trabajo en la sociedad, es decir, un impacto en la transformación y desarrollo de las estructuras e instituciones sociales relacionados con las actividades productivas y económicas en general.

Pasado el primer lustro del siglo veintiuno, se debate con cierta vivacidad acerca de la existencia y oportunidad de una “nanoética”, es decir, de una reflexión y discurso específicos de carácter ético para los problemas que trae consigo, y acarreará en el futuro, el desarrollo de la nanotecnología. Se han publicado docenas de artículos y varios libros colectivos sobre la definición y alcance de una nanoética. Según Allhoff y sus colegas, en el libro escrito el año 2007 titulado “Nanoética: Implicaciones éticas y sociales de la nanotecnología”, se ha realizado un gran esfuerzo para aplicar la ética a las nanotecnologías con la misma meticulosidad y precisión demostrada en otras ramas de la ética aplicada, tales como la ética ambiental, la bioética, la ética médica, la ética de la ingeniería, etc. La efectividad del esfuerzo ha resultado mayor gracias a un creciente consenso sobre lo aconsejable de evitar discusiones abstractas sobre la nanotecnología, favoreciendo en su lugar el estudio de los programas nanotecnológicos, frecuentemente heterogéneos, que están en marcha.

lunes, 21 de julio de 2014

Biología de sistemas

Wagner y Fell, en el artículo escrito el año 2001 titulado “Pequeño mundo al interior de una gran red metabólica”, para entender muchas enfermedades y diversos procesos celulares, como la transmisión de señales y el metabolismo, es necesario pensar que los seres vivos están formados por diversos componentes celulares que trabajan de forma conjunta y no basta con analizarlos por partes. Hay que descubrir las redes de sus interacciones y analizarlas como un todo, desde los puntos de vista

topológico y dinámico. Este tipo de enfoque ha sido impulsado por los estudios de funciones moleculares puntuales y algunas de sus interacciones, desde una perspectiva reduccionista, pero los principios generales que rigen la estructura y función de las redes biológicas están siendo descubiertos gracias a la cooperación entre las ciencias genómicas, la biología celular, la bioquímica y la teoría evolutiva, echando mano del poder analítico de las llamadas ciencias sintéticas, como la ingeniería y la computación, dando lugar a la biología de sistemas. Según Jensen, en el artículo escrito el año 1976 titulado “Recrudecimiento de las enzimas en la evolución de una nueva función”, en la biología de sistemas se trata de unir más que separar, de integrar más que reducir. Por lo cual, se requiere que se desarrolle nuevas formas de pensar acerca de esa integración, que sean tan rigurosas como sus contrapartes reduccionistas, pero diferentes. Esto representa un cambio de filosofía en el sentido más amplio.

En palabras de Jordi Naval, en el artículo escrito el año 2010 titulado “La revolución pendiente: Cómo las nuevas tecnologías bioinformáticas permitirán la integración y comprensión de la biología y la medicina, y darán paso a la medicina predictiva, personalizada, preventiva y participativa”, la biología de sistemas es una nueva ciencia en desarrollo que tiene como objetivo integrar toda la información “ómica” existente, entre las que resaltan la genómica, proteómica y metabolómica, y ponerla en relación con fenómenos observables, por ejemplo, estados de salud, enfermedad o efectos de los medicamentos, mediante la construcción de redes de interconexión entre elementos biológicos, seguido del modelado de estas redes para explicar los efectos que pueden observarse. En términos habituales, se trataría de explicar y predecir los efectos de los medicamentos mediante el conocimiento y el modelado de las rutas bioquímicas implicadas en su mecanismo de acción.

Mayorga, en el artículo mencionado anteriormente, señala que una de las características generales de los métodos automatizados es que producen conjuntos enormes de resultados que sólo se pueden analizar haciendo uso intensivo de herramientas bioinformáticas para facilitar la organización y sistematización de la información. Es literalmente imposible analizar el resultado de estos estudios en forma manual. Por lo tanto, una de las características comunes a todos los estudios en esta área es el uso intensivo de herramientas matemáticas. En realidad, hay muchas otras áreas de la biología que utilizan este tipo de técnicas. El conjunto de los métodos utilizados se denomina bioinformática. El auge de la biología de sistemas con el uso intensivo de la bioinformática ha hecho que estos dos campos se mezclen sin que hoy en día haya una separación clara entre ambos. Debido a esto, la biología de sistemas ha adquirido un significado más amplio que el análisis de las grandes bases de datos y que está más relacionado con un modo de aproximación a la biología celular y molecular. Este modo, descrito en forma bastante somera, consiste en tomar un conjunto generalmente grande de datos experimentales, que se ordenan y analizan utilizando un modelo computacional a partir del cual se pueden formular hipótesis, las cuales se pueden validar experimentalmente. Los nuevos datos se utilizan para refinar el modelo y por consiguiente proponer nuevos experimentos.

El investigador Mayorga, continua señalando que, en realidad, la conjunción entre matemáticas, biología celular y biología molecular, tiene una larga y rica historia. Lo nuevo es que esta combinación se está haciendo popular por lo que es de esperar que se logren importantes avances en los años venideros. La demanda creciente ha generado la necesidad de científicos trabajando en bioinformática y biología de sistemas, por lo que se han creado departamentos y numerosas posiciones para llenar el vacío existente. Además, y dada la común ignorancia de los biólogos celulares en matemáticas, se han desarrollado numerosos programas, varios de ellos con interfaces para usuarios muy amigables de modo que pueden ser utilizados por cualquier científico interesado sin que necesite ser un experto en métodos matemáticos. Muchos de estos métodos utilizan una plataforma de lenguaje común, específicamente un lenguaje de marcado para su proceso en Internet, el denominado Lenguaje de Marcado de Biología de Sistemas, el cual se puede encontrar en el siguiente vinculo Web: http://www.sbml.org/index.psp, de modo que son compatibles entre sí. Todavía más, muchos de estos programas son de uso libre para los científicos y se pueden descargar sin mayores restricciones de la red de redes o Internet.

lunes, 14 de julio de 2014

Biología de sistemas

En palabras de Mayorga, en el artículo escrito el año 2008 titulado “Biología de sistemas y su aplicación en biología celular y molecular”, la ciencia moderna ha dado claras muestras de que puede manipular el mundo celular obteniendo resultados maravillosos e inimaginables hasta hace unos pocos años. Por ejemplo, es posible hacer que una bacteria sintetice una proteína humana o que una hormona aparezca en la leche de una vaca. Se pueden lograr plantas que resisten herbicidas y por lo tanto son más fáciles de cultivar o huevos con bajo contenido de colesterol. Se puede esto y mucho más manipulando los mecanismos moleculares a medida que se tiene la idea de cómo funcionan. Pero la palabra que se usa es manipular y no controlar. Porque la manipulación es por ahora una actividad burda y no un control acabado de los procesos celulares. Los investigadores son capaces de inhibir alguna reacción o activar otra. Es posible introducir nuevos elementos en una célula: Proteínas, ácidos nucléicos, lípidos, y con eso se altera su comportamiento, pero no se ha logrado un acabado control de ninguna función celular de cierta complejidad.

La célula continúa siendo una máquina cuyo funcionamiento sólo se entiende de manera parcial. Sin embargo, el volumen de información que se incorpora diariamente a las bases de datos es apabullante y pareciera que en pocos años todo lo que se podría saber sobre la célula estará a disposición de las personas. Pero esta es una falsa impresión. Los científicos se encuentran bastante lejos de entender cómo se coordinan todos los mecanismos celulares para dar una respuesta adecuada a cada situación que la célula debe afrontar. O sea, se sabe cuáles son los componentes de las células, se tiene bastante información sobre cómo se ensamblan la mayoría de estos componentes para dar las estructuras celulares, y se entiende con algún detalle cómo funciona la mayoría de estas estructuras en forma aislada, pero no se conoce lo suficiente para entender los mecanismos de control y regulación que permiten que todos estos componentes y estructuras coordinen para hacer que la célula funcione como una unidad que realiza las más diferentes y complejas tareas en forma eficiente.

Según Gough y sus colegas, en el artículo escrito el añ0 2001 titulado “Asignación de homología con secuencias del genoma utilizando una biblioteca de modelos ocultos de Markov que representan todas las proteínas de estructura conocida”, se considera que tres han sido los principales ingredientes para el boom de la teoría de redes en las ciencias biológicas. El primero, fue el hallazgo de la libertad de escala en una gran diversidad de tipos de redes, incluidas las biológicas, los temas multidisciplinarios en general son taquilleros. El segundo, es la amplia cantidad de información derivada de los estudios genómicos y proteómicos a gran escala, que pueden ser manejadas y entendidas con redes. Y el tercero, es la influencia de algunos investigadores de renombre, que sugirieron la necesidad de conjuntar los primeros dos ingredientes. En palabras de Bateman y sus colegas, en el artículo escrito el año 2004 titlado “Base de datos de la familia de proteínas Pfam”, a partir del año 2000 el estudio de las redes biológicas se ha enfocado en dos aspectos: El primero, en describir sus propiedades topológicas, tanto globales, como la libertad de escala y la existencia de módulos funcionales; como locales, dándose especial relevancia al agrupamiento y la formación de motivos. El segundo aspecto son los estudios dinámicos, en los cuales se trata de simular analíticamente o de dar seguimiento a cierto fenómeno, como el metabolismo, la trascripción génica, la señalización o la división celular. Como generalmente ocurre en la biología, la teoría evolutiva ha jugado un papel indispensable en la unión y entendimiento de estos aspectos.

lunes, 7 de julio de 2014

Algoritmo evolutivo de adaptación


Nesmachnow continúa mencionando que, diversas políticas para la selección y el reemplazo de individuos permiten modificar las características del algoritmo evolutivo. Aplicando políticas adecuadas es posible privilegiar los individuos más adaptados en cada generación, denominadas estrategias de elitismo, aumentar la presión selectiva sobre individuos mejor adaptados, generar un número reducido de descendientes en cada generación, con los modelos de estado estacionario, y otras muchas variantes. Los operadores evolutivos determinan el modo en que el algoritmo explora el espacio de soluciones del problema. Una gran diversidad de propuestas de operadores evolutivos ha surgido en los más de cuarenta años de vida de la computación evolutiva. Los diferentes operadores y las particularidades en su modo de aplicación dan características peculiares a las distintas variantes de algoritmos evolutivos. Los operadores de recombinación, que permiten combinar características de dos o más individuos con la idea de obtener descendientes mejor adaptados y los operadores de mutación, que introducen diversidad mediante modificaciones aleatorias, son los operadores evolutivos más difundidos. La condición de parada de la fase iterativa del algoritmo evolutivo usualmente toma en cuenta la cantidad de generaciones procesadas, deteniéndose el ciclo evolutivo al alcanzar un número prefijado de generaciones. Otras alternativas consideran la variación de los valores de adaptabilidad, deteniendo el ciclo evolutivo cuando el proceso se estanca y no obtiene mejoras considerables en los valores de adaptabilidad o estimaciones del error cometido respecto al valor óptimo del problema o una aproximación, en caso de conocerse.

El investigador Davis, en el libro escrito el año 1991 titulado “Manual de algoritmos genéticos”, menciona que las técnicas de hibridación refieren a la inclusión de conocimiento dependiente del problema en cuestión en un método de búsqueda, con el objetivo de mejorar el mecanismo de exploración del espacio de soluciones. La inclusión de conocimiento puede instrumentarse a nivel de la codificación empleada o a través de operadores específicos para la resolución del problema, diseñando los que se conocen como algoritmos híbridos fuertes. Una segunda posibilidad consiste en combinar dos o más métodos de resolución capaces de resolver el mismo problema, tratando de tomar ventajas de sus características distintivas para diseñar un nuevo algoritmo más preciso y más eficiente para la resolución del problema. De este modo se construyen los conocidos como algoritmos híbridos débiles. El algoritmo híbrido construido de esta manera define un nuevo mecanismo de exploración del espacio de soluciones del problema, que determina de qué modo y en qué momento se aplica cada uno de los métodos combinados, y cómo en los estados internos de cada algoritmo componente se reportan los resultados intermedios al otro algoritmo para que éste continúe la búsqueda. Usualmente, mediante el intercambio de pequeños conjuntos de soluciones parciales o de valores estadísticos es posible combinar algoritmos diferentes, diseñando algoritmos híbridos débiles de modo sencillo y con la posibilidad de esperar resultados eficientes y precisos en la resolución de un problema determinado.

El “algoritmo evolutivo de adaptación híbrida” fue propuesto por Gómez, en el artículo escrito el año 2004 bajo el titulo “Auto adaptación de las razones de los operadores en los algoritmos evolucionarios” y es presentado en un algoritmo evolutivo que desarrolla una técnica de control de parámetros híbrida, en la cual se mezclan técnicas de control de parámetros centralizadas y descentralizadas, donde cada individuo es evolucionado independientemente de los otros individuos de la población. En las generaciones del algoritmo, cada individuo selecciona solo un operador de un grupo de posibles operadores, tales operadores son seleccionados de acuerdo a una razón del operador codificada en el individuo que será actualizada utilizando un mecanismo de aprendizaje aleatorio, este mecanismo aleatorio se define localmente, por individuo, utilizando la probabilidad del operador genético y una probabilidad de aprendizaje. Si un operador no-unario es seleccionado, los padres adicionales son seleccionados utilizando alguna estrategia de selección, entre los descendientes producidos por el operador genéticos, sólo un individuo es elegido como hijo, y tomará el lugar de su padre en la siguiente generación. Para garantizar buenos individuos a través de la evolución, el algoritmo evolutivo de adaptación híbrida compara los padres contra la descendencia generada por el operador, el mecanismo de selección de la función “Mejor” determinará el descendiente que tiene el valor de adaptabilidad más alto. Sin embargo un padre es preservado a través de la evolución, si este es mejor que todos los posibles individuos generados aplicando el operador genético. Finalmente las probabilidades de los operadores son adaptadas de acuerdo al rendimiento alcanzado por la descendencia, comparada con la de sus padres y la probabilidad de aprendizaje generada.

lunes, 30 de junio de 2014

Algoritmo evolutivo de adaptación

Los algoritmos genéticos son técnicas de optimización que utilizan principios de evolución natural, según John Holland, en el libro escrito el año 1975 titulado “Adaptación en sistemas naturales y artificiales”, los algoritmos genéticos son también llamados algoritmos de búsqueda con heurística. En palabras de Mitchell, en el libro escrito el año 1996 titulado “Una introducción a los algoritmos genéticos”, este tipo de algoritmos se encuentran en un constante cambio, porque aún no se ha definido a cabalidad cómo obtener su mejor desempeño; razón por la cual investigadores en el área trabajan en cómo mejorar su desempeño a partir del perfeccionamiento de cada una de sus partes. Los algoritmos genéticos fueron desarrollados por Holland a principios de los años 1960 con la motivación de resolver problemas de aprendizaje automático y se convirtieron en uno de los enfoques más sobresalientes en el campo de los algoritmos evolutivos. La forma de operar de un algoritmo genético es la siguiente: Al iniciar su ejecución el algoritmo genera una población inicial de individuos, cada uno de estos es un candidato a solucionar el problema de optimización que se está resolviendo, a continuación los individuos son evaluados en su aptitud para resolver el problema y un esquema de selección es ejecutado para elegir los individuos sobre los cuales serán aplicados los operadores genéticos, los individuos resultantes después de aplicar los operadores genéticos se convertirán en la nueva población sobre la cual se repetirá el proceso de evolución descrito anteriormente hasta un número de generaciones determinado.

Según Nesmachnow, en la tesis de maestría escrita el año 2004 titulada “Algoritmos genéticos paralelos y su aplicación al diseño de redes de comunicaciones confiables”, la expresión genérica computación evolutiva designa a un amplio conjunto de técnicas heurísticas de resolución de problemas complejos que basan su funcionamiento en un mecanismo análogo a los procesos de la evolución natural. Trabajando sobre un conjunto de soluciones a un problema determinado, la metodología utilizada por estas técnicas se fundamenta en el uso de mecanismos de selección de las mejores soluciones potenciales y de construcción de nuevas soluciones candidatas mediante recombinación de características de las soluciones seleccionadas. El algoritmo evolutivo trabaja sobre individuos que representan potenciales soluciones al problema, codificados de acuerdo a un mecanismo prefijado. Los individuos son evaluados de acuerdo a una función de adaptabilidad que toma en cuenta la adecuación de cada solución al problema que se intenta resolver. La operativa del algoritmo evolutivo comienza con una etapa de inicialización de los individuos, que puede ser completamente aleatoria, muestreando al azar diferentes secciones del espacio de soluciones, o guiada de acuerdo a características del problema a resolver. El algoritmo evolutivo podría inclusive tomar como población inicial individuos resultantes como salida de algún otro algoritmo heurístico de resolución que permitiera calcular buenas soluciones iniciales aproximadas para el problema.

La evolución propiamente dicha se lleva a cabo en el ciclo que genera nuevos individuos a partir de la población actual mediante un procedimiento de aplicación de operadores estocásticos. En este ciclo se distinguen cuatro etapas: (1) Evaluación. Etapa que consiste en asignar un valor de adaptabilidad a cada individuo en la población. Este valor evalúa que tan bien resuelve cada individuo el problema en cuestión, y es utilizado para guiar el mecanismo evolutivo. (2) Selección. Proceso que determina candidatos adecuados, de acuerdo a sus valores de adaptabilidad, para la aplicación de los operadores evolutivos con el objetivo de engendrar la siguiente generación de individuos. (3) Aplicación de los operadores evolutivos. Etapa que genera un conjunto de descendientes a partir de los individuos seleccionados en la etapa anterior. (4) Reemplazo. Mecanismo que realiza el recambio generacional, sustituyendo individuos de la generación anterior por descendientes creados en la etapa anterior.

lunes, 23 de junio de 2014

Memorias asociativas morfológicas

Con objeto de subsanar la primera desventaja del modelo Hopfield, en 1988 Bart Kosko, en el artículo titulado “Memorias asociativas bidireccionales”, crea un modelo de memoria heteroasociativa a partir de la memoria Hopfield: La denominada “Memoria asociativa bidireccional” la cual, al igual que la memoria Hopfield, se basa en un algoritmo iterativo. A pesar de que el intento de Kosko fue exitoso al obtener una memoria heteroasociativa, la segunda desventaja de la memoria Hopfield no fue subsanada con la memoria asociativa bidireccional, dicha memoria asociativa presenta muy bajas capacidades de aprendizaje y recuperación de patrones, al igual que los modelos subsecuentes de memorias asociativas bidireccionales, reportada en el artículo escrito el año 1988 por Haines y Hecht-Nielsen titulado “Memoria asociativa bidireccional con capacidad de almacenamiento de información incrementada”. El siguiente paso importante en la búsqueda de mejorar significativamente la capacidad de aprendizaje y recuperación de patrones de los modelos Hopfield y Kosko, fue la creación de las memorias asociativas morfológicas, a finales de la década de los noventa del siglo veinte.

Los trabajos más importantes relacionados con las memorias asociativas que conducen a las memorias asociativas morfológicas son los siguientes: (1) Matriz de correlación Kohonen. Este modelo fue propuesto por Teuvo Kohonen, en el artículo publicado el año 1972 titulado “Memorias matriciales correlacionales”. El punto central de su propuesta consiste en codificar la relación entre la información de entrada y la de salida como su correlación, para posteriormente agrupar las correlaciones parciales en una matriz global denominada “matriz asociativa”. (2) Modelo de Hopfield. Este modelo fue introducido por John Hopfield a principios de los años ochenta, en el artículo titulado “Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes”. Basa su operación en la retroalimentación y en puntos fijos o estacionarios. Su estructura es la de un sistema dinámico recurrente en relajación. La memoria de Hopfield es auto-asociativa, donde cada componente se construye en tres etapas identificadas a través de un algoritmo matemático. Una vez construida la matriz de Hopfield, en la etapa de recuperación funciona como el operador de evolución de un sistema dinámico, que garantiza en este caso la convergencia a un punto fijo a partir de cualquier estado inicial. Esta propiedad ha sido usada en la recuperación de patrones y en la percepción. El número de puntos fijos del sistema dinámico está relacionado con la capacidad de la memoria de almacenar y recuperar patrones. (3) Memorias asociativas morfológicas de Ritter. Este tipo de memorias fue introducido a finales de los años 1990 por los investigadores Ritter y Sussner, en el artículo titulado “Una introducción a las redes neuronales morfológicas”. Las memorias asociativas producidas a través de un par de operaciones son conocidas en la literatura como memorias morfológicas, ya que los operadores max y min están íntimamente relacionados con las operaciones morfológicas de dilatación y erosión, tal como establecen los investigadores Ritter, Sussner y Díaz de León, en el artículo escrito el año 1998 titulado “Memorias asociativas morfológicas”. Se menciona además que una característica interesante de estas memorias, en el caso auto-asociativo, es que pueden almacenar y recuperar de manera perfecta cualquier cantidad de patrones. (4) Memorias asociativas alfa-beta de Yáñez. Estas memorias fueron desarrolladas por C. Yañez, en la tesis doctoral publicada el año 2002 con el título “Memorias asociativas basadas en relaciones de orden y operadores binarios”. Su operación se basa en el funcionamiento de dos operadores binarios: Alfa y beta. Existen dos tipos de memorias, que como en el caso morfológico se construyen usando los operadores max y min respectivamente. Las memorias alfa-beta operan también en el caso hetero y auto-asociativo. El operador alfa es una versión desplazada de la correlación morfológica y se utiliza durante la fase de entrenamiento, mientras que el operador beta es el operador de correlación que se usa durante la recuperación. Debido a las propiedades algebraicas de los operadores alfa y beta, las memorias alfa-beta presentan en muchos casos propiedades similares a las de su contraparte las morfológicas. Una de las principales ventajas de las memorias alfa-beta sobre las morfológicas es que en términos binarios requieren menos operaciones en la fase de recuperación; una de sus desventajas es que son sólo útiles en el caso binario.

lunes, 16 de junio de 2014

Memorias asociativas morfológicas

En el libro escrito el año 1993 por Gómez Allende, titulado “reconocimiento de formas y visión artificial”, se menciona que los seres humanos son capaces de reconocer patrones con extrema facilidad, entre algunos de esos patrones se encuentran imágenes, sonidos, olores, sabores, etcétera. Hudson, en el libro publicado el año 2000 titulado “Redes neuronales e inteligencia artificial para ingeniería biomédica”, complementa mencionando que los seres humanos aprendieron a reconocer patrones desde el vientre materno. Lo perfeccionaron al interactuar primeramente con sus padres y luego con sus semejantes. Aún en ciertos casos las interferencias como el ruido siempre asociado a dichos patrones no representa ninguna dificultad. Los seres vivos cuentan con los sistemas de reconocimiento de patrones más sofisticados que el hombre haya podido jamás imaginar. Los seres vivos saben usar con extrema facilidad, siéndoles sin embargo bastante difícil explicar cómo funcionan. Uno de estos sistemas es el sistema visual humano. Por medio de este sistema el ser humano es capaz de reconocer y clasificar prácticamente todo tipo de objetos y tomar decisiones sobre ellos.

Según Hassoun, en el libro escrito el año 1993 titulado “Memorias neuronales asociativas: Teoría e implementación”, el propósito fundamental de una memoria asociativa es recuperar correctamente patrones completos a partir de patrones de entrada, los cuales pueden estar alterados con ruido aditivo, sustractivo o combinado. Kohonen, en el libro escrito el año 1989 titulado “Auto-organización y memoria asociativa” complementa esta idea mencionando que, en toda memoria asociativa, previo a la fase de recuperación de patrones, se lleva a cabo la fase de aprendizaje; proceso mediante el cual se obtiene la memoria asociativa a través de la asociación de patrones, uno de entrada y uno de salida. Si para cada asociación se cumple que el patrón de entrada es igual al de salida, la memoria es autoasociativa; en caso contrario, la memoria es heteroasociativa: Esto implica que las memorias autoasociativas son un caso particular de las memorias heteroasociativas.

A través del tiempo las memorias asociativas se han desarrollado paralelamente a las Redes Neuronales, desde la concepción del primer modelo de neurona artificial, reportada por McCulloch y Pitts en el artículo escrito el año 1943 titulado “Calculo lógico de las ideas inmanentes en la actividad del sistema nervioso”, hasta los modelos de redes neuronales basados en conceptos modernos como la morfología matemática, descrita por Ritter y Sussner en el artículo escrito el año 1996 titulado “Una introducción a las redes neuronales morfológicas”, pasando por los importantes trabajos de los pioneros en las redes neuronales tipo perceptrón, como el reportado por Rosenblatt en el artículo escrito el año 1958 titulado “Perceptrón”, y fundamentalmente el modelo de Hopfield, quien en 1982 presenta al mundo su red neuronal que también funciona como una memoria asociativa, de manera específica en el artículo titulado “Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes”. Con este importante trabajo de investigación, Hopfield propició el resurgimiento de las redes neuronales después del período posterior a la publicación del libro “Perceptrones”, escrito por Minsky y Papert el año 1969, en donde se demostró que el perceptrón tenía severas limitaciones.

El primer modelo de memoria asociativa apareció veintiún años antes que el modelo de Hopfield, y se debe a Karl Steinbuch, científico alemán quien en 1961 desarrolla una memoria heteroasociativa que funciona como un clasificador de patrones binarios: Lernmatrix, reportada en el artículo titulado “La Lernmatrix”. Ocho años después, los investigadores escoceses Willshaw, Buneman y Longuet Higgins, en el artículo escrito el año 1969 titulado “Memoria asociativa no holográfica”, presentan el Correlograph, dispositivo óptico elemental capaz de funcionar como una memoria asociativa. Dos modelos clásicos de memorias asociativas fueron presentados el año 1972 por Anderson, en el artículo titulado “Red neuronal simple generadora de una memoria interactiva” y Kohonen, en el artículo denominado “Memorias matriciales correlacionales”, de manera independiente; debido a su importancia y a la similitud de los conceptos involucrados, ambos modelos reciben el nombre genérico de “Asociadores lineales”. Una década después surgiría el ya mencionado modelo Hopfield de memoria asociativa. No obstante su innegable relevancia, el modelo Hopfield tiene dos claras desventajas: primeramente, la memoria Hopfield es sólo autoasociativa, por lo que es incapaz de asociar patrones diferentes; y en segundo lugar, resulta evidente el hecho de que la capacidad de recuperación de patrones es bastante pequeña.

lunes, 9 de junio de 2014

Ciencia del razonamiento


Según Frápolli, en el libro publicado el año 2008 titulado “Filosofía de la lógica”, parecería que no está nada claro lo que se entiende o debería entenderse por lógica, esto es evidenciado hasta en el desarrollo histórico de esta disciplina, pero, a pesar de todo, es común identificarla con el estudio de las relaciones inferenciales, en tanto relación que se da entre premisas y conclusión de un argumento dado. Normalmente, se suele pensar la lógica en relación a una versión que se ha hecho típica en el estudio de la misma, la inferencia deductiva, por ello suele pensarse que la lógica es lógica deductiva. Pero aquella es más rica aún, posee un gran espectro en el que la deducción comprende sólo un capítulo, quizá el más desarrollado. Estas relaciones inferenciales a las que se hace referencia como centrales del estudio de la lógica, se dan entre proposiciones que conforman un razonamiento. Por ello, también se suele identificar a la lógica como la ciencia del razonamiento. En palabras de Vega, en el libro escrito el año 2007 titulado “Si de argumentar se trata”, razonar es aquella actividad, que hace un agente, por medio de la cual pretende justificar una oración, en un conjunto de oraciones. Estos razonamientos, que se dan en el discurso cotidiano, son denominados argumentaciones con las cuales se pretende dar razones de algo a alguien. La argumentación es una entidad lingüística, pero la lógica no estudia al razonamiento en esta perspectiva, sino a partir de la forma de dicha argumentación, esto es el argumento o mejor aún, esquemas de argumento.

En términos formales, según Martínez y Falguera, en el libro escrito el año 1999 titulado “Lógica clásica de primer orden”, aquella entidad conceptual formada por proposiciones en las que, partiendo de un conjunto dado de proposiciones llamadas premisas, se sigue o se pretende que se siga, otra proposición llamada conclusión. Este seguimiento de las premisas hacia la conclusión es lo que se denomina inferencia. Tradicionalmente se consideraba como inferencia a aquella operación mental por medio de la cual se pasa de algo conocido a algo desconocido. Pero no necesariamente ha de ocurrir esto para que haya inferencia ya que, por ejemplo, a partir del enunciado “Pedro es hombre” es posible inferir “Pedro es hombre”, donde no hay un paso de lo conocido a lo desconocido, de hecho se repite lo mismo en uno como en otro lado de la argumentación. Por esto, se entenderá a la inferencia como la especial relación entre premisas y conclusión; como el proceso según el cual se cree justificada una conclusión por el mero hecho de haber aceptado una o varias premisas. La inferencia puede ser de dos tipos: Deductiva y no deductiva. Se denomina deducción a aquella relación inferencial en la cual, a partir de ciertas premisas, se concluye necesariamente. No deducción, cuando de un número indeterminado de premisas se infiere probablemente la conclusión.

Según Alessio, en el libro publicado el año 2008 con el título “Lógica y sentido común”, es justamente a la primera versión de inferencia, la deductiva, con la que es común relacionar a la lógica. La razón de esta identificación data desde los orígenes mismos de la lógica. Aristóteles había presentado en sus estudios una caracterización del silogismo, que es de suyo un tipo de razonamiento en el que se da la inferencia deductiva. Los medievales continuaron la ruta marcada por los antiguos trabajando en pos de la deducción. Sin embargo, a principios del siglo diecisiete, en una obra publicada el año 1620, Francis Bacon hace una crítica voraz de la deducción, proponiendo en su lugar a la inducción. Esta misma idea es reafirmada por John Stuart Mill en su obra “Sistema de lógica raciocinadora e inductiva” del año 1843. A pesar de ello, otros lógicos siguieron comprometidos y desarrollando reflexiones en torno a la deducción como Bolzano y Leibniz. A mediados del siglo diecinueve resurge el estudio de la deducción con la propuesta del Logicismo de Frege donde la lógica fue pensada como el fundamento de las matemáticas y, para tal fin, se crea un sistema formal que pretende explicar toda la matemática a partir de una serie de axiomas y teoremas. El resultado de este proyecto fue desalentador en esta perspectiva, aunque proporcionó a la lógica la posibilidad de formalizar los razonamientos deductivos, constituyéndose finalmente en una ciencia formal completamente simbolizable, en donde se emparentan deducción, formalización y lógica. El lenguaje creado recibe el nombre de lenguaje formal con el que se puede estudiar de manera clara la estructura de los razonamientos. Si bien es cierto que Aristóteles ya había presentado la forma de los silogismos mediante esquemas de enunciados tales como: “Todo A es B”, “Ningún A es B”, “Algún A es B”, “Algún A no es B”, no eran sino una reducida explicación de los razonamientos ya que su capacidad expresiva se limitaba a los enunciados categóricos y modales. Pero con el desarrollo de la lógica, a partir de Frege, se crearon lenguajes formales capaces de representar, mediante fórmulas, casi cualquier expresión del lenguaje natural, ampliando considerablemente la capacidad de la silogística tradicional.

lunes, 2 de junio de 2014

Ciencia del razonamiento

En palabras de Espinoza y García, en la tesis escrita el año 2011 titulada “La lógica matemática y su influencia en el aprendizaje de técnicas de flujograma del I, II, y III año de bachillerato de comercio, computación y administración del Colegio Emilio Bowen Roggiero, período 2006–2007”, es difícil saber cuándo y dónde se inició el estudio de la lógica, no obstante que hay una gran cantidad de información sobre sus orígenes, en particular en Internet. Al tratar de ubicar el origen de la lógica, se llega a la conclusión de que, como en el caso de todas las ciencias, este ocurre durante la aparición del hombre primitivo. En efecto, siendo la lógica una ciencia del razonamiento y de la inferencia, es sensato pensar que con el surgimiento del primer hombre con capacidad de razonar y obtener deducciones o inferencias, erradas o no, en ese mismo momento apareció la semilla de la lógica. De hecho, se ha distinguido al hombre del resto de los animales por sus capacidades de razonamiento lógico y capacidades del pensamiento, esto es, razonar, deducir o inferir; tal cosa ha ocurrido porque el hombre mismo ha establecido, de manera unilateral, que es precisamente él, quien tiene la capacidad de razonamiento más alta del reino animal.

Espinoza y García plantean una cuestión de debate. ¿La lógica ha sido inventada o creada por el ser humano o bien ha sido descubierta por él? Si se toma una primera posición, se podría decir que el ser humano poco a poco fue creando mecanismos para explicar el mundo que lo rodeaba, incluyendo su futuro inmediato; esto significa que en esto el hombre, buscaba también realizar predicciones y deducir las razones por las cuales las cosas ocurrían de una y no de otra manera. Estas deducciones y predicciones no son entonces más que explicaciones de eventos pasados, presentes o futuros. Hay que entender que el mundo que rodeaba al hombre primitivo comprendía también mitos y deidades creadas por él mismo, de modo que el hombre buscaba explicaciones que incluían a mitos que el mismo había creado. Es por ello que el hombre requirió un sistema totalmente imparcial, para el análisis de la verdad de un conjunto de proposiciones, de situaciones reales o imaginarias, el cual pueda realizar por lo menos las siguientes funciones válidas: (1) Indicar si el conjunto es consistente. Es decir no hay proposiciones que se contradicen unas a otras. (2) Realizar deducciones de otras proposiciones verdaderas a partir del conjunto de proposiciones. (3) Inferir proposiciones que en otro tiempo, normalmente el futuro, podrán ser verdaderas o falsas.

El hombre ha creado muchas lógicas, de forma que desde este punto de vista se puede decir que la lógica evoluciona, ó bien que la lógica ó lógicas creadas por él, evolucionan. Por otra parte, la lógica es un sistema capaz de analizar cualquier conjunto de proposiciones para determinar si cumple con las funciones anteriores, siendo capaz incluso de analizar si una lógica particular es adecuada para realizar ése análisis. Esto lleva a pensar que la lógica debe ser única ya que debe ser capaz de analizar cualquier otro sistema lógico y, en caso de que sea válida su existencia, la lógica ha existido siempre y el hombre, por lo tanto, no la inventa ni la crea, sino que descubre porciones de ella. El investigador Agazzi, en el libro publicado el año 1964 con el título “La lógica simbólica”, menciona que Leibniz, en sus “Nuevos ensayos sobre el entendimiento humano”, publicados en 1704, es un importante predecesor de la lógica matemática o simbólica moderna; en sus obras defiende la creación y utilización de un simbolismo apropiado para ser empleado en un procedimiento de cálculo en el que pasaran a segundo término los aspectos semánticos y de contenido de las proposiciones. Leibniz sostiene la idea de que la lógica o la ciencia del razonamiento, debe constituirse en una mathesis universalis, es decir, en un simple operar formal con símbolos de acuerdo con ciertas reglas sintácticas a fin de que el lenguaje filosófico adquiera la exactitud y precisión presente en otras ciencias formales, como el Álgebra, favoreciendo de este modo, la resolución de las disputas metafísicas entre partidarios de diferentes escuelas de pensamiento filosófico.

lunes, 26 de mayo de 2014

Agentes de red

Lange y Oshima, en el libro citado en los párrafos precedentes, mencionan que los agentes de red se caracterizan por su capacidad para desplazarse entre los nodos de una red de aplicaciones distribuidas. En el caso de agentes que no son de red, todo el proceso que se desea o necesita realizar se completa en el propio nodo en el que se inició su ejecución, nodo en el que se mantendrá durante todo su tiempo de vida. La solicitud de información a otros nodos se realiza mediante los mecanismos habituales de comunicación como son las llamadas a procedimientos remotos. Los agentes de red, con su capacidad para desplazarse, permitirán aprovechar las capacidades de los distintos nodos por los que se pueden desplazar para mejorar el rendimiento en la obtención del objetivo perseguido. Según Huhns y Singh, en el libro escrito el año 1998 con el título “Lecturas en agentes”, diversos autores propugnan que los agentes de red son una de las últimas etapas en la evolución de los sistemas distribuidos que en un futuro, podrían estar formados únicamente por una red compleja de agentes inteligentes móviles, lo que se considera un multiagente.

Una interesante definición de agente de red es propuesta por Lange y Oshima, en el libro citado, como: Un objeto de software que es capaz de migrar entre los nodos o dominios de una red en un sistema distribuido. Creado en un entorno de ejecución, el agente puede transportar su estado, valores de sus atributos que le sirven para determinar qué hacer cuando se reanuda la ejecución del mismo en el entorno destino, y su código, instrucciones que forman lo que el agente debe ejecutar, a otro contexto en donde reanudará la ejecución. Estos agentes aprovechan los recursos del nodo destino en beneficio del nodo que los inició. También se considera por otros autores que un agente móvil puede entenderse como la unión del código del agente, los estados de ejecución, los datos y el itinerario. Todos estos elementos deben ser portables para migrar y ser ejecutados en distintos nodos.

En palabras de Gutiérrez, en la tesis doctoral escrita el año 2006 bajo el titulo “Definición de un agente inteligente para la intercomunicabilidad automática de sistemas de aprendizaje basados en Internet”, las características de un agente de red reseñadas en los distintos trabajos sobre estos, son las mismas para los agentes en general pero extendidas y con matices respecto a la movilidad de que disponen: (1) Autonomía de movimiento, ya que será un proceso autónomo o semiautónomo, capaz de decidir cuándo, cómo y en qué condiciones migrar desde el nodo de residencia actual a otro. (2) Persistencia en la movilidad, ya que el objeto agente se envía manteniendo su estado, código y datos al nodo destino. (3) Capaz de suspender su ejecución ante una migración y capaz de reanudarla tras la migración en el mismo punto donde se quedó. (4) Comunicativo con el medio, con otros agentes y con el usuario con el que trabaja, a pesar de los cambios. Es decir, es capaz de interactuar con los agentes de un nuevo nodo, con el propio nuevo nodo y con el usuario que ahora puede estar en otro nodo distinto, más alejado. (5) Enfocado a la realización de tareas, bien delegadas por su usuario o bien obtenidas a través del estado del entorno en el que se encuentra. (6) Independiente de la conexión, si esta cae por algún motivo, el agente podrá migrar a otro nodo con conexión si es necesario o esperar a que la conexión se reanude bien permaneciendo activo, bien desactivándose. (7) Ejecutable asíncronamente, mediante su propio hilo de ejecución, independiente del resto de procesos y agentes ejecutados en el mismo nodo. (8) Duplicable, o mejor autoduplicable mediante la creación de un clon de sí mismo, para que le ayude en la tarea ocupando así más recursos del nodo para completar una tarea que puede ser prioritaria.

Gutiérrez menciona en su tesis doctoral que los agentes de red deben: (1) Permitir el cómputo asíncrono y autónomo. Asíncrono por poseer su propio hilo de ejecución que les permite ejecutarse independientemente del resto de procesos del nodo y autónomo por su capacidad para decidir cuándo y cómo actuar según el estado de su entorno. (2) Ser heterogéneos. (3) Propiciar entornos robustos y a prueba de fallos, dada su habilidad para responder a los cambios en su entorno y realizar cambios en su forma de trabajar migrando, esperando o, permaneciendo activos, trabajando aún cuando no hay conexión. (4) Favorecer el procesamiento paralelo. Ya que una tarea compleja, podría ser descompuesta en varias por un agente y encargadas cada una de ellas a otro agente que la realiza, o bien utiliza su hijo para completarla o bien migra a otro nodo donde aprovecha la capacidad del mismo para realizar su tarea. Al final, todas las tareas parciales son reunidas por el agente principal para componer la solución al trabajo. (5) Reducir el tráfico de red. Ya que el uso de agentes permite la solicitud de un cierto servicio y la delegación en el agente de la solicitud que considere oportuna en el nodo de residencia. Sin el uso de agentes, cada servicio del nodo destino requiere una llamada a procedimiento remoto. (6) Mantener comunicación punto a punto. En el paradigma cliente-servidor, el más utilizado en Internet, los servidores no se caracterizan por la comunicación horizontal entre servidores del mismo tipo, que podría resultar muy beneficiosa. En cambio, los agentes son entidades que pueden servir como cliente servidor o bien comunicarse en su mismo nivel con otros agentes. Se menciona también que existen desventajas como son: (1) La falta de seguridad. Los agentes son tan flexibles y se les debe permitir tantas posibilidades que los sistemas sobre los que trabajan están a merced de usuarios mal intencionados. Para solventar este problema se requerirán certificaciones que autentifiquen los agentes para evitar los ataques a los nodos mediante agentes malignos que consuman recursos y se clonen sin más finalidad que la de ocupar recursos. También se requerirán cifrados de datos para los intercambios entre el usuario y sus agentes, entre agentes y entre nodos cuando se deba producir la transmisión de los agentes. (2) Limitaciones de los lenguajes de programación en los que se deberían programar.

lunes, 12 de mayo de 2014

Inteligencia sintética

Según Sternberg, en el artículo publicado en año 2005 con el título “El Modelo WISC de superdotación. Una teoría triárquica de la superdotación intelectual”, la creatividad es la capacidad de pensamiento divergente que favorece la búsqueda de soluciones o alternativas diferentes ante la presentación de un problema. Los sujetos con un alto nivel de creatividad son aquellos que presentan una capacidad de inventiva elevada, ideas nuevas y originales. Desde los planteamientos de la teoría triárquica de la inteligencia de Sternberg, definida en el libro publicado en año 1985 con el título “Más allá del CI”, se considera la creatividad un constructo complejo que no se puede explicar sin apelar a componentes de tipo cognitivo, motivacionales, ambientales y de personalidad que envuelven la vida del individuo. En los primeros trabajos sobre superdotación, se define la superdotación intelectual dentro de su modelo de inteligencia triárquica. Para Sternberg, los estudiantes superdotados suelen combinar con gran maestría y habilidad los procesos de la inteligencia analítica, sintética y práctica, pero lo verdaderamente relevante de la superdotación es el uso que suelen hacer de las habilidades de la perspicacia.

Sternberg, en el libro “Más allá del CI”, define la inteligencia analítica como la capacidad para el pensamiento convergente y requiere el pensamiento crítico para analizar y evaluar pensamientos, ideas y posibles soluciones. Este tipo de habilidad es la clave para el trabajo realmente creativo, porque no todas las ideas son buenas, ya que algunas han de ser valoradas. Las personas creativas utilizan este tipo de pensamiento para considerar las implicaciones que tienen las propuestas de algunas soluciones. Considera que la inteligencia sintética o creativa es la capacidad para enfrentarse a situaciones novedosas y resolverlas. Los superdotados son superiores cuando se enfrentan a situaciones novedosas, suelen aprender y pensar en nuevos sistemas conceptuales que se apoyan en estructuras de conocimiento que el individuo ya posee, siendo las situaciones extraordinarias, y no las rutinas cotidianas, un reto para el sujeto y las que mejor muestran la inteligencia del mismo. La inteligencia práctica sirve para explicar la eficacia del sujeto mediante tres tipos de actuaciones que caracterizan su conducta inteligente en su vida cotidiana: Adaptación ambiental, selección y modificación o transformación del contexto. La inteligencia excepcional supone adaptación intencionada, configuración y selección de los ambientes del mundo real, que son relevantes para la vida del sujeto. Es decir, la inteligencia de un superdotado no puede medirse fuera de su entorno habitual, a menos que lo que se quiera medir sea la capacidad de adaptación de este sujeto a un medio diferente. Así pues, la superioridad de los superdotados radica en el ajuste y equilibrio entre la adaptación, la selección y la configuración del ambiente.

Davidson y Sternberg, en el artículo escrito el año 1984 titulado “El rol de la perspicacia en la superdotación intelectual”, definen el carácter específico que tiene la perspicacia para explicar la maestría con la que los superdotados se enfrentan a la solución de problemas inusuales. Por tanto, los procesos psicológicos básicos de la superdotación cognitiva residen en las habilidades de la perspicacia, que incluyen tres grandes procesos. Estos son: (1) Codificación selectiva. Es la habilidad para separar la información relevante cuando se soluciona un problema novedoso, de la irrelevante. (2) Comparación selectiva. Se refiere a la capacidad para relacionar la información nueva con la previamente almacenada que es relevante para solucionar el problema. (3) Combinación selectiva. Es la habilidad para relacionar la información almacenada selectivamente y compararla con la almacenada en la memoria de trabajo. Exige establecer conexiones de manera novedosa y útil entre informaciones que parecen disonantes. Davidson y Sternberg subrayan que los niños superdotados son muy buenos codificadores para utilizar la información que necesitan para resolver un problema concreto en un momento determinado, son rápidos para darse cuenta de la información que no es necesaria y la ignoran con facilidad; suelen ser también muy habilidosos para realizar las conexiones pertinentes y automatizarlas; suelen disponer de estrategias para escapar de la información superflua e inventan procedimientos que les capacitan para aprender otras estrategias nuevas; los superdotados pueden discernir lo que es importante e invierten el tiempo necesario para planificar globalmente la tarea con el fin de ser rápidos y eficaces en la solución de los problemas o actividades. Hacia el año 1995, Sternberg y Lubart, en el libro titulado “Desafiando a la multitud: Cultivar la creatividad en una cultura de la conformidad”, proponen un nuevo concepto denominado superdotación creativa, y la definen mediante seis recursos: Procesos intelectuales, conocimiento base, estilos intelectuales, rasgos de personalidad, motivación y contexto.

lunes, 5 de mayo de 2014

Inteligencia sintética

Se considera que la creatividad es una de las cualidades esenciales de la vida, de los seres vivos. En palabras de María Molina, en el libro escrito el año 2010 titulado “Teoría y tipos de inteligencia. Lógica, intuición y creatividad”, en relación con la creatividad humana, parece claro que todas las personas son creativas en mayor o menor medida, al igual que pasa con la inteligencia o la belleza. Cuando el lenguaje utiliza este concepto como adjetivo se está refiriendo a una persona que presenta esta cualidad con especial relevancia respecto al resto o al término medio de la población. La creatividad es un subconjunto de la inteligencia, entendiendo ésta como conjunto de funciones relacionales básicas o elementales, asociadas a un alto grado de fiabilidad; es decir, un subconjunto del caso particular de la inteligencia condicional. En sentido estricto, este último requisito es esencial para la inteligencia, si las funciones cerebrales encargadas de efectuar las relaciones lógicas se equivocan a menudo no serían inteligencia, serían otra cosa que Molina denomina intuición o, si se equivocan casi siempre, ausencia de inteligencia. Dicho subconjunto estará formado por aquellas funciones que facilitan la creación, diseño, invención, imaginación, etc. de nuevos conceptos o ideas. La exigencia del requisito de alta fiabilidad para la creatividad es paradójica porque no parece que se pueda aplicar la misma justificación de “gravedad del posible error” que se ha utilizado al establecerlo para la inteligencia. No sólo un error no sería grave en los procesos creativos sino que los fallos se consideran normales. Sin embargo, dado que la creatividad requiere efectuar varias operaciones sucesivas para llegar a existir, si las funciones elementales cometen errores es poco probable que el resultado final pueda ser bueno; es posible encontrarse con creaciones nuevas fruto del azar pero no de la creatividad.

Molina, en el libro citado, menciona que en definitiva, la creatividad estaría formada por funciones complejas o paquetes de funciones básicas de la inteligencia que soportan las capacidades de: (1) Efectuar extrapolaciones y estimaciones del resultado, dadas las relaciones existentes. (2) Comprensión de los límites de los parámetros involucrados en las relaciones y su efecto sobre las mismas. (3) Detectar el cambio de relación provocado por un cambio de los parámetros, dicho de otro modo, implicaciones cualitativas por cambios cuantitativos. (4) Manejo simultáneo de varias dimensiones. (5) Realizar cambios de variable, de escala o de modelo, alterar los nuevos parámetros y volver a la variable, escala o modelo inicial en el punto adecuado a los cambios correspondientes de los parámetros originales. Es decir, los conceptos relativos a los diferentes tipos de aplicaciones definidos en las matemáticas de conjuntos. (6) Funciones relacionadas con el pensamiento estadístico avanzado tales como distinción entre valor medio y valor normal, valor diferente y valor raro. Distinción entre caso particular y valores generales. (7) Cualquier otra que responda al concepto enunciado. Lógicamente, para ser creativo en una materia determinada, no es necesario tener todas las funciones anteriores.

Según Bermejo y sus colegas, en el artículo escrito el año 2010 titulado “Creatividad, inteligencia sintética y alta habilidad”, son diferentes los estudios y trabajos realizados sobre el estudio de la creatividad. El tema se ha tratado desde diferentes perspectivas y enfoques: Psicodinámicos, psicométricos, biográficos y cognitivos, y la forma de enfocarlo difiere según las diferentes perspectivas. A nivel general, la creatividad se entiende como la capacidad para engendrar algo nuevo, ya sea un producto o una técnica, o una forma de enfocar la realidad. En este sentido, las personas creativas tienen la capacidad para pensar en algo nuevo que la gente considera de interés, pero sólo unas pocas personas lo hacen de forma diferente y original. Suelen tener ideas que rompen con las tradicionales y estereotipadas, e incluso con los modos generalizados de pensar y actuar. A pesar de las dificultades en encontrar una definición de la misma, la mayoría de los autores ratifican que la creatividad implica el logro o resultado de un producto original y útil. La inteligencia sintética acoge en su definición a la creatividad como elemento central, a punto tal que esta inteligencia también se conoce con el nombre de “inteligencia creativa”.