lunes, 30 de junio de 2014

Algoritmo evolutivo de adaptación

Los algoritmos genéticos son técnicas de optimización que utilizan principios de evolución natural, según John Holland, en el libro escrito el año 1975 titulado “Adaptación en sistemas naturales y artificiales”, los algoritmos genéticos son también llamados algoritmos de búsqueda con heurística. En palabras de Mitchell, en el libro escrito el año 1996 titulado “Una introducción a los algoritmos genéticos”, este tipo de algoritmos se encuentran en un constante cambio, porque aún no se ha definido a cabalidad cómo obtener su mejor desempeño; razón por la cual investigadores en el área trabajan en cómo mejorar su desempeño a partir del perfeccionamiento de cada una de sus partes. Los algoritmos genéticos fueron desarrollados por Holland a principios de los años 1960 con la motivación de resolver problemas de aprendizaje automático y se convirtieron en uno de los enfoques más sobresalientes en el campo de los algoritmos evolutivos. La forma de operar de un algoritmo genético es la siguiente: Al iniciar su ejecución el algoritmo genera una población inicial de individuos, cada uno de estos es un candidato a solucionar el problema de optimización que se está resolviendo, a continuación los individuos son evaluados en su aptitud para resolver el problema y un esquema de selección es ejecutado para elegir los individuos sobre los cuales serán aplicados los operadores genéticos, los individuos resultantes después de aplicar los operadores genéticos se convertirán en la nueva población sobre la cual se repetirá el proceso de evolución descrito anteriormente hasta un número de generaciones determinado.

Según Nesmachnow, en la tesis de maestría escrita el año 2004 titulada “Algoritmos genéticos paralelos y su aplicación al diseño de redes de comunicaciones confiables”, la expresión genérica computación evolutiva designa a un amplio conjunto de técnicas heurísticas de resolución de problemas complejos que basan su funcionamiento en un mecanismo análogo a los procesos de la evolución natural. Trabajando sobre un conjunto de soluciones a un problema determinado, la metodología utilizada por estas técnicas se fundamenta en el uso de mecanismos de selección de las mejores soluciones potenciales y de construcción de nuevas soluciones candidatas mediante recombinación de características de las soluciones seleccionadas. El algoritmo evolutivo trabaja sobre individuos que representan potenciales soluciones al problema, codificados de acuerdo a un mecanismo prefijado. Los individuos son evaluados de acuerdo a una función de adaptabilidad que toma en cuenta la adecuación de cada solución al problema que se intenta resolver. La operativa del algoritmo evolutivo comienza con una etapa de inicialización de los individuos, que puede ser completamente aleatoria, muestreando al azar diferentes secciones del espacio de soluciones, o guiada de acuerdo a características del problema a resolver. El algoritmo evolutivo podría inclusive tomar como población inicial individuos resultantes como salida de algún otro algoritmo heurístico de resolución que permitiera calcular buenas soluciones iniciales aproximadas para el problema.

La evolución propiamente dicha se lleva a cabo en el ciclo que genera nuevos individuos a partir de la población actual mediante un procedimiento de aplicación de operadores estocásticos. En este ciclo se distinguen cuatro etapas: (1) Evaluación. Etapa que consiste en asignar un valor de adaptabilidad a cada individuo en la población. Este valor evalúa que tan bien resuelve cada individuo el problema en cuestión, y es utilizado para guiar el mecanismo evolutivo. (2) Selección. Proceso que determina candidatos adecuados, de acuerdo a sus valores de adaptabilidad, para la aplicación de los operadores evolutivos con el objetivo de engendrar la siguiente generación de individuos. (3) Aplicación de los operadores evolutivos. Etapa que genera un conjunto de descendientes a partir de los individuos seleccionados en la etapa anterior. (4) Reemplazo. Mecanismo que realiza el recambio generacional, sustituyendo individuos de la generación anterior por descendientes creados en la etapa anterior.

lunes, 23 de junio de 2014

Memorias asociativas morfológicas

Con objeto de subsanar la primera desventaja del modelo Hopfield, en 1988 Bart Kosko, en el artículo titulado “Memorias asociativas bidireccionales”, crea un modelo de memoria heteroasociativa a partir de la memoria Hopfield: La denominada “Memoria asociativa bidireccional” la cual, al igual que la memoria Hopfield, se basa en un algoritmo iterativo. A pesar de que el intento de Kosko fue exitoso al obtener una memoria heteroasociativa, la segunda desventaja de la memoria Hopfield no fue subsanada con la memoria asociativa bidireccional, dicha memoria asociativa presenta muy bajas capacidades de aprendizaje y recuperación de patrones, al igual que los modelos subsecuentes de memorias asociativas bidireccionales, reportada en el artículo escrito el año 1988 por Haines y Hecht-Nielsen titulado “Memoria asociativa bidireccional con capacidad de almacenamiento de información incrementada”. El siguiente paso importante en la búsqueda de mejorar significativamente la capacidad de aprendizaje y recuperación de patrones de los modelos Hopfield y Kosko, fue la creación de las memorias asociativas morfológicas, a finales de la década de los noventa del siglo veinte.

Los trabajos más importantes relacionados con las memorias asociativas que conducen a las memorias asociativas morfológicas son los siguientes: (1) Matriz de correlación Kohonen. Este modelo fue propuesto por Teuvo Kohonen, en el artículo publicado el año 1972 titulado “Memorias matriciales correlacionales”. El punto central de su propuesta consiste en codificar la relación entre la información de entrada y la de salida como su correlación, para posteriormente agrupar las correlaciones parciales en una matriz global denominada “matriz asociativa”. (2) Modelo de Hopfield. Este modelo fue introducido por John Hopfield a principios de los años ochenta, en el artículo titulado “Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes”. Basa su operación en la retroalimentación y en puntos fijos o estacionarios. Su estructura es la de un sistema dinámico recurrente en relajación. La memoria de Hopfield es auto-asociativa, donde cada componente se construye en tres etapas identificadas a través de un algoritmo matemático. Una vez construida la matriz de Hopfield, en la etapa de recuperación funciona como el operador de evolución de un sistema dinámico, que garantiza en este caso la convergencia a un punto fijo a partir de cualquier estado inicial. Esta propiedad ha sido usada en la recuperación de patrones y en la percepción. El número de puntos fijos del sistema dinámico está relacionado con la capacidad de la memoria de almacenar y recuperar patrones. (3) Memorias asociativas morfológicas de Ritter. Este tipo de memorias fue introducido a finales de los años 1990 por los investigadores Ritter y Sussner, en el artículo titulado “Una introducción a las redes neuronales morfológicas”. Las memorias asociativas producidas a través de un par de operaciones son conocidas en la literatura como memorias morfológicas, ya que los operadores max y min están íntimamente relacionados con las operaciones morfológicas de dilatación y erosión, tal como establecen los investigadores Ritter, Sussner y Díaz de León, en el artículo escrito el año 1998 titulado “Memorias asociativas morfológicas”. Se menciona además que una característica interesante de estas memorias, en el caso auto-asociativo, es que pueden almacenar y recuperar de manera perfecta cualquier cantidad de patrones. (4) Memorias asociativas alfa-beta de Yáñez. Estas memorias fueron desarrolladas por C. Yañez, en la tesis doctoral publicada el año 2002 con el título “Memorias asociativas basadas en relaciones de orden y operadores binarios”. Su operación se basa en el funcionamiento de dos operadores binarios: Alfa y beta. Existen dos tipos de memorias, que como en el caso morfológico se construyen usando los operadores max y min respectivamente. Las memorias alfa-beta operan también en el caso hetero y auto-asociativo. El operador alfa es una versión desplazada de la correlación morfológica y se utiliza durante la fase de entrenamiento, mientras que el operador beta es el operador de correlación que se usa durante la recuperación. Debido a las propiedades algebraicas de los operadores alfa y beta, las memorias alfa-beta presentan en muchos casos propiedades similares a las de su contraparte las morfológicas. Una de las principales ventajas de las memorias alfa-beta sobre las morfológicas es que en términos binarios requieren menos operaciones en la fase de recuperación; una de sus desventajas es que son sólo útiles en el caso binario.

lunes, 16 de junio de 2014

Memorias asociativas morfológicas

En el libro escrito el año 1993 por Gómez Allende, titulado “reconocimiento de formas y visión artificial”, se menciona que los seres humanos son capaces de reconocer patrones con extrema facilidad, entre algunos de esos patrones se encuentran imágenes, sonidos, olores, sabores, etcétera. Hudson, en el libro publicado el año 2000 titulado “Redes neuronales e inteligencia artificial para ingeniería biomédica”, complementa mencionando que los seres humanos aprendieron a reconocer patrones desde el vientre materno. Lo perfeccionaron al interactuar primeramente con sus padres y luego con sus semejantes. Aún en ciertos casos las interferencias como el ruido siempre asociado a dichos patrones no representa ninguna dificultad. Los seres vivos cuentan con los sistemas de reconocimiento de patrones más sofisticados que el hombre haya podido jamás imaginar. Los seres vivos saben usar con extrema facilidad, siéndoles sin embargo bastante difícil explicar cómo funcionan. Uno de estos sistemas es el sistema visual humano. Por medio de este sistema el ser humano es capaz de reconocer y clasificar prácticamente todo tipo de objetos y tomar decisiones sobre ellos.

Según Hassoun, en el libro escrito el año 1993 titulado “Memorias neuronales asociativas: Teoría e implementación”, el propósito fundamental de una memoria asociativa es recuperar correctamente patrones completos a partir de patrones de entrada, los cuales pueden estar alterados con ruido aditivo, sustractivo o combinado. Kohonen, en el libro escrito el año 1989 titulado “Auto-organización y memoria asociativa” complementa esta idea mencionando que, en toda memoria asociativa, previo a la fase de recuperación de patrones, se lleva a cabo la fase de aprendizaje; proceso mediante el cual se obtiene la memoria asociativa a través de la asociación de patrones, uno de entrada y uno de salida. Si para cada asociación se cumple que el patrón de entrada es igual al de salida, la memoria es autoasociativa; en caso contrario, la memoria es heteroasociativa: Esto implica que las memorias autoasociativas son un caso particular de las memorias heteroasociativas.

A través del tiempo las memorias asociativas se han desarrollado paralelamente a las Redes Neuronales, desde la concepción del primer modelo de neurona artificial, reportada por McCulloch y Pitts en el artículo escrito el año 1943 titulado “Calculo lógico de las ideas inmanentes en la actividad del sistema nervioso”, hasta los modelos de redes neuronales basados en conceptos modernos como la morfología matemática, descrita por Ritter y Sussner en el artículo escrito el año 1996 titulado “Una introducción a las redes neuronales morfológicas”, pasando por los importantes trabajos de los pioneros en las redes neuronales tipo perceptrón, como el reportado por Rosenblatt en el artículo escrito el año 1958 titulado “Perceptrón”, y fundamentalmente el modelo de Hopfield, quien en 1982 presenta al mundo su red neuronal que también funciona como una memoria asociativa, de manera específica en el artículo titulado “Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes”. Con este importante trabajo de investigación, Hopfield propició el resurgimiento de las redes neuronales después del período posterior a la publicación del libro “Perceptrones”, escrito por Minsky y Papert el año 1969, en donde se demostró que el perceptrón tenía severas limitaciones.

El primer modelo de memoria asociativa apareció veintiún años antes que el modelo de Hopfield, y se debe a Karl Steinbuch, científico alemán quien en 1961 desarrolla una memoria heteroasociativa que funciona como un clasificador de patrones binarios: Lernmatrix, reportada en el artículo titulado “La Lernmatrix”. Ocho años después, los investigadores escoceses Willshaw, Buneman y Longuet Higgins, en el artículo escrito el año 1969 titulado “Memoria asociativa no holográfica”, presentan el Correlograph, dispositivo óptico elemental capaz de funcionar como una memoria asociativa. Dos modelos clásicos de memorias asociativas fueron presentados el año 1972 por Anderson, en el artículo titulado “Red neuronal simple generadora de una memoria interactiva” y Kohonen, en el artículo denominado “Memorias matriciales correlacionales”, de manera independiente; debido a su importancia y a la similitud de los conceptos involucrados, ambos modelos reciben el nombre genérico de “Asociadores lineales”. Una década después surgiría el ya mencionado modelo Hopfield de memoria asociativa. No obstante su innegable relevancia, el modelo Hopfield tiene dos claras desventajas: primeramente, la memoria Hopfield es sólo autoasociativa, por lo que es incapaz de asociar patrones diferentes; y en segundo lugar, resulta evidente el hecho de que la capacidad de recuperación de patrones es bastante pequeña.

lunes, 9 de junio de 2014

Ciencia del razonamiento


Según Frápolli, en el libro publicado el año 2008 titulado “Filosofía de la lógica”, parecería que no está nada claro lo que se entiende o debería entenderse por lógica, esto es evidenciado hasta en el desarrollo histórico de esta disciplina, pero, a pesar de todo, es común identificarla con el estudio de las relaciones inferenciales, en tanto relación que se da entre premisas y conclusión de un argumento dado. Normalmente, se suele pensar la lógica en relación a una versión que se ha hecho típica en el estudio de la misma, la inferencia deductiva, por ello suele pensarse que la lógica es lógica deductiva. Pero aquella es más rica aún, posee un gran espectro en el que la deducción comprende sólo un capítulo, quizá el más desarrollado. Estas relaciones inferenciales a las que se hace referencia como centrales del estudio de la lógica, se dan entre proposiciones que conforman un razonamiento. Por ello, también se suele identificar a la lógica como la ciencia del razonamiento. En palabras de Vega, en el libro escrito el año 2007 titulado “Si de argumentar se trata”, razonar es aquella actividad, que hace un agente, por medio de la cual pretende justificar una oración, en un conjunto de oraciones. Estos razonamientos, que se dan en el discurso cotidiano, son denominados argumentaciones con las cuales se pretende dar razones de algo a alguien. La argumentación es una entidad lingüística, pero la lógica no estudia al razonamiento en esta perspectiva, sino a partir de la forma de dicha argumentación, esto es el argumento o mejor aún, esquemas de argumento.

En términos formales, según Martínez y Falguera, en el libro escrito el año 1999 titulado “Lógica clásica de primer orden”, aquella entidad conceptual formada por proposiciones en las que, partiendo de un conjunto dado de proposiciones llamadas premisas, se sigue o se pretende que se siga, otra proposición llamada conclusión. Este seguimiento de las premisas hacia la conclusión es lo que se denomina inferencia. Tradicionalmente se consideraba como inferencia a aquella operación mental por medio de la cual se pasa de algo conocido a algo desconocido. Pero no necesariamente ha de ocurrir esto para que haya inferencia ya que, por ejemplo, a partir del enunciado “Pedro es hombre” es posible inferir “Pedro es hombre”, donde no hay un paso de lo conocido a lo desconocido, de hecho se repite lo mismo en uno como en otro lado de la argumentación. Por esto, se entenderá a la inferencia como la especial relación entre premisas y conclusión; como el proceso según el cual se cree justificada una conclusión por el mero hecho de haber aceptado una o varias premisas. La inferencia puede ser de dos tipos: Deductiva y no deductiva. Se denomina deducción a aquella relación inferencial en la cual, a partir de ciertas premisas, se concluye necesariamente. No deducción, cuando de un número indeterminado de premisas se infiere probablemente la conclusión.

Según Alessio, en el libro publicado el año 2008 con el título “Lógica y sentido común”, es justamente a la primera versión de inferencia, la deductiva, con la que es común relacionar a la lógica. La razón de esta identificación data desde los orígenes mismos de la lógica. Aristóteles había presentado en sus estudios una caracterización del silogismo, que es de suyo un tipo de razonamiento en el que se da la inferencia deductiva. Los medievales continuaron la ruta marcada por los antiguos trabajando en pos de la deducción. Sin embargo, a principios del siglo diecisiete, en una obra publicada el año 1620, Francis Bacon hace una crítica voraz de la deducción, proponiendo en su lugar a la inducción. Esta misma idea es reafirmada por John Stuart Mill en su obra “Sistema de lógica raciocinadora e inductiva” del año 1843. A pesar de ello, otros lógicos siguieron comprometidos y desarrollando reflexiones en torno a la deducción como Bolzano y Leibniz. A mediados del siglo diecinueve resurge el estudio de la deducción con la propuesta del Logicismo de Frege donde la lógica fue pensada como el fundamento de las matemáticas y, para tal fin, se crea un sistema formal que pretende explicar toda la matemática a partir de una serie de axiomas y teoremas. El resultado de este proyecto fue desalentador en esta perspectiva, aunque proporcionó a la lógica la posibilidad de formalizar los razonamientos deductivos, constituyéndose finalmente en una ciencia formal completamente simbolizable, en donde se emparentan deducción, formalización y lógica. El lenguaje creado recibe el nombre de lenguaje formal con el que se puede estudiar de manera clara la estructura de los razonamientos. Si bien es cierto que Aristóteles ya había presentado la forma de los silogismos mediante esquemas de enunciados tales como: “Todo A es B”, “Ningún A es B”, “Algún A es B”, “Algún A no es B”, no eran sino una reducida explicación de los razonamientos ya que su capacidad expresiva se limitaba a los enunciados categóricos y modales. Pero con el desarrollo de la lógica, a partir de Frege, se crearon lenguajes formales capaces de representar, mediante fórmulas, casi cualquier expresión del lenguaje natural, ampliando considerablemente la capacidad de la silogística tradicional.

lunes, 2 de junio de 2014

Ciencia del razonamiento

En palabras de Espinoza y García, en la tesis escrita el año 2011 titulada “La lógica matemática y su influencia en el aprendizaje de técnicas de flujograma del I, II, y III año de bachillerato de comercio, computación y administración del Colegio Emilio Bowen Roggiero, período 2006–2007”, es difícil saber cuándo y dónde se inició el estudio de la lógica, no obstante que hay una gran cantidad de información sobre sus orígenes, en particular en Internet. Al tratar de ubicar el origen de la lógica, se llega a la conclusión de que, como en el caso de todas las ciencias, este ocurre durante la aparición del hombre primitivo. En efecto, siendo la lógica una ciencia del razonamiento y de la inferencia, es sensato pensar que con el surgimiento del primer hombre con capacidad de razonar y obtener deducciones o inferencias, erradas o no, en ese mismo momento apareció la semilla de la lógica. De hecho, se ha distinguido al hombre del resto de los animales por sus capacidades de razonamiento lógico y capacidades del pensamiento, esto es, razonar, deducir o inferir; tal cosa ha ocurrido porque el hombre mismo ha establecido, de manera unilateral, que es precisamente él, quien tiene la capacidad de razonamiento más alta del reino animal.

Espinoza y García plantean una cuestión de debate. ¿La lógica ha sido inventada o creada por el ser humano o bien ha sido descubierta por él? Si se toma una primera posición, se podría decir que el ser humano poco a poco fue creando mecanismos para explicar el mundo que lo rodeaba, incluyendo su futuro inmediato; esto significa que en esto el hombre, buscaba también realizar predicciones y deducir las razones por las cuales las cosas ocurrían de una y no de otra manera. Estas deducciones y predicciones no son entonces más que explicaciones de eventos pasados, presentes o futuros. Hay que entender que el mundo que rodeaba al hombre primitivo comprendía también mitos y deidades creadas por él mismo, de modo que el hombre buscaba explicaciones que incluían a mitos que el mismo había creado. Es por ello que el hombre requirió un sistema totalmente imparcial, para el análisis de la verdad de un conjunto de proposiciones, de situaciones reales o imaginarias, el cual pueda realizar por lo menos las siguientes funciones válidas: (1) Indicar si el conjunto es consistente. Es decir no hay proposiciones que se contradicen unas a otras. (2) Realizar deducciones de otras proposiciones verdaderas a partir del conjunto de proposiciones. (3) Inferir proposiciones que en otro tiempo, normalmente el futuro, podrán ser verdaderas o falsas.

El hombre ha creado muchas lógicas, de forma que desde este punto de vista se puede decir que la lógica evoluciona, ó bien que la lógica ó lógicas creadas por él, evolucionan. Por otra parte, la lógica es un sistema capaz de analizar cualquier conjunto de proposiciones para determinar si cumple con las funciones anteriores, siendo capaz incluso de analizar si una lógica particular es adecuada para realizar ése análisis. Esto lleva a pensar que la lógica debe ser única ya que debe ser capaz de analizar cualquier otro sistema lógico y, en caso de que sea válida su existencia, la lógica ha existido siempre y el hombre, por lo tanto, no la inventa ni la crea, sino que descubre porciones de ella. El investigador Agazzi, en el libro publicado el año 1964 con el título “La lógica simbólica”, menciona que Leibniz, en sus “Nuevos ensayos sobre el entendimiento humano”, publicados en 1704, es un importante predecesor de la lógica matemática o simbólica moderna; en sus obras defiende la creación y utilización de un simbolismo apropiado para ser empleado en un procedimiento de cálculo en el que pasaran a segundo término los aspectos semánticos y de contenido de las proposiciones. Leibniz sostiene la idea de que la lógica o la ciencia del razonamiento, debe constituirse en una mathesis universalis, es decir, en un simple operar formal con símbolos de acuerdo con ciertas reglas sintácticas a fin de que el lenguaje filosófico adquiera la exactitud y precisión presente en otras ciencias formales, como el Álgebra, favoreciendo de este modo, la resolución de las disputas metafísicas entre partidarios de diferentes escuelas de pensamiento filosófico.