lunes, 30 de marzo de 2015

Aplicaciones de la inteligencia artificial al análisis de biosecuencias


En la tesis de maestría de Sandria, publicada el año 2014 con el título “Aplicaciones de la inteligencia artificial al análisis de biosecuencias”, se menciona que las biosecuencias hacen referencia a las secuencias biológicas, estas son fundamentalmente el ácido desoxirribonucleico, las proteínas y los genes. Según Alberts y sus colegas, en el libro publicado el año 2002 con el título “Biología molecular de la célula”, el ácido desoxirribonucleico es el material genético de todos los organismos celulares. El ácido desoxirribonucleico lleva la información necesaria para dirigir la síntesis de proteínas y la replicación. La síntesis de proteínas es la producción de las proteínas que necesita la célula para realizar sus actividades y desarrollarse. La replicación es el conjunto de reacciones por medio de las cuales el ácido desoxirribonucleico se copia a sí mismo cada vez que una célula se reproduce y transmite a la descendencia la información de síntesis de proteínas que contiene. En casi todos los organismos celulares el ácido desoxirribonucleico está organizado en forma de cromosomas situados en el núcleo de la célula.

El artículo titulado “Cambios evolutivos en el código genético”, escrito el año 1993 por los investigadores Jukes y Osawa, se indica que cada molécula de ácido desoxirribonucleico está constituida por dos cadenas o bandas formadas por un elevado número de nucleótidos o compuestos químicos. Estas cadenas forman una especie de escalera retorcida conocida como doble hélice. Cada nucleótido está formado por tres unidades, una molécula de azúcar llamada desoxirribosa, un grupo fosfato y uno de cuatro posibles compuestos nitrogenados llamados bases: Adenina, guanina, timina y citosina. La molécula de desoxirribosa ocupa el centro del nucleótido y está flanqueada por un grupo fosfato a un lado y una base al otro. El grupo fosfato está a su vez unido a la desoxirribosa del nucleótido adyacente de la cadena. Estas subunidades enlazadas desoxirribosa-fosfato forman los lados de la escalera; las bases están enfrentadas por parejas, mirando hacia el interior, y forman los travesaños. Los nucleótidos de cada una de las dos cadenas que forman el ácido desoxirribonucleico establecen una asociación específica con los correspondientes de la otra cadena. Debido a la afinidad química entre las bases, los nucleótidos que contienen adenina se acoplan siempre con los que contienen timina, y los que contienen citosina con los que contienen guanina. Las bases complementarias se unen entre sí por enlaces químicos débiles llamados puentes de hidrógeno. El ácido desoxirribonucleico incorpora las instrucciones de producción de proteínas. Una proteína es un compuesto formado por moléculas pequeñas de aminoácidos, que determinan su estructura y función. La secuencia de aminoácidos está a su vez determinada por la secuencia de bases de los nucleótidos del ácido desoxirribonucleico. Cada secuencia de tres bases, llamada triplete, constituye una palabra del código genético o codón, que especifica un aminoácido determinado. Así, el triplete guanina, adenina, citosina, es el codón correspondiente al aminoácido leucina, mientras que el triplete citosina, adenina, guanina corresponde al aminoácido valina. Por tanto, una proteína formada por cien aminoácidos queda codificada por un segmento de trescientos nucleótidos de ácido desoxirribonucleico. De las dos cadenas de polinucleótidos que forman una molécula de ácido desoxirribonucleico, sólo una, llamada paralela, contiene la información necesaria para producción de una secuencia de aminoácidos determinada. La otra, llamada antiparalela, ayuda a la replicación.

En palabras de Osawa y sus colegas, expresadas en el artículo escrito el año 1992 con el título “Evidencia para la evolución del código genético”, un gen es una secuencia de nucleótidos de ácido desoxirribonucleico que especifica el orden de aminoácidos de una proteína por medio de una molécula intermediaria de ácido ribonucleico mensajero. Un genoma, en virus y bacterias, es la totalidad de los genes que porta el individuo, mientras que en los organismos eucariotas, este término se refiere a los genes radicados en el núcleo de la célula, se tiene en cuenta una dotación haploide, es decir un único juego de cromosomas. La sustitución de un nucleótido de ácido desoxirribonucleico por otro que contiene una base distinta hace que todas las células o virus descendientes contengan esa misma secuencia de bases alterada. Como resultado de la sustitución, también puede cambiar la secuencia de aminoácidos de la proteína resultante. Esta alteración de una molécula de ácido desoxirribonucleico se llama mutación. Casi todas las mutaciones son resultado de errores durante el proceso de replicación. La exposición de una célula o un virus a las radiaciones o a determinados compuestos químicos aumenta la probabilidad de mutaciones.

Osawa y sus colegas, en el artículo referido, continúan mencionando que en casi todos los organismos celulares, la replicación de las moléculas de ácido desoxirribonucleico tiene lugar en el núcleo, justo antes de la división celular. Empieza con la separación de las dos cadenas de polinucleótidos, cada una de las cuales actúa a continuación como plantilla para el montaje de una nueva cadena complementaria. A medida que la cadena original se abre, cada uno de los nucleótidos de las dos cadenas resultantes atrae a otro nucleótido complementario previamente formado por la célula. Los nucleótidos se unen entre sí mediante puentes de hidrógeno para formar los travesaños de una nueva molécula de ácido desoxirribonucleico. A medida que los nucleótidos complementarios van encajando en su lugar, una enzima llamada ácido desoxirribonucleico polimerasa los une enlazando el grupo fosfato de uno con la molécula de azúcar del siguiente, para así construir la hebra lateral de la nueva molécula de ácido desoxirribonucleico. Este proceso continúa hasta que se ha formado una nueva cadena de polinucleótidos a lo largo de la antigua; se reconstruye así una nueva molécula con estructura de doble hélice.

lunes, 23 de marzo de 2015

Mecanismos de cooperación entre agentes

Conceptualizar los agentes no es tarea fácil, sin embargo Wooldridge y Jennings, en el artículo escrito el año 1995 con el título “Agentes inteligentes: Teoría y práctica”, optan por definir un conjunto de propiedades o atributos que caracterizan a los agentes aunque esto no implica que todos las posean: (1) Autonomía. Operan sin intervención de otros agentes para encontrar sus objetivos diseñados, además tienen alguna clase de control sobre sus acciones y estados internos. (2) Sociabilidad. Interaccionan con otros agentes, utilizando para ello un lenguaje de comunicación entre agentes. (3) Cooperación. Permiten la cooperación entre entidades de agentes, la complejidad de la cooperación puede variar desde un estilo de interacción cliente-servidor a negociación y cooperación basada en métodos de inteligencia artificial, tales como redes de contrato y protocolos. Esta cooperación puede necesitar del intercambio de información y representaciones de prerrequisitos para sistemas multiagentes. (4) Reactividad. Perciben estímulos de su entorno y reaccionan ante ellos posiblemente para cambiar lo que allí ocurre. (5) Proactividad/Iniciativa. Tienen carácter emprendedor y actúan guiados por sus objetivos. También ésta propiedad se puede referir como orientada a objetivos. (6) Movilidad. Se trasladan a través de una red telemática para desempeñar tareas específicas.

Por naturaleza, la solución de problemas no es un proceso lineal, por otra parte, el comportamiento humano no siempre es consistente y lineal durante el proceso de solución de problemas. Marcenac y sus colegas en el año 1996, en el artículo titulado “Cooperación y resolución de conflictos en sistemas multiagente”, mencionan que los sistemas multiagente capturan un tipo de análisis difuso, debido a que están diseñados para soportar la concurrencia y el no-determinismo. La forma en la que las personas realizan sus proyectos es el trabajo en común, por ello es lógico que la resolución de un problema complejo se tienda a abordar de forma cooperativa. Según d›Inverno y sus colegas, en el artículo publicado el año 1997 titulado “Estructuras de cooperación”, para cooperar eficientemente con sus compañeros, un agente debe representar cualquier estructura social en la que juegue un papel, y también razone con esa representación. Una estructura social es un conjunto de relaciones que se sostienen entre los agentes de una sociedad. El concepto de cooperación puede tener diferentes variaciones, hay autores que manejan diferentes puntos de vista. Por ejemplo, en el año 1997 Doran y sus colegas, en el artículo titulado “Acerca de la cooperación en sistemas multiagente”, definen a la cooperación de la siguiente forma: “Cooperar es actuar con otro u otros para un propósito y beneficios comunes”.

Stankevicius, en la tesis de magister escrita el año 2004 titulado “Un modelo dialéctico para la deliberación multiagente”, menciona que en el análisis de las interacciones entre agentes, se considera inicialmente las distintas alternativas para lograr una comunicación efectiva entre los agentes, estudiando los acercamientos de mayor relevancia, considerando los principales protocolos de interacción. Estos protocolos establecen el marco en el cual los agentes podrían intercambiar información, distinguiéndose tres tipos principales de interacciones posibles: La coordinación, la cooperación y la negociación. La cooperación entre agentes es esencialmente una forma refinada de coordinación, que tiene lugar entre individuos con objetivos en común. Naturalmente, el desarrollar sistemas eficientes en los cuales sus agentes puedan cooperar en pos de una cierta meta es uno de los objetivos centrales de la investigación en sistemas multiagente. Moulin y Chaib-draa, en el artículo publicado el año 1996 con el título “Una vista de la inteligencia artificial distribuida”, sintetizan de forma acabada la forma en la que se puede esperar al dotar a un sistema de un adecuado mecanismo de cooperación: Incrementar la cantidad de tareas resueltas, a través del incremento del paralelismo de tareas; incrementar el conjunto de tareas que se pueden realizar, al combinar capacidades individuales, sumar experiencias, y otras; incrementar la probabilidad de que una tarea se lleve adelante, asignando la misma tarea a más de un agente, y además decrementar la interferencia entre las distintas tareas, evitando las interacciones problemáticas. Cuando un conjunto de agentes con la intención de cooperar entre sí coordinan sus comportamientos, se torna esencial preservar la coherencia del sistema, cuidando de no avasallar la autonomía de sus agentes. A tal efecto, durante la etapa de diseño se debe hacer hincapié en aquellas metas comunes a varios agentes, identificando cuáles son las tareas que deben ser llevadas a cabo en forma grupal. Toda vez que el dominio de aplicación así lo permita, los agentes deben maximizar la información compartida con sus pares, evitando de esta forma conflictos no relacionados con cuestiones de fondo. En general, la estrategia básica aplicada por la mayoría de los protocolos de cooperación consiste en descomponer y luego distribuir estas subtareas entre los distintos agentes. Este esquema de divide e impera permite reducir la complejidad de las tarea al obtener subtareas más sencillas que posiblemente puedan ser llevadas adelante por agentes con capacidades más modestas, insumiendo posiblemente una menor cantidad de recursos.

Se menciona, en el artículo titulado “Solución cooperativa de problemas” escrito el año 1992 por Clearwater y sus colegas, que la cooperación involucra un conjunto de agentes que interactúan mediante la comunicación de información entre ellos mientras se soluciona el problema. Los agentes pueden ser agregados al conjunto como un comité, o pueden estar más formalmente organizados como una jerarquía. La información intercambiada entre los agentes puede ser incorrecta, por lo que es posible que se altere el comportamiento de los agentes que reciben dicha información. Por tanto, según Haugeneder y Steiner, en el artículo escrito el año 1998 titulado “Agentes cooperativos: Conceptos y aplicaciones”, la cooperación es básicamente el proceso de distribuir objetivos, planes y tareas entre los diversos agentes existentes en el ambiente.

lunes, 16 de marzo de 2015

Mecanismos de cooperación entre agentes

González de Rivera hacia el año 2011, en la tesis doctoral titulada “Mecanismos de cooperación en robots como agentes móviles”, menciona que la inteligencia artificial se caracteriza por ser un área de trabajo especialmente interdisciplinario, en la que se pueden distinguir dos grandes campos de trabajo. El primero de ellos está involucrado en la creación de los elementos hardware necesarios para estar frente a un “entorno inteligente”, tales como sistemas de comunicación, sistemas biométricos, sistemas de localización, etc. El segundo de ellos se encarga del desarrollo de los algoritmos y aplicaciones de software necesarias para dar funcionalidad al hardware anteriormente mencionado. Esta amplia interdisciplinaridad, necesaria para crear sistemas que ayuden a realizar las tareas diarias a los usuarios, acarrea graves problemas a la hora de desarrollarlos. Por un lado los equipos de investigación no suelen estar especializados en todas las áreas de conocimiento necesarias, lo que hace que las investigaciones acaben en meros algoritmos funcionando sobre un simulador, en hardware poco fiable o, en el peor de los casos, solamente en meras especulaciones. Por otra parte, si el equipo se decide por realizar el trabajo completo para el desarrollo del sistema, se enfrenta a muchos problemas en múltiples campos, lo que supone una gran infraestructura y tiempo de desarrollo.

Un agente se puede concebir como una entidad computacional, especialmente ubicada en un entorno y que es capaz de mostrar un comportamiento flexible, con varias reacciones posibles ante una misma situación e interacción con otros agentes, y autónomo, con la capacidad de tomar la iniciativa sin estímulo previo. Debido a la gran cantidad de definiciones diferentes encontradas, a continuación se muestra una lista de las características más habituales que aparecen en la bibliografía, la misma se encuentra basada en el artículo escrito por Wooldridge y Jennings el año 1995, titulado “Agentes inteligentes: Teoría y práctica”, los agentes son entidades que relacionan percepciones de su entorno con acciones en su entorno, es decir, son reactivos. Son objetos computacionales con un grado variable de autonomía: (1) Los agentes toman iniciativas, es decir, no actúan simplemente en respuesta a su entorno sino que pueden actuar en base a unos objetivos propios. (2) Interactúan y se comunican mediante un lenguaje de comunicación que incorpora actos de habla como informar, preguntar, prometer y requerir. (3) Son racionales, es decir, actúan de “forma correcta”, lo cual se interpreta como que el estado mental del agente es coherente con su comportamiento. Estas características de los agentes pueden sugerir diferentes modelos, de mayor o menor complejidad. Por ejemplo, en informática, la idea de agente como un proceso software que se ejecuta de forma concurrente, que tiene una noción de estado y es capaz de comunicarse con otros agentes por paso de mensajes, es algo que se considera como un resultado natural del desarrollo del paradigma de programación concurrente orientada a objeto. Esta noción de agente es la que también se usa en la denominada “ingeniería de software basada en agentes”, cuyos productos, llamados “agentes de software” o “softbots”, son agentes que interaccionan con un entorno software mediante comandos que usan para obtener información o cambiar el estado del entorno.

Por otra parte la misma inteligencia artificial se ha inspirado en el estudio de los colectivos animales, tratando de extraer los comportamientos presentes en dichas sociedades para trasladarlos al entorno artificial. Zamora, en la tesis doctoral publicada el año 1997 con el título “Aprendizaje y estabilización de comportamientos altruistas en sociedades de agentes autónomos”, menciona que el fruto de este flujo de conocimientos, desde la observación de las sociedades biológicas hacia la robótica inteligente, en la última década ha surgido un nuevo campo de investigación denominado sistemas multiagente. En suma, se trata de la creación de equipos de trabajo formados por colecciones de agentes autónomos. Además de las propiedades inherentes a dichos agentes, de las interacciones entre ellos emergen nuevas propiedades. Estas son fundamentalmente: (1) Mayor robustez del sistema. Dada la redundancia intrínseca del sistema, el mal funcionamiento de alguno de los agentes no paraliza el cumplimiento final de la tarea sino que provoca una degradación gradual del rendimiento. (2) Emergencia de nuevos comportamientos. Al igual que la interacción de los diversos comportamientos individuales dentro de un agente provocan la emergencia de funcionalidades nuevas, las interacciones entre agentes provocan la aparición de comportamientos sociales más complejos. Mataric en el año 1994, en la tesis doctoral titulada “Interacción y comportamiento inteligente”, proporciona una interesante colección de este tipo de comportamientos colectivos emergentes. (3) Incremento en el rendimiento del sistema. El rendimiento del sistema se incrementa a través de las siguientes estrategias: (3.1) La inclusión de estrategias de cooperación entre agentes abre el camino a incrementos en el rendimiento global del sistema. (3.2) Las estrategias de especialización pueden incrementar el rendimiento del colectivo a través de una mejor distribución de los recursos en distintas subtareas. (3.3) El funcionamiento paralelo de los sistemas multiagente incrementa también el rendimiento del sistema. (4) Nuevas competencias. La posibilidad de realizar trabajos de tipo cooperativo amplia el espectro de tareas que pueden realizar los agentes. Muchas tareas son inherentemente distribuidas, en el espacio o en el tiempo o en sus partes, siendo por tanto necesario resolverlas de forma cooperativa.

lunes, 9 de marzo de 2015

Modelado estadístico neuronal

Una de las formas convencionales de realizar un análisis comparativo entre modelos es confrontar las características relevantes a través de una tabla de doble entrada. El año 1994 Sarle, en el artículo titulado “Redes neuronales y modelos estadísticos” propone que se puede establecer una similitud entre modelos estadísticos y modelos de redes neuronales a través de la siguiente relación comparativa de términos: La “observación estadística” corresponde al termino “patrón” en redes neuronales; el termino estadístico “muestra” corresponde al termino “datos de entrenamiento” de las redes neuronales; en la terminología estadística “muestra de validación” corresponde al termino “datos de validación” de las redes neuronales; el termino estadístico “variables explicativas” corresponde al termino “variables de entrada” de las redes neuronales; el termino estadístico “variable de respuesta” corresponde al termino “variable de salida” de las redes neuronales; en la terminología estadística “modelo” corresponde al termino “arquitectura” de las redes neuronales; el termino estadístico “residual” corresponde al termino “error” de las redes neuronales; el termino estadístico “error aleatorio” corresponde al termino “ruido” de las redes neuronales; el termino estadístico “estimación” corresponde al termino “entrenamiento o aprendizaje” de las redes neuronales; el termino estadístico “interpolación” corresponde al termino “generalización” de las redes neuronales; el termino de la estadística tradicional “interacción” se corresponde con el término “conexión funcional” de las redes neuronales; el termino estadístico “coeficientes” corresponde al termino “pesos de conexión” de las redes neuronales; el termino estadístico “constante” corresponde al termino “pesos de umbral” de las redes neuronales; el termino de la estadística clásica “regresión y análisis discriminante” se corresponde con el término “aprendizaje supervisado o heteroasociación” de las redes neuronales; el termino estadístico “reducción de datos” corresponde al termino “aprendizaje no supervisado o autoasociación” de las redes neuronales; finalmente el termino estadístico “análisis de grupo” corresponde al termino “aprendizaje competitivo” de las redes neuronales.

Para el modelado estadístico de las redes neuronales artificiales, Sarle, en el artículo citado, presenta la siguiente equivalencia entre modelos estadísticos y modelos de red neuronal. (1) El modelo estadístico denominado “regresión lineal múltiple” es equivalente al modelo de red neuronal denominado “perceptrón simple con función lineal”; (2) El modelo estadístico denominado “regresión logística” es equivalente al modelo de red neuronal denominado “perceptrón simple con función logística”; (3) El modelo estadístico denominado “función discriminante lineal” es equivalente al modelo de red neuronal denominado “perceptrón simple con función umbral”; (4) El modelo estadístico denominado “regresión no lineal múltiple” es equivalente al modelo de red neuronal denominado “perceptrón multicapa con función lineal en la salida”; (5) El modelo estadístico denominado “función discriminante no lineal” es equivalente al modelo de red neuronal denominado “perceptrón multicapa con función logística en la salida”; (6) El modelo estadístico denominado “análisis de componentes principales” es equivalente a los modelos de red neuronal denominados “regla de Oja” y “perceptrón multicapa autoasociativo”; (7) El modelo estadístico denominado “análisis de grupos” es equivalente al modelo de red neuronal denominado “mapas autoorganizados de Kohonen”; (8) El modelo estadístico denominado “K vecinos mas cercanos” es equivalente al modelo de red neuronal denominado “vector de cuantificación de aprendizaje”; (9) El modelo estadístico denominado “Regresión kernel” es equivalente al modelo de red neuronal denominado “funciones de base radial”. De esta manera se pone de manifiesto que la mayoría de redes neuronales aplicadas al análisis de datos son similares y, en algunos casos, equivalentes a modelos estadísticos bien conocidos.

En el año 2002 Sarle, en el sitio Web de preguntas frecuentes acerca de las redes neuronales, menciona que un perceptrón simple puede ser considerado como un modelo lineal generalizado, debido a la equivalencia entre el concepto de función de enlace en un modelo lineal generalizado y la función de activación de la neurona de salida en un perceptrón: Donde el valor de la variable de respuesta, o variable de salida, se obtiene aplicando una función de enlace, o función de activación, sobre una combinación lineal de coeficientes o pesos y variables explicativas. Sarle, en el artículo del año 1994, menciona que una diferencia importante entre ambos modelos radica en el método de estimación de los coeficientes utilizados para minimizar la función de error. Mientras el perceptrón normalmente estima los parámetros del modelo mediante el criterio de mínimos cuadrados, es decir, intentando minimizar una determinada función, el modelo lineal generalizado ajusta el modelo mediante el método de máxima verosimilitud para una variedad de distribuciones de la clase exponencial. Sin embargo, el año 1995 Bishop, en el libro titulado “Redes neuronales para el reconocimiento de patrones” apunta a que el criterio de mínimos cuadrados, asumiendo un error con distribución normal, obtiene estimaciones máximo-verosímiles, tal como ocurre en el modelo lineal general. De forma similar, se puede aplicar el método de máxima verosimilitud a un perceptrón en tareas de clasificación binaria asumiendo un error con distribución de Bernoulli.

lunes, 2 de marzo de 2015

Modelado estadístico neuronal

Las redes neuronales constituyen una herramienta de análisis, modelado y predicción que se puede encontrar cómodamente integrada en muy diversos campos: Informática, robótica, ingeniería, psicología y otros. Según Castellano, en la tesis doctoral publicada el año 2009 con el título “Modelización estadística con redes neuronales”, en sus aplicaciones a cada ámbito, las redes neuronales adoptan connotaciones diferentes, y son vistas como herramientas de la ingeniería, réplicas del pensamiento racional, modelos de caja negra. En todos los casos las redes se rigen por la filosofía general de obtener modelos coherentes con la realidad observada, de tal modo que sean los datos los que determinen el comportamiento de la red, bien a través de la determinación de su estructura, bien de sus parámetros internos. Estas ideas acercan las redes neuronales a las ideas de los métodos no paramétricos de análisis de datos, en particular y en general al ámbito de la estadística, donde las redes neuronales son consideradas como potentes herramientas estadísticas de análisis de datos

Según Haykin, en el libro publicado el año 2009 titulado “Redes neuronales y aprendizaje automático”, el nombre redes neuronales surge de la analogía con el cerebro humano y el modo en que las personas pueden acercarse a la tarea de reconocer muestras. Un largo camino las separa ya de sus raíces biológicas. Se han hecho grandes avances, y aunque muchos de ellos se han opuesto a un cuidadoso escrutinio, los métodos de las redes neuronales han tenido un gran impacto en la práctica del reconocimiento de patrones. Como complemento Bishop, en el libro publicado el año 1995 con el título “Redes neuronales para el reconocimiento de patrones”, menciona que las redes neuronales artificiales pueden considerarse como una herramienta estadística completa para el análisis de datos.

Castellano, en la tesis citada, manifiesta que las redes neuronales artificiales se usan principalmente con tres objetivos diferenciados: (1) Como modelos biológicos e inteligentes. Parte de las motivaciones biológicas que dieron lugar a las redes neuronales se han conservado, por ello y se siguen empleando como instrumentos que ayudan a entender y duplicar el funcionamiento de los sistemas nerviosos de los seres vivos. (2) Como procesadores adaptativos de señales en tiempo real, o controladores, implementados en hardware para aplicaciones como robots. Esta es el área del reconocimiento de patrones. La tecnología, la ciencia y los negocios han aportado nuevas tareas de interés: Diagnóstico de enfermedades, leer códigos comprimidos, los cuales, en algunos casos, son eminentemente tecnológicas, como la lectura de códigos de barras, y en otros muchos las llevan a cabo expertos humanos. El objetivo es construir máquinas que realicen estas labores de un modo más “rápido”, más “barato”, y más “aproximado” que las personas. Cada vez es más factible idear sistemas automáticos que sustituyan y mejoren al especialista, como la “cuenta de crédito de un cliente”, o clonar al experto, ayuda al diagnóstico médico. (3) Como métodos de análisis de datos. De hecho en multitud de ocasiones si se analiza detalladamente lo que está haciendo una red se descubrirá que se dedica a rescribir métodos estadísticos clásicos. Así mismo cualquier red, aún cuando su objetivo final sea algo muy concreto y a simple vista alejado de la estadística, como “la voz” del desfibrilador que dice que el paciente tiene pulso y no puede recibir la descarga, fue diseñada, y por lo tanto puede ser analizada desde un punto de vista meramente estadístico. Esta tercera faceta de las redes fue estudiada con detenimiento por Sarle, en el artículo escrito el año 1994 titulado “Redes neuronales y modelos estadísticos”.

En el año 1943, los investigadores McCulloch y Pitts, en el artículo titulado “Calculo lógico de las ideas inmanentes en la actividad nerviosa”, propusieron un modelo matemático sencillo del funcionamiento de las neuronas: La neurona dispara un potencial de acción cuando la combinación lineal de sus entradas supera un umbral. Este modelo se utiliza como unidad de procesamiento en las redes neuronales artificiales, bajo el nombre de perceptrón. Algunos de los primeros trabajos en inteligencia artificial se basaban en estas redes neuronales artificiales. Otros nombres para este campo son: Computación neuronal, procesamiento distribuido paralelo y conexionismo. Según Montaño, en la tesis publicada el año 2002 titulada “Redes neuronales artificiales aplicadas al análisis de datos”, en el primer período de la reemergencia del conexionismo que se encuentra situado en la segunda mitad de los años 1980, la idea que se trataba de transmitir consistía en que los modelos neuronales habían surgido como una forma totalmente novedosa de solucionar problemas de clasificación y predicción, sobrepasando siempre en eficacia a las técnicas tachadas de convencionales, como la estadística. A lo largo de la década de los años 1990, una vez reconocido el campo de las redes neuronales ante la comunidad científica, surgieron una serie de trabajos teóricos entre los cuales la comparación entre las redes neuronales artificiales y la estadística pone de manifiesto la similitud y, en muchos casos, la identidad entre ambas perspectivas. Uno de los aspectos que han fomentado la idea errónea acerca de las diferencias entre las redes neuronales y la estadística versa sobre la terminología utilizada en la literatura de ambos campos. Se recuerda que el campo de las redes neuronales surge como una rama de la inteligencia artificial con una fuerte inspiración neurobiológica y su desarrollo ha sido debido a la contribución de investigadores procedentes de una gran variedad de disciplinas.