lunes, 24 de agosto de 2015

Primera parte Análisis de datos con redes neuronales

Si se busca en el Diccionario de la Real Academia Española de la Lengua el vocablo “estadística” aparecen tres acepciones de dicha palabra: (1) Estudio de los datos cuantitativos de la población, de los recursos naturales e industriales, del tráfico o de cualquier otra manifestación de las sociedades humanas. (2) Conjunto de estos datos. (3) Rama de la matemática que utiliza grandes conjuntos de datos numéricos para obtener inferencias basadas en el cálculo de probabilidades. Según Saez Castillo, en el libro publicado el año 2012 titulado “Apuntes de estadística para ingenieros”, se menciona que probablemente el más común de los significados conocidos de la palabra sea el segundo, y por ello se suele ver en los medios de comunicación que cualquier recopilación de cifras referentes a algún asunto es denominado, de forma muy reduccionista, estadística o estadísticas. Sin embargo, el valor real de la Estadística como ciencia tiene que ver mucho más con la primera y la tercera acepción del Diccionario de la Real Academia Española de la Lengua. Concretamente, el primero de los significados se corresponde con lo que se estudia como “estadística descriptiva”, donde la estadística se utiliza para resumir, describir y explorar datos, y el tercero con lo que se denomina “inferencia estadística”, donde lo que se pretende mediante la estadística es utilizar datos de un conjunto reducido de casos para inferir características de éstos al conjunto de todos ellos. La estadística es una disciplina que proporciona las herramientas necesarias para el análisis de los datos. Dado que en algunas situaciones no es posible realizar estudios exhaustivos en toda la población, la estadística permite cuantificar la probabilidad de cometer error al extrapolar los resultados obtenidos de una serie de muestras al conjunto de la población. Por tanto, la estadística permite cuantificar el error que se comete al aceptar los resultados obtenidos a partir de muestras, habitualmente basadas en encuestas, de una población generalmente muy extensa.

En la tesis doctoral de Castellano, publicada el año 2009 con el título “Modelización estadística con redes neuronales”, se menciona que una red neuronal es un proceso sólido y paralelamente distribuido con la propensión natural a acumular procedimientos experimentales y hacerlos disponibles para su uso. Se parece al cerebro en dos aspectos, por una parte la red adquiere conocimientos a través de un proceso de aprendizaje, y por otra las conexiones inter-neuronales, conocidas como cargas sinápticas presentan una gran solidez encargándose de almacenar conocimiento. Las redes neuronales se usan principalmente con tres objetivos diferenciados: (1) Como modelos nerviosos biológicos. Parte de las motivaciones biológicas que dieron lugar a las redes neuronales se han conservado, y se siguen empleando como instrumentos que ayudan a entender y duplicar el funcionamiento del sistema nervioso de los seres vivos. (2) Como procesadores adaptativos de señal en tiempo real. Corresponde al área de reconocimiento de patrones, se encuentran implementadas en hardware para aplicaciones tipo robot. La tecnología, la ciencia y los negocios han aportado nuevas tareas de interés, que en algunos casos son eminentemente tecnológicas. El objetivo es construir máquinas que realicen estas labores de un modo más rápido, barato y exacto que las personas. Cada vez es más factible idear sistemas automáticos que sustituyan y mejoren al especialista, o clonar al experto. (3) Como métodos de análisis de datos. Principalmente este trabajo se encuentra centrado en esta última faceta de las redes. De hecho en multitud de ocasiones si se analiza detalladamente lo que está haciendo una red neuronal se descubrirá que se dedica a rescribir métodos estadísticos clásicos. Así mismo cualquier red, aún cuando su objetivo final sea algo muy concreto y a simple vista alejado de la estadística, como “la voz” del desfibrilador que indica si el paciente tiene pulso y no puede recibir la descarga, fue diseñada, y por lo tanto puede ser analizada desde un punto de vista meramente estadístico.

En palabras del investigador Escobar, en el artículo publicado el año 2002 titulado “Análisis de datos con redes neuronales aplicadas al diagnóstico de la solvencia empresarial”, la introducción de las redes neuronales, en el análisis de datos, viene motivada por el deseo de mejorar los resultados que se alcanzaban con los modelos estadísticos, análisis discriminante y regresión lógica principalmente, que proporcionan regiones de decisión definidas a través de combinaciones lineales de sus variables, mientras que en las redes neuronales es posible la definición de regiones mucho más complejas y, por lo tanto, la reducción del número de elementos incorrectamente clasificados. Otra característica positiva que presentan las redes es que el conocimiento representado en las mismas es adaptativo, es decir, aunque el “aprendizaje” se realiza en el momento inicial con un número limitado de casos, posteriormente puede reentrenarse la red incorporando al conjunto de datos nuevos casos producto de las condiciones cambiantes del entorno o de información que no se disponía en momentos anteriores. Además, en muchas oportunidades la información base, suele constar de multitud de datos correlacionados, incompletos, erróneos o adulterados. Estas características son la materia con la que las redes neuronales proporcionan mejores resultados, ya que gozan de una elevada capacidad de filtrar los ruidos que acompañan a la información y de una alta tolerancia a las fallas. En ese mismo sentido, destacan las virtudes de las redes neuronales cuando los modelos a reconocer presentan variaciones.

No hay comentarios:

Publicar un comentario en la entrada