lunes, 9 de marzo de 2015

Modelado estadístico neuronal

Una de las formas convencionales de realizar un análisis comparativo entre modelos es confrontar las características relevantes a través de una tabla de doble entrada. El año 1994 Sarle, en el artículo titulado “Redes neuronales y modelos estadísticos” propone que se puede establecer una similitud entre modelos estadísticos y modelos de redes neuronales a través de la siguiente relación comparativa de términos: La “observación estadística” corresponde al termino “patrón” en redes neuronales; el termino estadístico “muestra” corresponde al termino “datos de entrenamiento” de las redes neuronales; en la terminología estadística “muestra de validación” corresponde al termino “datos de validación” de las redes neuronales; el termino estadístico “variables explicativas” corresponde al termino “variables de entrada” de las redes neuronales; el termino estadístico “variable de respuesta” corresponde al termino “variable de salida” de las redes neuronales; en la terminología estadística “modelo” corresponde al termino “arquitectura” de las redes neuronales; el termino estadístico “residual” corresponde al termino “error” de las redes neuronales; el termino estadístico “error aleatorio” corresponde al termino “ruido” de las redes neuronales; el termino estadístico “estimación” corresponde al termino “entrenamiento o aprendizaje” de las redes neuronales; el termino estadístico “interpolación” corresponde al termino “generalización” de las redes neuronales; el termino de la estadística tradicional “interacción” se corresponde con el término “conexión funcional” de las redes neuronales; el termino estadístico “coeficientes” corresponde al termino “pesos de conexión” de las redes neuronales; el termino estadístico “constante” corresponde al termino “pesos de umbral” de las redes neuronales; el termino de la estadística clásica “regresión y análisis discriminante” se corresponde con el término “aprendizaje supervisado o heteroasociación” de las redes neuronales; el termino estadístico “reducción de datos” corresponde al termino “aprendizaje no supervisado o autoasociación” de las redes neuronales; finalmente el termino estadístico “análisis de grupo” corresponde al termino “aprendizaje competitivo” de las redes neuronales.

Para el modelado estadístico de las redes neuronales artificiales, Sarle, en el artículo citado, presenta la siguiente equivalencia entre modelos estadísticos y modelos de red neuronal. (1) El modelo estadístico denominado “regresión lineal múltiple” es equivalente al modelo de red neuronal denominado “perceptrón simple con función lineal”; (2) El modelo estadístico denominado “regresión logística” es equivalente al modelo de red neuronal denominado “perceptrón simple con función logística”; (3) El modelo estadístico denominado “función discriminante lineal” es equivalente al modelo de red neuronal denominado “perceptrón simple con función umbral”; (4) El modelo estadístico denominado “regresión no lineal múltiple” es equivalente al modelo de red neuronal denominado “perceptrón multicapa con función lineal en la salida”; (5) El modelo estadístico denominado “función discriminante no lineal” es equivalente al modelo de red neuronal denominado “perceptrón multicapa con función logística en la salida”; (6) El modelo estadístico denominado “análisis de componentes principales” es equivalente a los modelos de red neuronal denominados “regla de Oja” y “perceptrón multicapa autoasociativo”; (7) El modelo estadístico denominado “análisis de grupos” es equivalente al modelo de red neuronal denominado “mapas autoorganizados de Kohonen”; (8) El modelo estadístico denominado “K vecinos mas cercanos” es equivalente al modelo de red neuronal denominado “vector de cuantificación de aprendizaje”; (9) El modelo estadístico denominado “Regresión kernel” es equivalente al modelo de red neuronal denominado “funciones de base radial”. De esta manera se pone de manifiesto que la mayoría de redes neuronales aplicadas al análisis de datos son similares y, en algunos casos, equivalentes a modelos estadísticos bien conocidos.

En el año 2002 Sarle, en el sitio Web de preguntas frecuentes acerca de las redes neuronales, menciona que un perceptrón simple puede ser considerado como un modelo lineal generalizado, debido a la equivalencia entre el concepto de función de enlace en un modelo lineal generalizado y la función de activación de la neurona de salida en un perceptrón: Donde el valor de la variable de respuesta, o variable de salida, se obtiene aplicando una función de enlace, o función de activación, sobre una combinación lineal de coeficientes o pesos y variables explicativas. Sarle, en el artículo del año 1994, menciona que una diferencia importante entre ambos modelos radica en el método de estimación de los coeficientes utilizados para minimizar la función de error. Mientras el perceptrón normalmente estima los parámetros del modelo mediante el criterio de mínimos cuadrados, es decir, intentando minimizar una determinada función, el modelo lineal generalizado ajusta el modelo mediante el método de máxima verosimilitud para una variedad de distribuciones de la clase exponencial. Sin embargo, el año 1995 Bishop, en el libro titulado “Redes neuronales para el reconocimiento de patrones” apunta a que el criterio de mínimos cuadrados, asumiendo un error con distribución normal, obtiene estimaciones máximo-verosímiles, tal como ocurre en el modelo lineal general. De forma similar, se puede aplicar el método de máxima verosimilitud a un perceptrón en tareas de clasificación binaria asumiendo un error con distribución de Bernoulli.

No hay comentarios:

Publicar un comentario en la entrada