lunes, 31 de marzo de 2014

Teoría del caos y fractales


El matemático franco-americano Benoit Mandelbrot trabajando en la IBM, desarrolló el año 1975 el concepto de geometría fractal, Mandelbrot es descubridor de uno de los más bellos y complejos conjuntos matemáticos como un neologismo derivado de la palabra latina fractus, estando aún por establecer una definición exacta y definitiva del término. Básicamente los fractales se caracterizan por dos propiedades: Autosemejanza o autosimilitud y autorreferencia. La autorreferencia determina que el propio objeto aparece en la definición de sí mismo, con lo que la forma de generar el fractal necesita algún tipo de algoritmo recurrente. La autosemejanza implica invarianza de escala, es decir, el objeto fractal presenta la misma apariencia independientemente del grado de ampliación con el que se lo mire. Por más que se amplíe cualquier zona de un fractal, siempre hay estructura, hasta el infinito, apareciendo muchas veces el objeto fractal inicial, contenido en sí mismo. De todas formas, no fue hasta los años 1970 que comenzaron a vislumbrarse las aplicaciones de los fractales. En su tan citada obra “La geometría fractal de la naturaleza”, Mandelbrot razonó que la naturaleza entiende mucho más de geometría fractal que de geometría diferenciable. La geometría fractal aborda el estudio de formas geométricas no diferenciables o quebradas a cualquier escala que se miren. La geometría diferenciable, por otra parte, asume que a pequeña escala formas que no lo son se suavizan, con lo que se pierde la perspectiva global del objeto. La geometría fractal ofrece un modelo alternativo que busca una regularidad en las relaciones entre un objeto y sus partes a diferentes escalas. El objeto se expresa como el límite de un proceso geométrico iterativo, el cual puede provocar en cada iteración una fractura o quebramiento de la suavidad que lleva a la ausencia de diferenciabilidad en el objeto límite.

En palabras de Al-Majdalawi, en el texto escrito el año 2006 titulado “Matemáticas en la vida cotidiana”, caos no es sinónimo de fractal, aunque a veces se hable de los temas conjuntamente, o se ilustren trabajos de caos con imágenes fractales. La geometría fractal suele considerarse como la geometría que describe los sistemas caóticos que se encuentran en la naturaleza. Los fractales son un lenguaje, una manera de describir una geometría. La geometría fractal describe en algoritmos, cómo crear el fractal. Las computadoras traducen estas instrucciones a los magníficos patrones que se consideran como imágenes fractales. Los sistemas caóticos no son aleatorios, ni desordenados, solo lo parecen. Detrás de su comportamiento aparentemente aleatorio hay un sentido de orden y patrones. Los verdaderos sistemas aleatorios no son caóticos. Los sistemas caóticos son determinísticos, significa que tienen una ecuación que determina su comportamiento. Las palabras claves del caos son: Impredictibilidad, sensibilidad a las condiciones iniciales, en tanto que el grupo de ecuaciones determinístico describe el fenómeno. Las palabras claves de los fractales son: Autosimilitud e invarianza en la escala. Muchos fractales no son caóticos como el Triángulo de Sierpinski, o las curvas de Koch. Aun así, partiendo de bases distintas, los dos ámbitos tienen mucho en común: muchos fenómenos caóticos exhiben estructuras fractales, en los atractores extraños por ejemplo; la estructura fractal también es obvia en fenómenos caóticos con sucesivas bifurcaciones como las ecuaciones logísticas o las poblacionales.

Al-Majdalawi continúa mencionando que el carácter fractal se manifiesta en el caos en varios aspectos. En primer lugar la geometría de los atractores extraños es fractal. Si se representan las órbitas de un atractor extraño y se amplían sucesivamente se puede observar la autosimilaridad propia de los fractales, en la que aparece y reaparece la misma estructura. Asimismo se han detectado estructuras fractales en algunas regiones separatrices de las cuencas de atracción de dichos atractores y en los denominados diagramas de bifurcación de aquellos sistemas en los que existe caos. Hasta no hace mucho tiempo un código implícito entre los científicos era que los sistemas sencillos se comportan de modo sencillo y que el comportamiento complejo era el resultado de causas complejas. La aparición de la “Teoría del Caos” viene a desmontar este prejuicio: Los sistemas sencillos pueden dar lugar a comportamientos complejos y los sistemas complejos no necesariamente llevan asociados respuestas complejas. Este conocimiento sin duda contribuye a una mejor comprensión del mundo, pero al mismo tiempo aleja la posibilidad de poder controlarla. Gracias a los descubrimientos de la teoría del caos y de la geometría fractal, los científicos han podido comprender cómo sistemas que anteriormente se creían totalmente caóticos, ahora exhiben patrones predecibles.

lunes, 24 de marzo de 2014

Teoría del caos y fractales

A finales del siglo diecinueve el gran matemático Poincaré, en el libro publicado el año 1892 titulado “Los métodos noveles de la mecánica celeste”, dio inicio, con sus estudios sobre la estabilidad del sistema solar, a los trabajos pioneros de lo que en el siglo veinte se ha ido configurando como la teoría del caos. Fue en la década de los años 1960 en la que gracias al desarrollo de las computadoras de alta velocidad y la aparición de importantes resultados matemáticos, como por ejemplo el teorema de Kolmogorov, Arnold y Moser para sistemas Hamiltonianos, descrito en el libro de Arnold publicado el año 1978 con el título “Métodos matemáticos de la mecánica clásica”, se pudo ahondar en estas ideas revolucionarias. Según el investigador Gleick, en el libro publicado el año 1987 con el título “Caos: La Creación de una Nueva Ciencia”, en las dos últimas décadas el interés por los fenómenos caóticos ha ido en aumento, extendiéndose a campos del conocimiento muy dispares y alejados de las matemáticas, erigiéndose en el cuerpo de doctrina que se conoce como “Dinámica no lineal”, descrito en el libro escrito el año 1981 por los investigadores Lichtenberg y Lieberman bajo el titulo “Movimiento regular y estocástico”. Una de las características que probablemente más ha contribuido a este desarrollo es el carácter multidisciplinar del caos. Existen muchas revistas especializadas que se encargan de la temática del caos, las más relevantes son: Chaos, International Journal of Bifurcation and Chaos, Physical Review, Physica; las cuales tratan específicamente esta problemática, y en ellas se describen ejemplos de conducta caótica muy variados, entre los que se encuentran las reacciones químicas, circuitos eléctricos, mecánica celeste, ecología, economía, vibraciones mecánicas, rayos láser y otros. Por otra parte, los fenómenos caóticos presentan a menudo comportamientos y conductas universales que derivan de la ubicuidad de los términos no lineales que los originan.

A fines del siglo veinte, el caos ha empezado a formar parte de la vida cotidiana de las personas, existiendo referencias en el séptimo arte tales como “Parque Jurasico” o “El Efecto Mariposa” y en la literatura con obras como “Caos y Orden” además de “Las Siete Leyes del Caos”. Lizcano, en las memorias del seminario “Las teorías del caos y los sistemas complejos” realizado el año 2006 menciona que, en primer lugar hay que destacar que, a diferencia de lo que ocurre en el lenguaje coloquial en el que el término caos es sinónimo de desorden o falta de estructura, cuando se habla en ciencia de caos se hace referencia al caos determinista. Es decir una conducta compleja e impredecible pero que se deriva de ecuaciones o algoritmos bien definidos matemáticamente; que incluso no necesitan ser muy complicados. Una de las definiciones operacionales quizás más sencilla y fácil de entender de caos es la de extrema sensibilidad a las condiciones iniciales. Es decir, existe caos cuando en un sistema dos sucesos que empiezan en condiciones iniciales muy próximas evolucionan de manera diferente de forma, que se separan exponencialmente en el espacio de las fases. Así, se puede decir que se pierde la memoria de las condiciones iniciales de que se partía. Esto tiene una consecuencia muy importante y es que en el régimen caótico es imposible realizar predicciones a largo plazo, ya que nunca se van a conocer las condiciones iniciales del sistema con infinita precisión.

Según Gleick, en el libro citado en párrafos anteriores, una forma de referirse al fenómeno del caos, que se ha hecho bastante popular, es el término efecto mariposa, que proviene del título de la conferencia pronunciada por Edward N. Lorenz el año 1972 en la ciento treinta y nueve reunión de la Sociedad Americana para el Avance de la Ciencia: “¿Puede el aleteo de una mariposa en Brasil desencadenar un tornado en Texas?”, en el que se quería enfatizar, con una imagen chocante, la dependencia extrema a las condiciones iniciales, mencionado en el libro escrito por Lorenz el año 1994 titulado “La Esencia del Caos”. Para entender el origen de esta separación exponencial en el régimen caótico, considere dos corchos que se dejan muy juntos en la corriente de un río. Mientras la corriente transcurra de forma suave en régimen laminar no caótico, las trayectorias seguidas por los dos corchos estarán muy próximas y estas a lo sumo se separarán de forma lineal. En cambio en las zonas del río en las que el flujo sea turbulento y las aguas formen remolinos los corchos se separarán rápidamente, con evoluciones totalmente diferentes.

lunes, 3 de marzo de 2014

“Diagen: Modelado e Implementación de un Framework para el Análisis Personalizado del ADN”

En palabras de Villanueva, en la tesis de máster escrita el año 2011 titulada “Diagen: Modelado e Implementación de un Framework para el Análisis Personalizado del ADN”, debido a que no es posible secuenciar todo el genoma simultáneamente y obtener un único electroferograma, éste se secuencia por trozos, denominados contigs o segmentos, y posteriormente se realiza un ensamblado de todos ellos. El proceso de secuenciación de un segmento es un proceso costoso que se realiza manualmente. Obtener una secuencia textual completa implica secuenciar, limpiar y corregir una gran cantidad de segmentos. Este es un proceso muy costoso que no aporta la suficiente información como para compensar el esfuerzo y tiempo empleado. Por esa razón, normalmente se selecciona la región del genoma de interés y se secuencia lo necesario. En aquellos casos en los que el objetivo de la secuenciación es realizar un pequeño análisis del acido desoxirribonucleico, únicamente se secuencia lo imprescindible. Los laboratorios no necesitan conocer el genoma completo, así que, las regiones que se suelen seleccionar para secuenciación son unidades más pequeñas del genoma: Los genes o, incluso, los exones de un gen. Para llevar a cabo los análisis de búsqueda de variaciones se secuencian los exones y se prescinde de los intrones. La razón por la que se prescinde de estas regiones es porque las variaciones que ocurren en los intrones no afectan, aunque existen excepciones en la creación de proteínas, y por lo tanto, en la aparición de enfermedades.

En resumen, se secuencian los exones, y aquellos que son más grandes y no se pueden secuenciar de una vez, se secuencian por segmentos y posteriormente se realiza el ensamblado. Se debe tener en cuenta que si se ha secuenciado más de un exón, los segmentos una vez ensamblados se agrupan en regiones disjuntas, es decir, una por exón. A la hora de secuenciar un exón, si este es muy largo, aproximadamente más de seiscientos nucleótidos, se divide en segmentos. Cada uno de estos segmentos se secuencia, como mínimo, dos veces. Así se obtienen dos secuenciaciones diferentes de la secuencia que se quiere obtener. Esto permite tener redundancia para la detección de fallos puntuales de secuenciación. En el marco de un análisis de variaciones para el soporte al diagnóstico, se selecciona un gen y los exones a secuenciar. Para la localización de los exones se utiliza una unidad de transcripción, que es una lista de posiciones que indican que regiones del gen son exones. Una vez secuenciados todos los segmentos necesarios se procede a reconstruir la secuencia, que consiste en ensamblar los segmentos y obtener la secuencia resumen, o representativa, de todos ellos. A la secuencia resumen obtenida se la denomina consenso.

El investigador Hormigo, en el libro mencionado anteriormente, señala que para realizar el proceso de ensamblaje, las denominadas lecturas se agrupan en contigs y estos contigs a su vez se ensamblan llenando los huecos que pueda haber entre ellos, debido a la existencia de secuencias de nucleótidos que se repiten muchas veces en el ácido desoxirribonucleico, mediante análisis de la coincidencia de los extremos de dos contigs con los de algún inserto que tengan en común, método de los “extremos apareados”, produciendo esqueletos, también llamados supercontigs o metacontigs. El alineamiento múltiple de secuencias en un contig produce la secuencia consenso. Los supercontigs definen el orden de los contigs, su orientación y el tamaño de los huecos entre los contigs. La topología del supercontig puede ser, a su vez, una secuencia simple o una red. El resultado de los ensambladores se puede medir por el tamaño y la precisión de sus contigs y supercontigs. La calidad del ensamblaje viene dada normalmente por datos estadísticos donde se incluye la longitud máxima, la longitud media, la longitud combinada total y el contig promedio. El contig promedio es una medida de la longitud media de un conjunto de secuencias y se define como el valor equis tal que al menos la mitad del genoma está contenido en contigs de tamaño mayor o igual que equis. Los estadísticos promedio no son comparables entre ensamblajes a menos que se calculen usando el mismo valor de sumatorio de longitudes.

Las tecnologías de secuenciación comparten una limitación fundamental: Las lecturas son mucho más cortas que el genoma del que proceden. Actualmente, las tecnologías de “secuenciamiento del genoma completo”, intentan superar esta limitación con la realización de un sobre muestreo o cobertura del genoma, la generación de lecturas cortas de posiciones aleatorias y, posteriormente, con la reconstrucción de la secuencia original mediante el programa de ensamblaje, pero este enfoque no asegura que los datos secuenciados sean completos por lo que es necesario tener en cuenta que pueden existir huecos no secuenciados. Igualmente los sistemas de secuenciación pueden generar errores de transcripción que se intentan resolver mediante la cobertura.