lunes, 28 de julio de 2014

Ética de la nanotecnología

Según el Diccionario de la Real Academia Española, ciencia se define como el conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales. La investigación es un tipo de actividad para mejorar y ampliar el conocimiento humano, generando inventos e innovaciones que necesitan precaución. El aumento del conjunto de conocimientos se ha interpretado como positivo para el hombre. Una corriente filosófica denominada positivismo ha especialmente confiado en la ciencia como una posibilidad de solución para muchos de los importantes problemas que aquejan a los seres humanos.

En palabras de Mitcham, en la obra “Enciclopedia de la Ciencia” escrita el año 2005, la ética es la parte de la filosofía que trata de la moral y de las obligaciones del hombre, y en el caso particular de la ciencia y tecnología, se encarga de realizar una reflexión crítica sobre el accionar humano en estos campos. Sgreccia, en el “Manual de Bioética” publicado el año 2002, complementa mencionando que existe una distinción entre los términos vida ética, ética descriptiva y ética normativa. Ética es la ciencia que estudia el comportamiento humano en relación a los valores, principios y normas morales. Ética descriptiva o ethos es el examen de las costumbres y de los comportamientos relativos a valores, principios y normas de una población o determinado hecho. Ética normativa estudia valores, principios y normas de comportamiento y busca sus fundamentos y justificaciones. Esta ética puede ser general, cuando se dedica a los fundamentos, valores, principios o normas, o especial donde se incluyen la ética económica y profesional.

Se habla a menudo de la nanotecnología, en sentido general, como una “plataforma tecnológica” o “tecno científica”; esto es, según Foladori, en el artículo publicado el año 2010 titulado “Las nanotecnologías en contexto”, no tanto de una tecnología distintiva y separada como de un variado conjunto de técnicas o procedimientos para “descomponer” las partes constituyentes de la naturaleza, como son esencialmente átomos y moléculas, y recomponerlas o reconstruirlas de acuerdo con las propiedades que se persiguen por ser de interés para las personas por los motivos que sea. Se piensa por tanto que con la nanotecnología se pueden hacer más eficientes los productos y procesos productivos, ya que tiene una gran capacidad para crear productos multifuncionales que pueden reducir la cantidad de materia prima utilizada en su fabricación, así como sustituir parte de las materias empleadas hasta ahora por otras que se supone ofrecen más ventajas.

La reflexión que plantean los investigadores Ott y Papilloud, en el artículo escrito el año 2007 titulado “Instituciones convergentes: Estableciendo relaciones entre las nanotecnologías, economía y sociedad”, acerca de que es una opinión bastante extendida entre los expertos el que la nanotecnología será la tecnología dominante de “propósito general” durante las próximas décadas. Una tecnología así se caracteriza por su: (a) universalidad u omnipresencia, lo que significa que puede ser dirigida a una multitud de usos; (b) complementariedad innovadora, es decir, que afecta a los procesos de innovación industrial en varias escalas y es afectada por ellos; y (c) una reorganización de los procesos de trabajo en la sociedad, es decir, un impacto en la transformación y desarrollo de las estructuras e instituciones sociales relacionados con las actividades productivas y económicas en general.

Pasado el primer lustro del siglo veintiuno, se debate con cierta vivacidad acerca de la existencia y oportunidad de una “nanoética”, es decir, de una reflexión y discurso específicos de carácter ético para los problemas que trae consigo, y acarreará en el futuro, el desarrollo de la nanotecnología. Se han publicado docenas de artículos y varios libros colectivos sobre la definición y alcance de una nanoética. Según Allhoff y sus colegas, en el libro escrito el año 2007 titulado “Nanoética: Implicaciones éticas y sociales de la nanotecnología”, se ha realizado un gran esfuerzo para aplicar la ética a las nanotecnologías con la misma meticulosidad y precisión demostrada en otras ramas de la ética aplicada, tales como la ética ambiental, la bioética, la ética médica, la ética de la ingeniería, etc. La efectividad del esfuerzo ha resultado mayor gracias a un creciente consenso sobre lo aconsejable de evitar discusiones abstractas sobre la nanotecnología, favoreciendo en su lugar el estudio de los programas nanotecnológicos, frecuentemente heterogéneos, que están en marcha.

lunes, 21 de julio de 2014

Biología de sistemas

Wagner y Fell, en el artículo escrito el año 2001 titulado “Pequeño mundo al interior de una gran red metabólica”, para entender muchas enfermedades y diversos procesos celulares, como la transmisión de señales y el metabolismo, es necesario pensar que los seres vivos están formados por diversos componentes celulares que trabajan de forma conjunta y no basta con analizarlos por partes. Hay que descubrir las redes de sus interacciones y analizarlas como un todo, desde los puntos de vista

topológico y dinámico. Este tipo de enfoque ha sido impulsado por los estudios de funciones moleculares puntuales y algunas de sus interacciones, desde una perspectiva reduccionista, pero los principios generales que rigen la estructura y función de las redes biológicas están siendo descubiertos gracias a la cooperación entre las ciencias genómicas, la biología celular, la bioquímica y la teoría evolutiva, echando mano del poder analítico de las llamadas ciencias sintéticas, como la ingeniería y la computación, dando lugar a la biología de sistemas. Según Jensen, en el artículo escrito el año 1976 titulado “Recrudecimiento de las enzimas en la evolución de una nueva función”, en la biología de sistemas se trata de unir más que separar, de integrar más que reducir. Por lo cual, se requiere que se desarrolle nuevas formas de pensar acerca de esa integración, que sean tan rigurosas como sus contrapartes reduccionistas, pero diferentes. Esto representa un cambio de filosofía en el sentido más amplio.

En palabras de Jordi Naval, en el artículo escrito el año 2010 titulado “La revolución pendiente: Cómo las nuevas tecnologías bioinformáticas permitirán la integración y comprensión de la biología y la medicina, y darán paso a la medicina predictiva, personalizada, preventiva y participativa”, la biología de sistemas es una nueva ciencia en desarrollo que tiene como objetivo integrar toda la información “ómica” existente, entre las que resaltan la genómica, proteómica y metabolómica, y ponerla en relación con fenómenos observables, por ejemplo, estados de salud, enfermedad o efectos de los medicamentos, mediante la construcción de redes de interconexión entre elementos biológicos, seguido del modelado de estas redes para explicar los efectos que pueden observarse. En términos habituales, se trataría de explicar y predecir los efectos de los medicamentos mediante el conocimiento y el modelado de las rutas bioquímicas implicadas en su mecanismo de acción.

Mayorga, en el artículo mencionado anteriormente, señala que una de las características generales de los métodos automatizados es que producen conjuntos enormes de resultados que sólo se pueden analizar haciendo uso intensivo de herramientas bioinformáticas para facilitar la organización y sistematización de la información. Es literalmente imposible analizar el resultado de estos estudios en forma manual. Por lo tanto, una de las características comunes a todos los estudios en esta área es el uso intensivo de herramientas matemáticas. En realidad, hay muchas otras áreas de la biología que utilizan este tipo de técnicas. El conjunto de los métodos utilizados se denomina bioinformática. El auge de la biología de sistemas con el uso intensivo de la bioinformática ha hecho que estos dos campos se mezclen sin que hoy en día haya una separación clara entre ambos. Debido a esto, la biología de sistemas ha adquirido un significado más amplio que el análisis de las grandes bases de datos y que está más relacionado con un modo de aproximación a la biología celular y molecular. Este modo, descrito en forma bastante somera, consiste en tomar un conjunto generalmente grande de datos experimentales, que se ordenan y analizan utilizando un modelo computacional a partir del cual se pueden formular hipótesis, las cuales se pueden validar experimentalmente. Los nuevos datos se utilizan para refinar el modelo y por consiguiente proponer nuevos experimentos.

El investigador Mayorga, continua señalando que, en realidad, la conjunción entre matemáticas, biología celular y biología molecular, tiene una larga y rica historia. Lo nuevo es que esta combinación se está haciendo popular por lo que es de esperar que se logren importantes avances en los años venideros. La demanda creciente ha generado la necesidad de científicos trabajando en bioinformática y biología de sistemas, por lo que se han creado departamentos y numerosas posiciones para llenar el vacío existente. Además, y dada la común ignorancia de los biólogos celulares en matemáticas, se han desarrollado numerosos programas, varios de ellos con interfaces para usuarios muy amigables de modo que pueden ser utilizados por cualquier científico interesado sin que necesite ser un experto en métodos matemáticos. Muchos de estos métodos utilizan una plataforma de lenguaje común, específicamente un lenguaje de marcado para su proceso en Internet, el denominado Lenguaje de Marcado de Biología de Sistemas, el cual se puede encontrar en el siguiente vinculo Web: http://www.sbml.org/index.psp, de modo que son compatibles entre sí. Todavía más, muchos de estos programas son de uso libre para los científicos y se pueden descargar sin mayores restricciones de la red de redes o Internet.

lunes, 14 de julio de 2014

Biología de sistemas

En palabras de Mayorga, en el artículo escrito el año 2008 titulado “Biología de sistemas y su aplicación en biología celular y molecular”, la ciencia moderna ha dado claras muestras de que puede manipular el mundo celular obteniendo resultados maravillosos e inimaginables hasta hace unos pocos años. Por ejemplo, es posible hacer que una bacteria sintetice una proteína humana o que una hormona aparezca en la leche de una vaca. Se pueden lograr plantas que resisten herbicidas y por lo tanto son más fáciles de cultivar o huevos con bajo contenido de colesterol. Se puede esto y mucho más manipulando los mecanismos moleculares a medida que se tiene la idea de cómo funcionan. Pero la palabra que se usa es manipular y no controlar. Porque la manipulación es por ahora una actividad burda y no un control acabado de los procesos celulares. Los investigadores son capaces de inhibir alguna reacción o activar otra. Es posible introducir nuevos elementos en una célula: Proteínas, ácidos nucléicos, lípidos, y con eso se altera su comportamiento, pero no se ha logrado un acabado control de ninguna función celular de cierta complejidad.

La célula continúa siendo una máquina cuyo funcionamiento sólo se entiende de manera parcial. Sin embargo, el volumen de información que se incorpora diariamente a las bases de datos es apabullante y pareciera que en pocos años todo lo que se podría saber sobre la célula estará a disposición de las personas. Pero esta es una falsa impresión. Los científicos se encuentran bastante lejos de entender cómo se coordinan todos los mecanismos celulares para dar una respuesta adecuada a cada situación que la célula debe afrontar. O sea, se sabe cuáles son los componentes de las células, se tiene bastante información sobre cómo se ensamblan la mayoría de estos componentes para dar las estructuras celulares, y se entiende con algún detalle cómo funciona la mayoría de estas estructuras en forma aislada, pero no se conoce lo suficiente para entender los mecanismos de control y regulación que permiten que todos estos componentes y estructuras coordinen para hacer que la célula funcione como una unidad que realiza las más diferentes y complejas tareas en forma eficiente.

Según Gough y sus colegas, en el artículo escrito el añ0 2001 titulado “Asignación de homología con secuencias del genoma utilizando una biblioteca de modelos ocultos de Markov que representan todas las proteínas de estructura conocida”, se considera que tres han sido los principales ingredientes para el boom de la teoría de redes en las ciencias biológicas. El primero, fue el hallazgo de la libertad de escala en una gran diversidad de tipos de redes, incluidas las biológicas, los temas multidisciplinarios en general son taquilleros. El segundo, es la amplia cantidad de información derivada de los estudios genómicos y proteómicos a gran escala, que pueden ser manejadas y entendidas con redes. Y el tercero, es la influencia de algunos investigadores de renombre, que sugirieron la necesidad de conjuntar los primeros dos ingredientes. En palabras de Bateman y sus colegas, en el artículo escrito el año 2004 titlado “Base de datos de la familia de proteínas Pfam”, a partir del año 2000 el estudio de las redes biológicas se ha enfocado en dos aspectos: El primero, en describir sus propiedades topológicas, tanto globales, como la libertad de escala y la existencia de módulos funcionales; como locales, dándose especial relevancia al agrupamiento y la formación de motivos. El segundo aspecto son los estudios dinámicos, en los cuales se trata de simular analíticamente o de dar seguimiento a cierto fenómeno, como el metabolismo, la trascripción génica, la señalización o la división celular. Como generalmente ocurre en la biología, la teoría evolutiva ha jugado un papel indispensable en la unión y entendimiento de estos aspectos.

lunes, 7 de julio de 2014

Algoritmo evolutivo de adaptación


Nesmachnow continúa mencionando que, diversas políticas para la selección y el reemplazo de individuos permiten modificar las características del algoritmo evolutivo. Aplicando políticas adecuadas es posible privilegiar los individuos más adaptados en cada generación, denominadas estrategias de elitismo, aumentar la presión selectiva sobre individuos mejor adaptados, generar un número reducido de descendientes en cada generación, con los modelos de estado estacionario, y otras muchas variantes. Los operadores evolutivos determinan el modo en que el algoritmo explora el espacio de soluciones del problema. Una gran diversidad de propuestas de operadores evolutivos ha surgido en los más de cuarenta años de vida de la computación evolutiva. Los diferentes operadores y las particularidades en su modo de aplicación dan características peculiares a las distintas variantes de algoritmos evolutivos. Los operadores de recombinación, que permiten combinar características de dos o más individuos con la idea de obtener descendientes mejor adaptados y los operadores de mutación, que introducen diversidad mediante modificaciones aleatorias, son los operadores evolutivos más difundidos. La condición de parada de la fase iterativa del algoritmo evolutivo usualmente toma en cuenta la cantidad de generaciones procesadas, deteniéndose el ciclo evolutivo al alcanzar un número prefijado de generaciones. Otras alternativas consideran la variación de los valores de adaptabilidad, deteniendo el ciclo evolutivo cuando el proceso se estanca y no obtiene mejoras considerables en los valores de adaptabilidad o estimaciones del error cometido respecto al valor óptimo del problema o una aproximación, en caso de conocerse.

El investigador Davis, en el libro escrito el año 1991 titulado “Manual de algoritmos genéticos”, menciona que las técnicas de hibridación refieren a la inclusión de conocimiento dependiente del problema en cuestión en un método de búsqueda, con el objetivo de mejorar el mecanismo de exploración del espacio de soluciones. La inclusión de conocimiento puede instrumentarse a nivel de la codificación empleada o a través de operadores específicos para la resolución del problema, diseñando los que se conocen como algoritmos híbridos fuertes. Una segunda posibilidad consiste en combinar dos o más métodos de resolución capaces de resolver el mismo problema, tratando de tomar ventajas de sus características distintivas para diseñar un nuevo algoritmo más preciso y más eficiente para la resolución del problema. De este modo se construyen los conocidos como algoritmos híbridos débiles. El algoritmo híbrido construido de esta manera define un nuevo mecanismo de exploración del espacio de soluciones del problema, que determina de qué modo y en qué momento se aplica cada uno de los métodos combinados, y cómo en los estados internos de cada algoritmo componente se reportan los resultados intermedios al otro algoritmo para que éste continúe la búsqueda. Usualmente, mediante el intercambio de pequeños conjuntos de soluciones parciales o de valores estadísticos es posible combinar algoritmos diferentes, diseñando algoritmos híbridos débiles de modo sencillo y con la posibilidad de esperar resultados eficientes y precisos en la resolución de un problema determinado.

El “algoritmo evolutivo de adaptación híbrida” fue propuesto por Gómez, en el artículo escrito el año 2004 bajo el titulo “Auto adaptación de las razones de los operadores en los algoritmos evolucionarios” y es presentado en un algoritmo evolutivo que desarrolla una técnica de control de parámetros híbrida, en la cual se mezclan técnicas de control de parámetros centralizadas y descentralizadas, donde cada individuo es evolucionado independientemente de los otros individuos de la población. En las generaciones del algoritmo, cada individuo selecciona solo un operador de un grupo de posibles operadores, tales operadores son seleccionados de acuerdo a una razón del operador codificada en el individuo que será actualizada utilizando un mecanismo de aprendizaje aleatorio, este mecanismo aleatorio se define localmente, por individuo, utilizando la probabilidad del operador genético y una probabilidad de aprendizaje. Si un operador no-unario es seleccionado, los padres adicionales son seleccionados utilizando alguna estrategia de selección, entre los descendientes producidos por el operador genéticos, sólo un individuo es elegido como hijo, y tomará el lugar de su padre en la siguiente generación. Para garantizar buenos individuos a través de la evolución, el algoritmo evolutivo de adaptación híbrida compara los padres contra la descendencia generada por el operador, el mecanismo de selección de la función “Mejor” determinará el descendiente que tiene el valor de adaptabilidad más alto. Sin embargo un padre es preservado a través de la evolución, si este es mejor que todos los posibles individuos generados aplicando el operador genético. Finalmente las probabilidades de los operadores son adaptadas de acuerdo al rendimiento alcanzado por la descendencia, comparada con la de sus padres y la probabilidad de aprendizaje generada.