Optogenética: Suena a ciencia ficción, pero es ciencia real

¿Te imaginas una tecnología con la que pudiéramos controlar a voluntad la función de cualquier célula con tan sólo presionar un interruptor de luz? Pues por futurista que suene e increíble que lo parezca, esa tecnología se viene desarrollando desde hace varios años y se llama optogenética. Actualmente, varios laboratorios alrededor del mundo emplean los métodos de la optogenética para investigar las bases biológicas de una variedad de condiciones como el autismo, las adicciones y la depresión. No obstante, se trata de una tecnología tan poderosa, versátil, y revolucionaria, que se cree que su posible impacto social, económico y médico es difícil de imaginar. La prestigiosa revista Nature Methods eligió en 2010, de entre todos los avances en las diferentes disciplinas de la ciencia y la ingeniería, a la optogenética como la “tecnología del año”.

La optogenética es resultado de la convergencia del conocimiento de diversas disciplinas científicas como la microbiología, la fotónica, la biofísica y las neurociencias. En este pequeño artículo, describiré brevemente cómo es que esta convergencia ocurrió, y te contaré sobre un invento increíble de los chavos de Backyard Brains, creadores del SpikerBox, y a quienes ya dedicamos un artículo anteriormente.  Para concluir, te compartiré una emocionante plática TED sobre el tema.

Las opsinas son un tipo de proteínas presentes en los fotorreceptores de la retina humana y de otros animales. Estas moléculas son esenciales para el sentido de la vista, pues convierten los fotones de luz que reciben nuestros ojos en impulsos eléctricos que son interpretados por el cerebro, de tal modo que éste emplea dichos impulsos para generar imágenes que nos permiten “ver” todo aquello que nos rodea. Existen también opsinas que desempeñan otras funciones. Por ejemplo, la melanopsina, que también se encuentra en la retina, no participa en la generación de imágenes, pero es parte esencial del sistema que regula el ritmo circadiano.

Peter Hegemann, Georg Nagel y sus colaboradores en Alemania, describieron en 2002 un nuevo tipo de opsinas, bautizadas como canalrodopsinas, que modulan la fototaxis (movimiento en respuesta a la luz) en una alga verde unicelular de la especie Chlamydomonas reinhardtii. Tres años más tarde, el grupo de Karl Deisseroth en la Universidad de Stanford, reportó un experimento en el que introdujo con éxito el gen de la Canalrodopsina-2 (ChR-2) en neuronas de hipocampo  de rata cultivadas en el laboratorio para modular su actividad neuronal con luz azul.

En los últimos años, se han dado múltiples avances en el campo de la optogenética. Ahora, es posible utilizar varias canalrodopsinas (ChR1, ChR2, VChR1 y SFO) para activar neuronas, y también es posible inhibirlas mediante otro tipo de opsinas, como la halorodopsina y la arqueorodopsina. Además, se han desarrollado líneas de moscas y ratones transgénicos que expresan una o varias de estas opsinas en algunas o todas las células del sistema nervioso. Se han hecho experimentos que demuestran la factibilidad de controlar el ritmo del latido de células cardíacas en cultivo o el crecimiento de células de la piel a través de la luz.

Otro avance importante se dió en 2009, cuando Hegemann y Deissenroth indujeron una mutación en ChR2 que dió origen a una proteína que, una vez que ha sido activada con luz azul, es capaz de mantenerse “encendida” hasta que sea apagada por medio de luz amarilla. Además, el gen de la proteína VChR1, aislado del alga multicelular Volvox carteri, es muy similar a ChR-2, pero con la diferencia de que es responsivo a la luz roja. Estos avances abren la posibilidad de excitar dos tipos diferentes de neuronas (o circuitos neuronales) al mismo tiempo, con dos fuentes de luz sintonizadas a diferentes longitudes de onda.

Un principio elemental en genética es el hecho de que los genes contienen una secuencia de DNA conocida como “promotor”, que hace las funciones de interruptor de encendido y apagado para cualquier gen. Estos interruptores son activados selectivamente por un tipo de proteínas conocidas como factores de transcripción, y cada factor de transcripción es capaz de regular decenas, cientos o hasta miles de genes de forma muy específica. Ciertos factores de transcripción están presentes en algunos tipos de células pero no en otros. Sabiendo esto, es posible restringir la expresión de las opsinas de interés a cierto tipo de neuronas (u otro tipo de células). Todo lo que hay que hacer es introducir, junto con el gen de la opsina un “promotor” específico para un factor de transcripción que es exclusivo del tipo celular en cuestión.

La optogenética se puede combinar con tecnologías como la resonancia magnética funcional. Lo cual permite, por ejemplo, activar una célula a nivel individual (por ejemplo, en un ratón anestesiado) y luego visualizar toda la actividad cerebral que ocurre como reacción en cadena en tiempo real. Así, es posible, por ejemplo, disectar circuitos neuronales completos (en ratones) que controlan conductas motoras o fisiológicas.

Hace unos meses, los chavos de Backyard Brains, en colaboración con FundScience, recaudaron USD $512.20 a través de donaciones por internet, con el fin de financiar el proyecto final de 5 estudiantes de ingeniería biomédica de la Universidad de Michigan. Dicho proyecto tenía por objeto desarrollar un prototipo de un equipo de optogenética de bajo costo que permitiera analizar moscas transgénicas responsivas a la luz (donadas por el laboratorio de Stefan Pulver). El prototipo permite conectar el SpikerBox al cerebro de la mosca (previamente anestesiada), y excitar sus neuronas con luz azul, para que el SpikerBox registre los picos neuronales resultantes. Los chavos de Backyard Brains han continuado trabajando en el protoripo y este año presentaron la versión 3.0 en la reunión anual de la Society for Neuroscience, en Washington, DC. A la derecha, puedes ver una imágen de su prototipo.

Tal como lo mencioné en el post anterior, reitero que existe una gran oportunidad para incorporar este tipo de tecnologías (como las de Backyard Brains) en programas de divulgación y educación que incentiven el interés del público no especializado por la ciencia. Sobre todo, en jóvenes estudiantes. Tecnologías como la optogenética van a cambiar el mundo, y entre más chavos en México se interesen y se preparen en éstas áreas, mayores oportunidades de progreso y desarrollo económico seremos capaces de generar. Me despido con un video imperdible de una plática TED de Ed Boyden, profesor del MIT que desarrolla tecnologías de optogenética. No olvides comentar y hacer preguntas. Ese es el fin de este espacio.

Link al video: Ed Boyden: Un interruptor de luz para las neuronas. (Cuando abras el enlace, podrás activar los subtítulos en español dentro del marco del video).

Acerca del Autor: Miguel E. Rentería es egresado de la UNAM y actualmente estudia un doctorado en genética y neurociencias en la Universidad de Queensland, Australia. Click aquí para ver otros textos del autor.

 

El Polo Norte no es un Continente [Parte 2 de 2]

En este punto es posible que estemos más confundidos que al inicio del post anterior, porque ahora podrían haber solo tres continentes, ¡o docenas de ellos! ¿Cómo solucionar este dilema? Quizá analizando más a detalle la estructura del planeta y partiendo de ella para definir algunos límites. Para ello, tendríamos que preguntar ¿qué es un continente para un geólogo?

Plataformas Continentales

Los geólogos definen a los continentes de una manera distinta a como se hace en tradicionalmente, siendo una de las formas en las que se define un continente la dada por la corteza continental, una plataforma de rocas metamórficas y rocas ígneas, en gran medida de composición granítica, que se distingue de la corteza oceánica por ser más dura y resistente a las deformaciones de la tectónica de placas. De esta forma, algunos continentes pudieran ser extendidos a los confines de una masa continua de tierra para incluir aquellas áreas adyacentes sumergidas en el mar conocidas como plataformas continentales, y aquellas islas que se encuentran dentro de esa plataforma continental formarían parte del continente. De esta forma, el dilema en cuanto a las Islas Británicas e Irlanda quedaría resuelto al formar parte de la masa continental en donde se encuentra Europa. Aunque introduce otros problemas, por ejemplo, el hecho que bajo este esquema, Australia y la isla de Nueva Guinea serían consideradas un continente (como ilustrábamos en la entrada anterior), pero Nueva Zelanda formaría junto a las islas de Nueva Caledonia un continente denominado Zealandia.

Zealandia

Otra de las maneras en las cuales se apoyan los geólogos para delimitar continentes es a través de la tectónica de placas. Según esta teoría, la corteza de nuestro planeta está dividida en placas tectónicas que "flotan" sobre el manto terrestre, y que se encuentran en constante movimiento. Para muchos geólogos, cada placa tectónica es un continente. Si consideramos esta forma, encontramos que tenemos los siguientes continentes/placas: la placa Antártica, la placa Australiana, la placa Euroasiática, la placa Sudamericana, la placa Africana.... hasta ahora, todo parece ir bien. Otras de las placas que existen son la placa Índica, la placa Arábica (lo cual podría inclusive justificar lo que se comentaba anteriormente sobre las diferencias culturales... y eso si dejamos a un lado que muchos consideran a la placa Índica y la Australiana como una sola). También tenemos... ¿la placa del Caribe? ¿la placa del Pacífico? ¡Si ahí casi no hay nada ahí que pudiera considerarse como "grande masa de tierra"! Las placas de Nazca, Cocos o la Escocesa... Bueno, tal vez.... Pero falta una, claro, la Placa Norteamericana, que resulta interesante porque además de contener lo que conocemos como Norteamérica, ¡también incluye una parte de Rusia, la mitad de Japón y la mitad de Islandia! Ok, creo que al final, pedirle ayuda a la Geología nos terminó de confundir más de lo que nos ayudó.

Placas Tectónicas

La raíz del problema radica en que la palabra "continente" no tiene una definición sencilla y consistente para el uso diario. El concepto "continente", lo queramos o no, está construido política, cultural e históricamente, y eso nos hace más sencillas las cosas que considerar cortezas continentales, placas tectónicas o definiciones estrictas. De esta ambigüedad surgen todos los debates en cuanto a si América es un solo continente, dos o tres (si consideramos a Centroamérica), o si el subcontinente Indio debe ser considerado aparte de Asia, así como el Medio Oriente, etc. Pero a pesar del debate, dichas construcciones alrededor del concepto de continente también nos ayuda a agrupar islas oceánicas y otros fragmentos continentales en grupos que facilitan su estudio. Por ello, consideramos que las Antillas y demás islas del Caribe son parte de América, y no nos repartimos a Islandia entre América y Europa, sino que la consideramos parte de Europa por razones históricas. Finalmente, es más sencillo considerar los archipiélagos e islas del Océano Pacífico junto a Australia como un continente llamado Oceanía, porque resulta más sencillo en términos políticos, aunque "estrictamente" no sea un continente.

Al final, aunque no nos fue posible dar una respuesta definitiva a la cuestión de cuántos continentes existen, y que siempre habrá debate al respecto, al menos el ejercicio nos sirvió para conocer más el método mediante el cual se puede analizar una pregunta tan sencilla como la que tratamos de resolver, haciendo uso de distintos conceptos básicos de geografía. A pesar de lo anterior, de lo único que podemos estar seguros es que el Polo Norte no es, ni será, un continente. Lo siento por Bieber.

"Deberíamos conocer más acerca de Geografía Básica que lo que sabemos acerca de la vida personal de los actores" (Fuente: failblog.org)

Para saber más:

Acerca del Autor

José Antonio Alonso es egresado de la Licenciatura en Ciencias Genómicas de la UNAM. Actualmente se encuentra estudiando una Maestría en Bioética en la Universidad de Pennsylvania.

Click aquí para ver otros textos del autor.

El Polo Norte no es un Continente [Parte 1 de 2]

Hace unas cuantas semanas, en el programa Late Show de David Letterman, el cantante canadiense Justin Bieber tuvo dificultades al momento de responder a una sencilla pregunta: ¿Cuáles son los continentes? El video se volvió viral en pocos días, y es probable que ya hayas reído un par de veces viendo como el joven cantante cree que Canadá y el Polo Norte son continentes. Por si aún no lo has visto, puedes verlo haciendo click aquí [video con subtítulos en español]

Sin embargo, la pregunta no deja de ser curiosa... ¿Cuántos continentes hay en el planeta Tierra? Si naciste en México y otros países Latinoamericanos, o en la mayoría de los países Europeos, la respuesta que te va a venir en mente de inmediato es 6: América, Europa, Asia, África, Oceanía y Antártida. Sin embargo, si le preguntas a alguna persona que estudió la primaria en un país anglosajón o en países como China, su respuesta va a ser un poco distinta: Norteamérica, Sudamérica, Antártida, África, Europa, Asia y Australia. Lo cual nos indica que no todo el mundo cuenta los continentes de la misma manera, y hay más de una manera de contar el número de continentes en el planeta, como podemos apreciar en la siguiente figura.

La definición más común sobre lo que es un continente es la siguiente: “Grandes extensiones de tierra separadas unas de otras por océanos”. Si nos apegamos a esta definición básica de continente, nos encontramos con algunos problemas. Problemas como los siguientes:

Mapa de Europa y Asia

Por un lado tenemos a Europa, y por el otro lado tenemos a Asia. Si observamos en un mapa ambos continentes, nos damos cuenta que no existe un océano que los separe, ¿cierto? Entonces, ¿por qué los consideramos continentes distintos? Bien, la razón práctica para esta división es una cuestión de índole cultural: Europa es tan distinta de Asia en cuestión histórica y cultural, que es mejor pretender que son dos entidades diferentes.

Ok. Tal vez haya un poco de razón en ello. Una definición más elaborada de "continente" nos indica que son grandes extensiones de tierra que se diferencian de otras por conceptos geográficos y culturales, como océanos y etnografía.

Pero si asumimos que el argumento cultural es válido, entonces seguramente también podría aplicarse en otros escenarios. Por ejemplo, ¿Qué sucede con India y con el Medio Oriente? Seguramente ambas regiones podrían ser consideradas como un continente distinto, basándose en las diferencias culturales que hay entre ellos y con las regiones colindantes. Si consideramos la premisa anterior como cierta, entonces caeríamos en una situación en dónde no terminaríamos de dibujar líneas cada vez más absurdas: ¿Es Brasil un continente aparte a Sudamérica? ¿Latinoamérica debería ser considerada un continente aparte de Estados Unidos y Canadá? ¿Qué pasa con el África subsahariana? Y así hasta que no haya más tierra que dividir...

Algunos también justifican la división entre Europa y Asia por la presencia de la cordillera de los Montes Urales, que atraviesa Rusia desde el Mar Ártico hasta el río Ural en Kazajistán, como la división natural de ambos continentes. Pero bajo este argumento, la cordillera de los Himalayas también podría ser un argumento perfectamente válido para suponer que existe una división no-cultural entre India y Asía, pero dicha división no se considera en términos prácticos tampoco. Otras cordilleras con mayor tamaño y relevancia podrían sentar la base para hacer otro tipo de divisiones. Consideremos las Montañas Rocosas en Norteamérica, o La Gran Coordillera Divisoria en Australia, las cuales no sientan las bases para delimitar distintos continentes aun siendo mayores que los Himalayas o los Urales.

Mapa de Eurafrasia

Por todo lo anterior, algunos autores desestiman la división cultural u orográfica entre Europa y Asia, y consideran que esa enorme masa de tierra es un solo continente: Eurasia (el cual no debe ser confundido con la Eurasia del libro 1984 de George Orwell).

Vale, todo suena bien. Esta visión la podemos extender a América también, para aquellos modelos que consideran que Norteamérica y Sudamérica son entidades distintas. Ambos están conectados en Panamá -o al menos lo estaban antes que Theodore Roosevelt decidiera que alguien tenía que cortar ese país a la mitad, y quién mejor que él para hacerlo. Aun considerando que el Canal de Panamá tiene una profundidad de 13 metros, cualquier persona puede comenzar una travesía desde el extremo septentrional de Alaska, caminar todo el camino hacia el sur atravesando Panamá, hasta llegar el extremo más meridional de América, en Chile. Entonces, a pesar de todo, Norteamérica y Sudamérica no están tan divididos.

El continente de Australia, que está conformado por la isla homónima, la isla de Tasmania y la isla de Nueva Guinea.

Ahora este ejemplo nos pone en otra situación un poco incómoda, porque si decidimos desechar el Canal de Panamá como un criterio que separe al continente Americano, también podríamos aplicar el mismo argumento para desechar la separación entre Eurasia y África, que están separados por el Canal de Suez, y terminarías con un mega-continente monstruoso de casi 85 millones de kilómetros cuadrados: Eurafrasia.

Con este modelo de cuatro continentes (América, Eurafrasia, Australia/Oceanía y Antártica), seguramente nuestra visión sobre los continentes debe estar completa, porque ya no hay más masas de tierra que unir y nuestra definición básica inicial es consistente. Excepto que no hemos realmente terminado porque aún queda por analizar otra parte de dicha definición: 'grandes'. Exactamente, ¿qué tan 'grande' debe ser una masa de tierra para ser "continentalmente grande"?

Imágen del lecho de roca de la Antártida. Esta imagen no considera las zonas que se inundarían si se derritiera todo el hielo del continente, ni las zonas que emergirían dado que no tienen encima la presión de todo el peso del hielo.

Recordemos que en algunas partes del mundo, el concepto de Oceanía como continente no es considerado como tal, y se considera a "Australia" como el continente más pequeño. En este modelo continental, la pregunta que surge de inmediato es si realmente Australia es el continente más pequeño o es algo así como "El Rey de las Islas". Si se considera a Australia como un continente, ¿por qué no considerar a Groenlandia? Es bastante grande, inclusive cuando no consideras todo el hielo que la cubre. Y hablando de hielo, ¿qué pasa con Antártida? Este continente olvidado, injustamente arrumbado en el fondo de los mapas porque casi nadie vive en él, parece ser enorme hasta que analizas lo que hay realmente bajo la superficie helada. Quítale todo el hielo a Antártida, y surge a la vista un archipiélago que no es la gran masa de tierra que pretende ser. Para complicar más las cosas, la isla más grande de este archipiélago es mucho más pequeña que "El Rey de las Islas". Dado el caso, si queremos seguir llamando "continente" a Antártida, bien podríamos llamar continentes a otras islas o archipiélagos. Es de ahí que en otros modelos continentales se considera que el continente no es Australia exclusivamente, sino Oceanía, que incluye dentro del continente a las islas vecinas en el Pacífico y a Nueva Zelanda. Pero bajo el mismo criterio, entramos en un debate de qué tan grande debe ser un archipiélago para ser considerado un continente. ¿Podríamos considerar a las Antillas, el conjunto de islas de delimitan el Mar Caribe, un continente aparte? ¿Podríamos considerar a la Gran Bretaña y la Isla de Irlanda, conocidas como las Islas Británicas, como un continente aparte? ¿Qué pasaría con Islandia?

Trataremos de responder a todas estas interrogantes en la siguiente parte de esta entrada.

¿Está el internet matando tus espermatozoides?

Como un hombre que pasa varias horas al día usando la computadora con el Wi-Fi encendido para tener acceso a internet, hay ciertas noticias que no pasan desapercibidas. Así, cuando la semana pasada encontré en mi lector de noticias el siguiente encabezado, no pude evitar alarmarme: "La radiación de las conexiones del Wi-Fi pueden reducir la actividad de los espermatozoides en un cuarto de los hombres, encuentra estudio" [noticia en inglés].

De acuerdo a varias noticias publicadas en distintos diarios, el estudio publicado el 30 de Noviembre en la revista científica 'Fertility and Sterility', recolectó muestras de semen de 29 hombres, dentro de un rango de edad de los 26 a los 45 años. Estas muestras fueron divididas en dos grupos. El primer grupo de muestras fue colocado debajo de una laptop conectada a internet a través de una conexión Wi-Fi mientras se realizaba una descarga de información por cuatro horas, mientras que la otra muestra fue colocada en condiciones idénticas de temperatura, pero lejos de la computadora y de cualquier otro aparato eléctrico. Los resultados indicaron que cerca del 25% de los espermatozoides de las muestras expuestas a la laptop con conexión Wi-Fi dejaron de nadar, en contraste con un 14% de los espermatozoides que dejaron de nadar en la muestra que se mantuvo alejada de la computadora (una diferencia del 11%). De manera similar, alrededor del 9% de los espermatozoides expuestos al Wi-Fi mostró daño en DNA, comparado con un 3% en la muestra control.

Total, que tras un ligero ataque de pánico auspiciado por el carácter alarmista de docenas de noticias que se generaron al respecto, con el potencial de convertirse en un mito urbano, y que ha estado circulando por las redes sociales por un par de semanas, decidí revisar con mayor detalle las implicaciones de este estudio. Al fin y al cabo, en un mundo donde cada vez es más común encontrarse una conexión Wi-Fi y dónde inevitablemente en algún momento tienes que usar alguna de ellas para acceder al internet, ya sea por trabajo o por simple diversión, es probable que la futura descendencia de un servidor se viera comprometida.

Lo primero que llama la atención es la manera en que el conocimiento científico se traduce en las agencias de noticias para ser difundido a la sociedad. Si recordamos el encabezado original, se menciona que las conexiones a internet a través del Wi-Fi pueden reducir la actividad de los espermatozoides en un cuarto de los hombres. Sin embargo, la observación del estudio indicaba que por cada muestra, habían encontrado que el 25% de los espermatozoides habían sido afectados en su capacidad de nadar (movilidad). Aquí encontramos un error básico que cometen varias agencias de noticias al momento de traducir los datos de un estudio a un lenguaje más accesible para el lector promedio; un encabezado más honesto, en este sentido, debería decir "La radiación de las conexiones del Wi-Fi pueden reducir la actividad de un cuarto de los espermatozoides en los hombres, encuentra estudio". Dicho de esta forma, ciertamente, la noticia es todavía más alarmante, porque ahora todos los hombres que usen una conexión al internet a través de Wi-Fi van a sufrir los efectos, a diferencia de la interpretación anterior en dónde aún existía la posibilidad de ser parte de aquel 75% de hombres cuyos espermatozoides no se verían afectados. El lector se preguntará, ¿Ya es momento de preocuparnos? No realmente.

Revisando a detalle la publicación original (que puede ser consultada al final del texto) encontramos que los autores suponen que existirá un daño a los espermatozoides por la forma en que se usa la computadora portátil. En la imagen que se muestra a continuación, podemos ver cómo el uso de la laptop en el regazo, cerca de los testículos, podría tener un efecto en los espermatozoides según los autores del estudio.

 

Imagen que muestra una manera común de utilizar una laptop.

 

Ahora, si bien es cierto que utilizar la laptop en las piernas puede ocasionar algunos efectos adversos (se han documentado casos de quemaduras en las piernas, tras una exposición de varias horas), lo cierto es que no es una constante en todos los usuarios el adoptar dicha posición. La pregunta en este caso sería si utilizar la laptop con el Wi-Fi encendido pudiera tener los efectos reportados por el estudio. En este punto es importante recalcar la diferencia entre estudios realizados ex vivo y estudios realizados in vivo. Los primeros son aquellos en los cuales se analizan muestras, tejidos, o células que han sido extruidas del organismo para su estudio y análisis. La investigación que se realizó en los espermatozoides es un ejemplo de un tipo de experimentación ex vivo, puesto que en este caso las muestras se analizaron fuera del cuerpo humano. Por el otro lado, los experimentos in vivo son aquellos que se realizan directamente sobre un organismo vivo, y en los cuales los efectos reportados son más informativos por tratarse de datos más apegados a la realidad. ¿Cómo afecta lo anterior al caso de los espermatozoides y el Wi-Fi? Bien, resulta que un espermatozoide cuando es eyaculado fuera del cuerpo es particularmente sensible a muchísimos factores, dado que no tiene la protección de otras células, tejidos y fluidos que el se encuentran en el cuerpo y en los cuales son necesarios para su supervivencia. De tal forma que no podemos realmente concluir que un hombre que usa una computadora, ya sea en el regazo o en un escritorio, sufra necesariamente un efecto directo en sus espermatozoides por el uso del Wi-Fi. Como el mismo estudio indica, el porcentaje de espermatozoides cuya movilidad se vio afectada en el grupo control que no tenía acceso al Wi-Fi fue de aproximadamente el 14%, lo cual confirma que no estar dentro del cuerpo es un factor que también afecta la movilidad de los espermatozoides.

Al final, no podemos decir que los estudios realizados en esta investigación sean conclusivos, aunque tampoco podemos desestimarlos. Por enumerar algunos de los posibles análisis que se deberían hacer en el futuro, podríamos pensar en analizar como distintas frecuencias de radiación de la señal del Wi-Fi afectan a los espermatozoides ex vivo, para determinar si la frecuencia a la cual existiera un daño considerable es cercana a las frecuencias que se utilizan en los distintos estándares bajo los cuales operan distintos tipos de conexiones Wi-Fi (que operan desde los 2.5 GHz hasta los 5 GHz, y que son similares a los de otros protocolos, como el Bluetooth). También sería conveniente confirmar las hipótesis que este estudio ha generado con una muestra más grande, dado que un estudio con sólo 29 participantes divididos en dos grupos resulta poco significativo en términos estadísticos. Finalmente, también sería conveniente analizar si los mismos efectos observados se dan in vivo, haciendo una comparación tanto del uso de la computadora en el regazo con el uso de la computadora en un escritorio.

Mientras tanto, podemos permanecer tranquilos. Ciertamente, aunque haya un efecto, las células germinales masculinas se regeneran constantemente, y están protegidas con la ropa que usamos y por nuestros propios cuerpos. Aun así, no sería mala tratar de usar la computadora en un escritorio y tratar de evitar nuestros regazos; se ha reportado el caso de un hombre que sufrió quemaduras en el pene tras usar la laptop en sus piernas por un periodo de tiempo considerablemente largo. Así que ya saben, para minimizar cualquier efecto negativo, por su bien y por el de sus futuros hijos, el escritorio es su mejor opción.

Referencia

Conrado Avendaño, Ariela Mata, César A. Sanchez Sarmiento, Gustavo F. Doncel. Use of laptop computers connected to internet through Wi-Fi decreases human sperm motility and increases sperm DNA fragmentation. Fertility and sterility 23 November 2011 (Article in Press DOI: 10.1016/j.fertnstert.2011.10.012)

Ver artículo [pdf]

 

Acerca del Autor

José Antonio Alonso es egresado de la Licenciatura en Ciencias Genómicas de la UNAM. Actualmente se encuentra estudiando una Maestría en Bioética en la Universidad de Pennsylvania.

Click aquí para ver otros textos del autor.

¿Una pastilla para potenciar la memoria?

Neurocientíficos del Baylor College of Medicine en Houston, Texas publicaron hace unos días en la revista Cell un descubrimiento que abre nuevas avenidas en el campo de la neuropotenciación cognitiva y aporta interesantes evidencias sobre cómo pequeños cambios en unos cuantos genes pueden representar ganancias muy considerables en términos de capacidades cognitivas. Los investigadores del Baylor buscaban caracterizar la función de la proteína PKR en el cerebro. Para ello, se valieron de ratones knockout (ratones modificados a través de ingeniería genética en el que uno —o varios— de sus genes son inactivados). Previamente, varios investigadores habían reportado la activación de PKR en respuesta a varios tipos de estrés celular. Por ejemplo, en infecciones virales, epilepsia y varias enfermedades neurológicas, como las de Parkinson y Huntington. Sin embargo, la función precisa de la proteína era desconocida.

Los ratones con el gen PKR noqueado (PKR -/-), son a simple vista iguales que los ratones normales. Sin embargo, cuando los investigadores los sometieron a un electroencefalograma, detectaron una actividad neuronal atípicamente elevada.

Existen dos tipos de sinapsis en el cerebro: excitatorias e inhibitorias. Se cree que es necesario un equilibrio entre ambas para mantener una función cerebral adecuada. Desequilibrios en éste balance de tipos sinápticos se han observado en pacientes con autismo y esquizofrenia. En el caso de los ratones PKR -/-, éstos mostraban un incremento en excitabilidad relativa, debido a una reducción en la transmisión sináptica inhibitoria.

Los investigadores también aplicaron varias pruebas conductuales a los ratones para medir su memoria y capacidades cognitivas. Para su sorpresa, descubrieron que los ratones knockout poseían una super memoria. El más claro ejemplo es el caso de la prueba del laberinto acuático de Morris, usada comunmente para medir la memoria visuo-espacial. En ésta, los ratones deben nadar en una pequeña piscina circular y encontrar una plataforma escondida, ayudándose de pistas visuales para recordar su ubicación (ver diagrama a la derecha). Los ratones normales necesitan hacer la prueba varias veces durante varios días para poder memorizar la ubicación de la plataforma. Los ratones sin PKR son capaces de memorizar el camino después de hacer la prueba una sola vez.

Para asegurarse de que la memoria aumentada no era resultado de cambios al proceso de desarrollo (por ejemplo, desarrollo embrionario) del ratón, los investigadores inyectaron una molécula inhibidora de PKR en el cerebro de ratones normales adultos, y observaron el mismo efecto. Además, mediante varios experimentos moleculares, demostraron que esta mejoría en la memoria es inducida por un gen llamado IFNG (interferón gamma), el cual incrementa su expresión en la ausencia de PKR. La inhibición de IFNG con RNA de interferencia en los ratones knockout, devolvió la actividad neuronal a un nivel similar al de los ratones normales, sin efectos adversos visibles. Esto demuestra que la manipulación genética no es necesaria para aumentar la memoria, y sugiere que, posiblemente, el uso de moléculas que selectivamente bloqueen PKR en humanos, podría también mejorar la memoria. Sin embargo, aún queda un largo camino por recorrer.

Hace apenas unas semanas, investigadores canadienses y chinos reportaron en un artículo en PLoS Genetics que habían identificado más de 60 genes únicos del linaje humano. Presumiblemente, éstos genes pues no están presentes en ninguna otra especie, ya surgieron a partir de mutaciones espontáneas en nuestros ancestros y que convirtieron regiones de DNA no funcionales del genoma en regiones funcionales (genes que se expresan y producen proteínas). Particularmente interesante resulta el hecho de que estos genes pequeños sean expresados preferentemente en dos tipos de tejido: la corteza cerebral y los testículos. En la corteza cerebral, por que apoya la teoría de que las capacidades cognitivas humanas son presumiblemente "superiores" a las de otros primates debido a diferencias genéticas; y en los testículos por que varias teorías han señalado que la meiosis que tiene lugar allí, sería responsable de generar diversidad genética dentro de la especie.

Ambos estudios tienen algo en común. Aportan evidencia de que unas pocas mutaciones en unas pocas zonas del genoma son suficientes para generar cambios substanciales en la función del cerebro, y por lo tanto conferir una ventaja cognitiva (por ejemplo, una "super memoria") a los portadores de tales mutaciones o variantes genéticas. Conforme más genes y sus interacciones se vayan identificando, el día en que una pastilla que nos permita potenciar nuestra memoria y capacidades de aprendizaje (y contender con diversas enfermedades neurodegenerativas) se vuelva comercialmente viable, se volverá más y más una realidad.

Acerca del Autor: Miguel E. Rentería es egresado de la UNAM y actualmente estudia un doctorado en genética y neurociencias en la Universidad de Queensland, Australia. Twitter: @mkrente Click aquí para ver otros textos del autor.

Referencias: Zhu, et al. Suppression of PKR Promotes Network Excitability and Enhanced Cognition by Interferon-γ-Mediated Disinhibition, Cell, Volume 147, Issue 6, 9 December 2011, Pages 1384-1396, ISSN 0092-8674, 10.1016/j.cell.2011.11.029. Wu, et al. (2011) De Novo Origin of Human Protein-Coding Genes. PLoS Genet 7(11): e1002379. doi:10.1371/journal.pgen.1002379

Resultados Proyecta 2011 ¡Tu ciencia, tu pasión!

Proyecta 2011 ¡Tu ciencia, tu pasión! ha llegado a su fin. Es momento de conocer a los ganadores.

1er lugar - Edgar Enrique Neri Castro, del Instituto de Biotecnología de la Universidad Nacional Autónoma de México, por su foto “Venenos de Serpientes”, con 1009 votos.

2do lugar - Ernesto Mata Plata, de la Licenciatura en Física de la Universidad Nacional Autónoma de México, por su video “La Ciencia desde Ciencias”, con 691 votos.

3er lugar - Yaxem López Sevilla, de la Licenciatura en Biología de la Universidad Nacional Autónoma de México, por su video “La magia de Merlín y los microRNAs”, con 587 votos.

Los ganadores de los tres primeros lugares se han hecho merecedores a $5,000, $3,000 y $1,000 pesos en efectivo, respectivamente. Además, Ernesto Mata Plata se ha hecho también acreedor a un premio adicional de $1,000 por haber obtenido la mejor evaluación por parte del jurado. ¡Muchas felicidades!

El top 10 de trabajos, lo completan:

Chiilbek”, de Galicia Fernanda Bernardez Rodriguez del Colegio de la Frontera Sur, en Quintana Roo.

Sofía la Científica”, de Ana Martha Yael Fonseca Guzmán de la Licenciatura en Ciencias Genómicas de la Universidad Nacional Autónoma de México.

Moléculas e Ingenio”, de Jorge Arturo González Ríos de la Maestría en Ciencias Bioquímicas de la Universidad Nacional Autónoma de México.

Estructura genética de Cedro en México mediante Microsatélites“, de Gabriela Iraís Salazar Rivera del Instituto de Ecología (INECOL) en Xalapa, Veracruz.

Ciencia Verde”, de Mónica Rodríguez Macedo de la Licenciatura en Biología de la Universidad Nacional Autónoma de México.

Comunicación de múltiples niveles de organización”, de Mónica Lissette García Gómez de la Maestría en Ciencias Bioquímicas de la Universidad Nacional Autónoma de México.

Cómo curar a mi abuelito”, de Elida Amaya Vicente de la maestría en Ciencias Bioquímicas de la Universidad Nacional Autónoma de México.

Más Ciencia por México agradece profundamente a todos aquellos que hicieron posible esta primera edición de Proyecta. Gracias al Instituto Mexicano de la Juventud por apoyar este proyecto a través de Impulso México. Asimismo, agradecemos a los miembros del jurado: Julia Tagueña, Agustín López-Munguía, Rocío Ledesma, Clementina Equihua, y Martín Bonfil Olvera,  que tuvieron a bien elegir los trabajos finalistas. Y sobre todo, gracias a todos los participantes. Sobra decir que superaron nuestras expectativas de participación. Nos dió muchísimo gusto recibir trabajos de Chihuahua, Coahuila, Distrito Federal, Guanajuato, Michoacán, Morelos, Querétaro, Quintana Roo y Veracruz. Gracias a todos por compartir su pasión por la ciencia.

Los 20 trabajos finalistas formarán parte de una exhibición itinerante que se presentará en espacios públicos de varias ciudades del país. Los detalles de la exhibición se irán dando a conocer a través del sitio web. Si estás interesado en ayudarnos en llevar la exhibición a tu ciudad, no dudes en escribirnos a contacto@masciencia.org.

Por último, los invitamos a mantenerse atentos, pues traemos varios proyectos muy interesantes para 2012, entre los cuales esta, por supuesto, una versión aumentada y corregida de Proyecta. Parte central de nuestra misión en Más Ciencia por México consiste en crear y mantener espacios de diálogo entre la comunidad científica y la sociedad. Te invitamos a hacernos llegar tus ideas, opiniones, recomendaciones y comentarios a través de la sección de contacto. Queremos escucharte.

Bacteriófagos: Reyes en la virósfera

Cuando escuchamos la palabra virus, la mayoría de nosotros piensa en enfermedades, en parte porque los virus, por ejemplo el VIH, son responsables de enfermedades terribles; de  hecho sólo el virus causante de la viruela es responsable de más muertes humanas que cualquier otra enfermedad, se le atribuyen 500 millones de muertes sólo en Europa entre 1400-1800. Otras enfermedades causadas por virus incluyen el resfriado común, la influenza, el SARS y el ébola; sin embargo, la enorme mayoría de los virus no interactúan directamente con los seres humanos, sino que infectan bacterias y tienen una influencia determinante, muchas veces ignorada, en la ecología global del planeta y en la evolución de los seres vivos.

Los virus son organismos que se caracterizan por tener un genoma pequeño, de DNA o RNA, que está protegido por una especie de cápsula hecha de proteínas que se llama cápside. Cuando los virus están fuera de una célula, son partículas inertes (denominadas viriones) que se mueven pasivamente hasta que entran en contacto con una célula susceptible; cuando esto ocurre, las proteínas de la cápside son capaces de reconocer señales en la membrana de la desafortunada célula y provocar la internalización del genoma del virus. Esto puede ocurrir de varias maneras, pero una vez dentro, el programa genético del virus se activa y secuestra la maquinaria celular, redirigiendo el flujo de energía y materiales hacia la producción de nuevos viriones, que eventualmente provocan el colapso de la célula (lisis), dispersando a los viriones y reiniciando el ciclo.

Los bacteriófagos (o simplemente fagos) son virus que infectan células bacterianas, y fueron descubiertos independientemente por Twört en 1915 y D’Herelle en 1917; siendo este último quién acuñó el término bacteriófago: comedor de bacterias. Aunque no podemos verlos, los bacteriófagos son el organismo dominante del planeta. A principios de los noventa se descubrió que en el mar hay 10 veces más viriones que células, y esta proporción ha sido observada en prácticamente todos los ambientes estudiados.  Las únicas dos excepciones son el tracto digestivo de pacientes en fase aguda de cólera, y en los pulmones de un paciente con fibrosis quísitica.

En la actualidad se estima que existen 10^31 viriones en el planeta; para darse una idea de lo que eso significa, la población humana es de 7 mil millones (10^9), y el número de estrellas en el universo observable es de sólo 10^24. Además de su gran número, los fagos son increíblemente diversos a nivel genético; aunque pueden clasificarse en sólo 20 grupos de acuerdo a la forma de su cápside, los científicos continúan encontrando nuevos genes cada vez que secuencían el genoma de nuevos fagos; y estudios metagenómicos arrojan que hasta el 80% de la información genética en los bacteriófagos no está relacionada a ningún organismo conocido. Las funciones de la mayoría de estos genes son desconocidas, y se acumulan más rápido de lo que los científicos pueden estudiarlos.

Cuando se encuentran dentro de una célula bacteriana, dos fagos son capaces de recombinar o intercambiar información genética entre ellos, lo que les permite incrementar su diversidad. Sin embargo, cuando algo “falla” en el plan del virus, y su genoma queda atrapado dentro de una bacteria sin ser capaz de reproducirse, la propia bacteria puede tomar genes del fago que le sean útiles, por ejemplo: que le otorguen resistencia a otros fagos, que le permitan eliminar a otras bacterias o -lo más interesante-  que le otorguen una nueva función. Desde hace años los científicos habían notado que la capacidad de metabolizar algunos azúcares, o incluso la toxina del cólera fueron adquiridas por las bacterias a través de fagos; pero el ejemplo más importante, tiene que ver con la fotosíntesis. Todos sabemos que las plantas realizan fotosíntesis, pero al menos el 20% de este proceso es realizado por un grupo de bacterias marinas llamadas cianobacterias, mediante un grupo de genes denominados pba. El descubrimiento de que estos genes se encuentran también en los fagos marinos, fue seguido por la observación de que el repertorio de genes pba de una cianobacteria depende de la profundidad en la que vive y de los fagos que la infectan, lo que indica que los bacteriófagos son esenciales para mantener la capacidad fotosintética de los océanos.

El lado depredador de los fagos, aunque temible, también es importante. Retomando al tema de la fotosíntesis, aunque el oxígeno es esencial para la vida, es tóxico en altas concentraciones. Si las cianobacterias pudieran reproducirse libremente, la concentración de oxígeno en la atmósfera se incrementaría terminando con nuestra existencia y la de la vida como la conocemos. Afortunadamente, los fagos matan entre el 20-40% de las bacterias marinas diariamente, manteniendo el equilibrio de los ciclos del oxígeno y del carbono en el planeta. Otra utilidad de los fagos como depredadores, es en el tratamiento de infecciones bacterianas; se trata de una idea muy vieja que fue abandonada cuando los antibióticos se popularizaron a mediados del siglo XX, pero ante la aparición de cada vez más cepas bacterianas resistentes a antibióticos, ha habido un resurgimiento del interés en esta aplicación, principalmente basado en la idea de que los fagos también evolucionan, y por lo tanto pueden responder a las adaptaciones de las bacterias.

Un último punto que me gustaría abordar es el de los bacteriófagos como modelos científicos. Gracias a su simplicidad, abundancia, diversidad y fácil manipulación, los fagos son modelos excepcionales y han estado en el frontispicio de la biología desde su descubrimiento. Gracias al estudio de los fagos: se zanjó en definitiva la polémica sobre la naturaleza del material genético;  se descubrió el papel del mRNA en el flujo de la información genética; se lograron elucidar los mecanismos básicos de regulación de la expresión genética y de la replicación del DNA; en los fagos se mapeó el primer gen, se descubrieron las enzimas de restricción y las modificaciones epigenéticas; y los primero genomas secuenciados también fueron de bacteriófagos.

Los virus son mucho más que sólo agentes causantes de enfermedades. Aquí he expuesto sólo la punta del iceberg de la virósfera (el mundo de los virus). Espero haber despertado su interés y agradezco a Más Ciencia por México por invitarme a participar, y no olviden visitar mi blog (link abajo).

Acerca del Autor: Sur Herrera Paredes es egresado de la Licenciatura en Ciencias Genómicas de la UNAM. Actualmente estudia el doctorado en Bioninformática y Biología Computacional en la Universidad de Carolina del Norte, EUA.  Además mantiene el blog de divulgación La Ciencia explicada.

Referencias: Rohwer & Vega Thurber. “Viruses manipulate the marine environment” (2009). Nature 459, 207-212. Sharon et al. “Viral photosynthetic reaction center genes and transcripts in the marine environment” (2007). The ISME Journal 1, 492-501. Zimmer. “A planet of viruses” (2011). University Of Chicago Press, 1st edition.

Genética de la estatura humana

Para la ciencia, el estudio de la estatura humana es un asunto añejo. Los primeros análisis se remontan al siglo XIX, cuando Francis Galton midió la estatura de 930 adultos y de sus padres. Después de hacer una pequeña corrección estadística que toma en consideración el hecho de que las mujeres son generalmente más bajas que los hombres, Galton descubrió que la estatura media de los padres estaba correlacionada con la estatura de sus hijos. Por ello, concluyó que la estatura era una característica heredable. Si los padres eran altos, el hijo solía ser alto y si los padres tenían baja estatura, el hijo tenía una alta probabilidad de ser bajo también. Sin bien el promedio de la estatura de los padres no predecía de forma exacta la estatura de los hijos, Galton estimó que alrededor del 66% si dependía de la estatura de los padres. En 1918, Ronald Fisher, uno de los biólogos más destacados del siglo pasado, planteó una forma para explicar la herencia de la estatura en humanos. Fisher propuso que un gran número de factores mendelianos ―lo que hoy llamaríamos genes ― incidían en la herencia de la estatura humana. Fisher desarrolló una teoría matemática y con su propuesta, pudo explicar no sólo la correlación en la estatura entre padres e hijos sino también entre otros parientes más lejanos. Él mostró que una menor correlación en estatura se debía a más diferencias en el material genético entre parientes. En las épocas de Fisher no se sabía aún que los genes estaban compuestos de DNA y que el DNA era la molécula encargada de transmitir la información biológica de una generación a otra. Noventa y tres años después, los avances científicos y tecnológicos nos permiten tener no sólo un mapa completo de todo el genoma, sino también caracterizar millones de variantes comunes en el genoma de una persona en poco tiempo y a un costo razonable. Esto ha permitido a los científicos comenzar a descifrar cuántos y cuáles genes son los involucrados en determinar la estatura de una persona.

En la actualidad existe un consenso respecto a que, en promedio, 80% de las diferencias observadas en la estatura entre personas se deben a causas genéticas. El otro 20% se atribuye a causas no-genéticas y ambientales ―como la nutrición y la exposición a diversas a enfermedades. Los estudios genéticos más recientes se han enfocado en identificar todas aquellas variantes genéticas que contribuyen a determinar ese 80% de las diferencias en estatura entre personas debidas a causas genéticas.

Una de las metodologías más poderosas que existen hoy en día para encontrar tales variantes en el genoma se conoce como Estudio Genómico de Asociación. Consiste en interrogar la secuencia genética de miles de personas en cientos de miles o millones de sitios específicos en el genoma. Los sitios interrogados son elegidos porque se sabe que muestran cierta variación de persona a persona. Posteriormente, se aplican pruebas estadísticas a cada uno de esos sitios para determinar qué tan probable es que tengan un efecto en la estatura (o cualquier otro rasgo de interés). Cabe recalcar que aquellas variantes que tienen un efecto en la estatura y pasaron muchos filtros estadísticos, localizadas en posiciones que llamaremos sitios asociados, comúnmente no son las responsables directas de los cambios en la estatura. Lo que sucede es que los sitios asociados se encuentran en regiones cercanas al sitio causante del efecto, al que llamaremos sitio causal, en el DNA. El sitio causal generalmente está en un gen o una región del DNA cercana a ese gen y cuya función es regular su actividad.

Uno de los estudios más recientes, publicado apenas en el 2010, fue el fruto de la colaboración organizada de más de 200 grupos de todo el mundo y utilizó datos de más de 180,000 personas. El estudio genético más grande jamás hecho en términos del número de participantes. Los investigadores lograron encontrar 180 sitios en el genoma asociados con cambios en la estatura, lo cual se podría considerar un gran éxito. Además, muchos de estos sitios se encontraban cerca de genes que participan en mecanismos biológicos que promueven el crecimiento del esqueleto.

Retomando el estudio anterior, se observó que al sumar el efecto de los 180 sitios asociados con cambios en la estatura, éstos explicaban el 13% de las causas genéticas que tienen un efecto en la estatura. Entonces, ¿dónde está el 87% restante? El estudio argumenta que si se toma una muestra de individuos más grande ―alrededor de 300,000 más― se podrían encontrar más sitios que expliquen en conjunto el 20% de las causas genéticas que afectan la estatura. Bien, ¿Y el 80% restante? No se sabe a ciencia cierta. De hecho, esto es motivo de debate dentro de la comunidad científica. Se sabe que un porcentaje de las causas genéticas no encontradas se debe a varias posiciones en muchos genes que tienen un efecto pequeñísimo en la estatura. Otros elementos del genoma que se sugiere que influyen en la estatura son variantes genéticas de muy baja frecuencia en la población. Además, otros estudios recientes han encontrado otro tipo de variaciones genéticas que afectan la estatura, como genes duplicados, que son difíciles de detectar a menos que se tenga la información completa de todo el genoma. Con todo esto podemos concluir que más de de 90 años después, los descubrimientos avalan las ideas de Ronald Fisher: la estatura humana es una característica heredable que depende de una enorme cantidad de genes.

Conocer la localización precisa de los genes y las variantes genéticas que influencian la estatura es sólo el inicio. Por supuesto, después habrá que hacer un meticuloso estudio de su función para ver cómo funcionan en conjunto en la célula y el cuerpo humano. Otro de los retos será encontrar los mecanismos genéticos causantes de la relación de la estatura con ciertas enfermedades, como es el caso de la diabetes tipo 2 y la osteoartritis. Por ello, las bases genéticas de la estatura humana seguirán siendo material de estudio en el futuro.

Acerca del autor: Diego Ortega Del Vecchyo es licenciado en Ciencias Genómicas por parte de la UNAM. Actualmente realiza un doctorado en Bioinformática en la Universidad de California, Los Angeles.

Referencias: En la foto (arriba), el turco Sultan Kosen de Turquía quien posee el record Guiness como el hombre vivo más alto en el mundo, con 2 metros 51 centímetros de estatura (Foto: AAP). Galton, F., Regression Towards Mediocrity in Hereditary Stature, The Journal of the Anthropological Institute of Great Britain and Ireland (1886) vol. 15 pp. 246-263. Fisher, R. , The Correlation between relatives on the supposition of Mendelian Inheritance, Transactions of the Royal Society of Edinburgh (1918), vol. 52, pp. 399-433. McEvoy, B.P. and Visscher, P.M., Genetics of human height, Economics and Human Biology (2009), vol. 7, pp. 294-306. Allen, H. L. et al., Hundreds of variants clustered in genomic loci and biological pathways affect human height (2010), pp. 832-838. Lindgren CM, Heid IM, Randall JC, Lamina C, Steinthorsdottir V, et al. (2009) Genome-Wide Association Scan Meta-Analysis Identifies Three Loci Influencing Adiposity and Fat Distribution. PLoS Genet 5(6): e1000508. doi:10.1371/journal.pgen.1000508

Relaciones amorosas y estilos de apego emocional

Hace tiempo leí en Scientific American MIND un artículo sobre los distintos tipos de apego emocional que existen y cómo influyen en nuestras relaciones interpersonales (en específico, las relaciones de pareja). El tema me parece de lo más interesante, así que me animé a escribir al respecto para el blog.

Para empezar, pongamos un poco de contexto. La teoría del apego, sostiene que la capacidad que poseemos los humanos (y varias otras especies de mamíferos y aves) de formar vinculos afectivos con otros seres surgió como una tendencia de adaptación que permitiera mantener la proximidad de la cría hacia la figura del progenitor. Un recién nacido no está equipado para sobrevivir sin la ayuda de figuras protectoras que lo alimenten, brinden calor y lo auxilien en circunstancias en las que se enferma o se lastima. Por lo tanto, la capacidad de desarrollar este apego, representaría una ventaja evolutiva que sería favorecida por la selección natural.

Numerosos estudios en el campo de las neurociencias del comportamiento y la psicología han estudiado las relaciones entre padres e hijos. Una de las contribuciones más importantes en el área, fué sin duda el descubrimiento de Mary Ainsworth, quien al estudiar las diferencias en la calidad de la interacción madre-hijo en Uganda, identificó tres patrones principales de apego: seguro, inseguro e indiferente.

(a) Los niños con un apego seguro, lloran poco y se muestran contentos cuando exploran en presencia de la madre;

(b) Los niños con un apego inseguro o ansioso, lloran frecuentemente, incluso cuando están en brazos de sus madres; mientras que

(c) Los niños de apego indiferente evasivo, no muestran apego ni conductas diferenciales hacia sus madres.

Los infantes de estilo seguro se apoyan en el respaldo emocional que proveen sus madres para explorar su entorno, aprender y prosperar, así como para encontrar consuelo cuando se encuentran molestos o cansados. Mientras que los de estilo inseguro, viven demasiado preocupados y con un miedo constante a ser abandonados por su madre, por lo que requieren de tenerla a la vista todo el tiempo. Por otro lado, aquellos con un perfil de apego indiferente parecen ser independientes y no necesitar (o ser incapaces de generar o sentir la necesidad) de la presencia materna para encontrar apoyo en momentos de necesidad.

 

OK, quiero suponer que hasta aquí vamos bien. Hagamos una pausa para dar tiempo de que vayas a preguntarle a tu mamá qué tipo de apego mostraste cuando eras un(a) bebé. Es más, si quieres hacer esto más interesante, puedes preguntarle a tu suegra qué tipo de estilo de apego tuvo tu pareja. Por que, según estudios recientes, estos estilos de apego individual permanecen en nuestro cerebro e influencían el tipo de apego emocional que empleamos cuando adultos al establecer relaciones amorosas:

De adultos, las personas con estilo seguro tienden a desarrollar modelos mentales de sí mismos como amistosos, afables y capaces, y de los otros como bien intencionados y confiables, ellos encuentran relativamente fácil intimar con otros, se sienten cómodos dependiendo de otros y que otros dependan de ellos, y no se preocupan acerca de ser abandonados o de que otros se encuentren muy próximos emocionalmente.

Las personas con estilo ansioso tienden a desarrollar modelos de sí mismos como poco inteligentes, inseguros, y de los otros como desconfiables. Buscan intimar con otros, pero siempre tienen miedo al rechazo, se preocupan constantemente de que sus parejas no los quieran y sienten temor al abandono. Son particularmente celosos(as) y posesivos(as) en sus relaciones.

Mientras que los individuos con estilo evasivo, desarrollan modelos de sí mismos como suspicaces, escépticos y retraídos, y de los otros como desconfiables o demasiado ansiosos para comprometerse en relaciones íntimas, se sienten incómodos intimando con otros y encuentran difícil confiar y depender de ellos. Otorgan particular importancia a la realización personal. Y defensivamente, desvalorizan la importancia de los vínculos afectivos.

Dado que las expectativas y comportamientos de cada estilo de apego son extremadamente diferentes, es lógico pensar que las distintas combinaciones de personas tengan diferentes grados de compatibilidad y afecten las dinámicas de pareja. Por ejemplo: ¿Qué pasa si una chava ansiosa decide andar con un chavo evasivo? Aún suponiendo que su amor sea sincero y genuino, es probable que ella viva pensando constantemente que él no la quiere (debido a su inseguridad), lo cual será reforzado por el hecho de que él vivirá evitando el compromiso (o apego emocional).

El caso anterior es quizás exagerado. Por lo que creo que vale la pena hacer varias precisiones:

1) Existe también un cuarto estilo de apego, conocido como tímido.

2) La distribución del grado de apego para cada estilo de apego sigue una distribución normal a nivel poblacional. De hecho, no son poco comunes los casos de personas que presentan combinaciones de dos tipos de apego. Por ejemplo, seguros y evasivos (en distintas proporciones).

3) Los patrones de comportamiento de los diferentes estilos de apego, son bastante estables. Esto quiere decir que no cambian en el ~80%  de las personas, y que la única forma de cambiar o corregir comportamientos no deseados, es a través de terapia.

Para no hacer el post muy largo, voy a parar aquí. No sin antes: (1) Invitarte a comentar qué te pareció el artículo y sugerirme temas de neurociencias ó genética sobre los que te gustaría que escribiera en el blog, y (2) Dejarte la opción de dar click al siguiente link para que descargues el artículo completo de Scientific American MIND [en inglés]: (Get Attached).

_________________________________________________

Acerca del autor: Miguel E. Rentería es egresado de la UNAM y actualmente estudia un doctorado en genética y neurociencias en la Universidad de Queensland, Australia. Twitter: @mkrente

Otros textos del autor: El reto Pepsi dentro de un escáner cerebral Cucarachas biónicas para la enseñanza de las neurociencias

Finalistas Proyecta 2011 [Videos]

Nota importante acerca del número de votos:

La manera en la que se contarán los votos será por la cantidad de “me gusta” que al final tenga cada imagen o video participante. El botón de Facebook tiende a inflar este número sumando las veces que se ha compartido o se ha hecho un comentario sobre el enlace; por lo que el botón en la página de cada trabajo finalista reporta un número mayor al real de votos*. El número de votos oficial que será utilizado será por el arrojado por el API de Facebook.

* Para mas información sobre este fenómeno (sitio en inglés)

A continuación te presentamos las 6 videos finalistas de "Proyecta 2011: ¡Tu ciencia, tu pasión!".

Instrucciones

Dá click en la imagen para ir a la página del video. Podrás votar dando click en el botón "Me gusta" de Facebook que encontrarás en la página individual del video.

No olvides compartir tus fotos y videos favoritos con tus amigos y conocidos. La votación estará abierta hasta el 7 de diciembre de 2011 a las 23:59 horas. Recuerda que solamente hay una categoría y tanto fotos como videos compiten entre si.

¡Mucha suerte!

Finalistas Proyecta 2011 [Fotos]

Nota importante acerca del número de votos:

La manera en la que se contarán los votos será por la cantidad de “me gusta” que al final tenga cada imagen o video participante. El botón de Facebook tiende a inflar este número sumando las veces que se ha compartido o se ha hecho un comentario sobre el enlace; por lo que el botón en la página de cada trabajo finalista reporta un número mayor al real de votos*. El número de votos oficial que será utilizado será por el arrojado por el API de Facebook.

* Para mas información sobre este fenómeno (sitio en inglés)

A continuación te presentamos las 14 fotos finalistas de "Proyecta 2011: ¡Tu ciencia, tu pasión!".

Instrucciones

Da click en la imagen para ver una breve descripción del trabajo, y da click en la imágen (otra vez) para ver la versión completa de la foto.

Para votar, da click en el botón "Me gusta" de Facebook que encontrarás en la página individual de la fotografía.

No olvides compartir tus fotos y videos favoritos con tus amigos y conocidos. La votación estará abierta hasta el 7 de diciembre de 2011 a las 23:59 horas. Recuerda que solamente hay una categoría y tanto fotos como videos compiten entre si.

¡Mucha suerte!

Para vivir 100 años

La Fundación X Prize es una organización sin fines de lucro cuyo principal objetivo es catalizar el desarrollo tecnológico en diferentes áreas mediante la competencia. Esta fundación otorga premios a proyectos en las áreas de educación y desarrollo global, energía y ambiente, ciencias de la vida y exploración del espacio y los océanos.

Un “Premio Equis” o “X Prize” es un premio de al menos 10 millones de dólares que se otorga al primer equipo en alcanzar el objetivo del premio en el área específica. Recientemente se anunció la nueva modalidad del Archon X Prize en Genómica. Originalmente este premio fue anunciado en 2006 donde el gran premio sería otorgado al primer equipo que pudiera sequenciar 100 genomas  en 10 días o menos con una cobertura de al menos 98% y una exactitud de 99.99% a un costo de no más de 10,000 dólares por cada genoma. Sin embargo y a pesar de los avances en tecnologías de secuenciación, este premio no se ha otorgado y más bien ahora ha “evolucionado”. Justo cinco años después, el pasado mes de octubre, la Fundación X Prize anunció las nuevas reglas y objetivos del Archon X Prize en Genómica que además ahora se ha fusionado con el Premio Venter y es patrocinado por la compañía Medco.

Imagen de un centagenario

Así pues, las nuevas fechas y reglas de la competencia son que a partir del 3 de enero y hasta el 3 de febrero de  2013 todos aquellos equipos que quieran competir deberán secuenciar 100 genomas en 30 días con una exactitud de máximo 1 error en 1 millón pudiendo identificar acertadamente todo tipo de variantes por un precio máximo de 1,000 dólares por genoma. Más aún, originalmente la Fundación X Prize decidiría y proveería las 100 muestras a secuenciar que serían de diversos individuos voluntarios; en el nuevo formato del premio con el patrocinio de Medco ahora ésto se ha modificado ligeramente y enfocado en el “Medco 100 arriba de 100” (Medc o 100 over 100), donde el objetivo es que las muestras a secuenciar para el X Prize sean de 100 centagenarios (100 años o más) de alrededor del mundo.

¿Por qué centagenarios?

Además de que la idea puede sonar curiosa e interesante, ésta no es tan descabellada científicamente. Actualmente, la mayoría de los estudios de investigación que pretenden descubrir la causa genética de alguna enfermedad compleja como diabetes, hipertensión, cáncer, esquizofrenia, etc. comparan gente con la enfermedad (casos) con gente que no tiene la enfermedad (controles) para tratar de encontrar las diferencias entre ambos grupos y entonces decir ¡ajá, esta diferencia causa la enfermedad! Sin embargo, aunque en teoría parece bastante lógico y sencillo, en la práctica es mucho más difícil y complicado. Esto se debe a varios factores, pero en parte es la elección de los controles. ¿Quién es un buen control y quién no? Un control es una persona aparentemente “normal” que en el momento del estudio es “saludable” o al menos no presenta la enfermedad que se está estudiando en los casos. Sin embargo, en pocos estudios se hace una evaluación completa de la salud y antecedentes de los controles y mucho menos se les da seguimiento. Parte del debate es que en algunos casos, los sujetos control pueden tener una predisposición genética a la enfermedad estudiada u otra enfermedad pero que todavía no desarrollan y esto puede confundir la interpretación de los datos. Es por esto que la elección de centagenarios podría hacerlos los “mejores controles” dado que son individuos que lograron llegar a la edad máxima humana sanos y salvos. De esta forma, se puede utilizar la información genética de estos centagenarios como un marco de referencia “normal y saludable” para comparar y buscar aquellas variantes en los casos que les da susceptibilidad a desarrollar la enfermedad de estudio.

Por otro lado, se cree que al secuenciar a estos individuos de 100 años o más se podrán descubrir e identificar variantes en el genoma humano que brindan “protección” a enfermedades o que “ayudan” a vivir más. Esto último probablemente será más complicado de probar o siquiera encontrar. No todas las variantes que se encuentren en estas personas conferiran protección ni mucho menos ayudarán a vivir más; es importante recordar que la calidad y duración de vida de cualquier persona no sólo depende de sus genes, sino de su estilo de vida y el ambiente en el que crece y se desarrolla. Para vivir 100 años o más no sólo basta tener “buenos” genes, sino también buena vida.

Habrá que esperar poco más de dos años para ver los resultados de esta competencia, sin embargo aún si el objetivo no es alcanzado por un solo equipo o compañía, el esfuerzo de secuenciar 100 genomas más con gran precisión contribuirá a nuestro mayor entendimiento del genoma humano y su variación.

 

Para saber más acerca de este proyecto:

http://www.nature.com/ng/journal/v43/n11/full/ng.988.html

 

Amigable, limpia y casi inagotable: Fusión nuclear (parte 1)

Hoy en día la palabra nuclear está altamente descalificada en torno a la producción de energía eléctrica a través de procesos de fisión nuclear.Es una realidad la existencia de un miedo nuclear en nuestra sociedad y recientemente tal miedo está asociado a catástrofes y accidentes nucleares ocurridos en la historia de la humanidad. Ejemplos  sui generis   como Chernobyl, Three Mile Island o Fukushima nos ha llevado a la conclusión de que los reactores de fisión nuclear debido a su mantenimiento, vulnerabilidad ante accidentes y su producción de deshechos, los coloca como una opción desconfiable (1) aunado a su alto costo económico y ambiental.

Imagen de reactor de fisión nuclear

Sin embargo, existe otro proceso nuclear que está en la mira como una solución potencial al problema energético: la fusión nuclear. Este fenómeno ocurre cuando dos núcleos ligeros se unen para formar uno pesado junto con la generación de energía. Por ejemplo, la fusión nuclear ocurre de manera natural en el interior del Sol donde átomos de Hidrógeno se fusionan formando Helio y neutrones. Aquí el papel que juega la temperatura y la presión en el núcleo solar son fundamentales para que esta reacción se lleve acabo (P = 10ˆ16 Pa, T = 15 millones °C). Para que se tenga una idea del orden de magnitud, la presión atmosférica a nivel del mar es de 10ˆ5 Pa (2) y en el interior de la Tierra de  10ˆ11 Pa (3). Entonces, ¿Se pueden lograr estas condiciones en un laboratorio?

Primeras imagenes del sol obtenidas mediante STEREO

Desde hace más de 50 años se ha tenido claro que la manera más fácil de producir una reacción de fusión nuclear involucra dos isótopos del átomo de Hidrógeno –Deuterio(D) y Tritio(T). Se necesita entonces que un gas altamente ionizado (plasma de D y T) esté sujeto a presiones y temperaturas extremas; y al no igualar las condiciones de presión que hay en el núcleo solar, se necesita mantener al plasma a una temperatura de 150 millones °C. ¡10 veces más que la temperatura del núcleo solar! El lector podrá imaginarse que la fusión nuclear, de llevarse acabo, debe resolver grandes retos científicos y tecnológicos nunca antes vistos.

Pero antes de entrar en detalles de la fusión nuclear, surgen varias cuestiones que se deben responder. Las dos primeras son:

1. ¿Por qué las naciones apostarían por la fusión nuclear cuando se tiene a la mano todo un ejército de energías alternativas: fósiles, solar, eólica, hidroeléctrica, geotérmica, biomasa.?

2. ¿Qué se gana invirtiendo en otra energía nuclear?

La realidad es que las fuentes de energías fósiles eventualmente se agotarán, las energías alternativas no tienen la capacidad de cubrir la creciente demanda energética y ninguna de éstas ofrece lo que la fusión nuclear: prácticamente cantidad ilimitada de combustible, producción nula de dióxido de carbono, baja producción de deshechos y atractivas propuestas de seguridad. De apostarse por la fusión nuclear, es crítico responder: ¿qué requisitos se necesitan para construir un reactor comercial de fusión nuclear? y ¿cuáles son los procesos físicos fundamentales involucrados?

Brevemente retomaré un resultado básico del electromagnetismo: partículas cargadas (iones o electrones) moviéndose en presencia de campos magnéticos experimentan una fuerza conocida como la fuerza de Lorentz. ¿Y esto para qué sirve? Supongamos que el plasma de D y T se encuentra dentro de una cámara, se sabe que si el plasma entra en contacto con las paredes de dicho contenedor, la temperatura del plasma disminuirá y por tanto no se alcanzaría la condición de temperatura de fusión nuclear (¡que es la que estamos buscando!) Entonces, si se está tratando de un problema de partículas cargadas, es de esperarse la introducción de campos magnéticos que confinen dicho plasma evitando el contacto con las paredes de la cámara, preservando así su temperatura.

Dicho lo anterior, es ahora cuando introduzco el término fusión nuclear a través del confinamiento magnético. Los científicos que optaron por esta estrategia han desarrollado ideas referentes al diseño óptimo del dispositivo que confine magnéticamente a un plasma. Es posible mostrar mediante estudios de estabilidad y equilibrio que la forma de “anillo” o “dona” es la óptima, dando origen al Tokamak acrónimo del ruso тороидальная камера с магнитными катушками (cámara toroidal con bobinas magnéticas), esta idea se ha desarrollado, implementado y mejorado por más de 6 décadas.

Aterricemos ideas, se necesita entonces de un dispositivo anular con bobinas magnéticas en cuyo interior se localiza un plasma de Deuterio y Tritio. ¿Con esto basta para tener fusión? Y la respuesta es no, ya que para elevar y mantener la temperatura del plasma en el régimen de fusión es necesario contar con algún sistema que proporcione energía al plasma. Sistemas tales como inyección de neutrones y de ondas electromagnéticas de radio frecuencia modulan y elevan la temperatura del plasma hasta llegar a aquella de fusión.

Un ejemplo concreto de un tokamak en funcionamiento es JET (Joint European Torus) ubicado a las afueras de Oxford, Inglaterra. En 1997, científicos lograron no sólo confinar un plasma con campos magnéticos sino que produjeron energía de fusión nuclear, logrando una potencia de salida de 16 MW con 25 MW como potencia de entrada. Debido a que JET no fue construido para generar cantidades significativas de energía como resultado de la fusión, científicos e ingenieros de la comunidad internacional se plantearon la construcción de un dispositivo que incremente la razón entre energía producida por fusión y la energía eléctrica necesaria para iniciar y mantener la reacción nuclear. De aquí nace la idea de construir ITER.

ITER (International Thermonuclear Experimental Reactor) es un proyecto internacional que pretende demostrar la factibilidad científica y tecnológica de la fusión nuclear a escalas comerciales. En este magno proyecto está involucrada la Unión Europea, China, Rusia, India, Corea del Sur, Japón y los Estados Unidos de América. La construcción de este colosal tokamak se sitúa en Cadarache, Francia y se prevé su culminación para el año 2019. Pero no todo está resuelto, aspectos técnicos de diseño y seguridad se han cruzado en el camino haciendo de ITER un reto científico e ingenieril sin precedentes. Temas que trataré en la segunda parte de este escrito.

Finalmente, para todos los lectores que quisieran empaparse más en este fascinante tema de la fusión nuclear, los invito a visitar los siguientes 2 videos (inglés) donde se detalla el proceso de fusión y los actuales experimentos con tokamaks: Jet, ITER.

ITER, the way to fusion power (1 of 2)

ITER, the way to fusion power (2 of 2)

Acerca del autor:

Cristian Gleason González es egresado de la carrera en Ciencias (Física) de la UAEMor, actualmente estudia el segundo año de la maestría en Ciencias de la Fusión Nuclear e Ingeniería Física que forma parte del programa de cooperación europea Erasmus Mundus. Referencias:

1) Physics World , 23, 10 (Octubre 2010) , IOP Publishing Ltd ., Pp. 30. 2) Dziewonski, A. (1981). "Preliminary reference Earth model". Physics of the Earth and Planetary Interiors 25 (4): 297–356. doi:10.1016/0031-9201(81)90046-7 3) Williams, David R. (September 1, 2004). "Sun Fact Sheet". NASA. Retrieved 2008-01-23.

Irrigación mortífera [Parte 2 de 2]

Escrito por Ana Gutiérrez-Preciado, Andrea Ciria y Valeria Souza