Blog

Estos animales marinos son un eco de hace 600 millones de años y no se le parecen a nada.

newbranchEn el fondo de los mares de Tazmania esperaba una sorpresa que ha de sacudir el árbol de la vida animal desde su tronco, si lo que proponen sus descubridores resulta verdad. Hace más de 27 años, el zoólogo Jean Just, del Museo de Historia Natural de la Universidad de Copenhague en Dinamarca, recogía los ejemplares de animales recolectados entre 400 y 1,000 metros de profundidad sin sospechar que entre las redes tenía ejemplares de un tipo de animal que no se podría ubicar en ninguna clasificación conocida. Se trataba de organismos milimétricos en forma de hongo que, sin embargo, mostraban las características básicas de los animales: son multicelulares y sus células tienen núcleo (así que no son bacterias ni protozoarios) y tienen estructuras para digerir la comida que ingieren (así que no son algas ni plantas). Esto, no obstante, Just no lo sabría hasta años después, cuando se puso a analizar a detalle todo lo que tenía pendiente de aquel crucero del ‘86. Y fue hasta esta semana que publicó, junto con algunos colegas suyos de su universidad, el resultado de sus análisis: estos animales, a los que bautizó con el nombre de género Dendrogramma, no se pueden ubicar en ningún grupo conocido y los organismos con los que guardan más similitud son fósiles que existieron hace unos 600 millones de años. Uno de los científicos que primero leyeron su artículo, según relatan los autores en el mismo texto, sugirió que estos animales debían fundar un nuevo filo en la clasificación. Los filos, (o phyla, como prefieren decirles los científicos), son las ramas más gruesas de la taxonomía tradicional sólo después de los reinos. Además, por las características de estos minúsculos organismos, probablemente sean uno de los filos más antiguos del reino.

Una forma de hacer una división gruesa de todos los animales es por su simetría. Se traza una línea imaginaria en el cuerpo del animal y se busca si los lados son un reflejo uno del otro. Si es así, se tiene a un animal de simetría bilateral. Esto ocurre con casi todos los animales en los que uno pueda pensar: humanos, cangrejos, escorpiones, tiburones blancos, moscas de la fruta, lombrices, nematodos, pulpos... Si no ocurre así, probablemente se trate de una medusa o una esponja. A las medusas se les puede partir en “rebanadas”, así que tienen simetría radial (si se les mira desde arriba) y las esponjas no tienen simetría en absoluto. Esta forma de dividir a los animales no sólo es geométricamente divertida, sino que también informa sobre la antigüedad de los grupos. Se cree que los animales sin simetría en sus cuerpos surgieron antes que los de simetría radial, y éstos surgieron antes que los de simetría bilateral. Los animales que Just examinó durante varios años en la mesa de su laboratorio, y que sólo mostró al mundo después de estar seguro de lo que veía, tienen a duras penas una simetría radial, y esto le hace pensar que pueden ser más antiguos que las medusas. ¿Serán tan antiguos como los primeros animales?

“Sería increíblemente emocionante si los autores hubieran encontrado un grupo desconocido de animales que divergió de los otros animales hace tanto tiempo”, dice un biólogo evolutivo entrevistado para el sitio de noticias de la revista Nature. Los 600 millones de años de antigüedad que tienen los fósiles con los que Just y sus colegas le encuentran parecido a Dendrogramma trazarían su rama del árbol de la vida hasta el momento en el que surgían los primeros esbozos de lo que significa ser animal.

Aquellos fósiles pertenecen a un grupo de animales llamados “fauna de Ediacara”, nombrados así por el estrato geológico en el que se les encontró. En ellos no hay rastro de patas, aletas, conchas, apéndices, órganos, sistemas o casi todo lo que vemos en los animales actuales. De hecho, muchos de ellos probablemente tenían una vida parecida a la que hubiera tenido una hierba submarina. Se piensa que, salvo contados casos, esos primeros intentos de animales no dejaron descendencia hacia eones posteriores, porque sus extrañas formas no tienen ningún eco en los animales que les siguieron. Hasta que Just y sus colegas encontraron a Dendrogramma.

Una forma adicional de encontrar similitud entre estos animales y todos los demás que existen en el mundo sería a través de su ADN. Desafortunadamente, por las técnicas de preservación que los zoólogos usaron durante su colecta, les es imposible recuperar esas moléculas de los tejidos. Hasta que se vuelvan a encontrar más ejemplares vivos de Dendrogramma, se podrán hacer los estudios necesarios para averiguar si estos animales, con su extraña forma fungoide y su actitud de “soy de lo más básico que un animal podría ser”, realmente provienen de las raíces del árbol de la vida que se hunden en las nieblas del tiempo evolutivo.

Fuentes:

Artículo Original en laRevista PLOS | Nota en la Revista Nature | Nota original en el Blog de Historias Cienciacionales

Te ves cansado, Buzz. Ve a dormir.

buzzCuando Buzz Aldrin regresó a la Tierra de la misión Apollo 11, dijo que en su travesía a penas había podido dormitar un par de horas. Dormir en el espacio es una verdadera odisea para los astronautas. En los tiempos de Aldrin, Neil Armstrong y Michael Collins, las estaciones y transbordadores espaciales eran frías y ruidosas.Aunque ahora son silenciosas y oscuras, los trajes espaciales siguen siendo incómodos. Además, en el caso de la Estación Espacial Internacional (ISS, por sus siglas en inglés), el Sol se asoma cada hora y media.

Ahora, un grupo de investigadores de instituciones estadounidenses estudió el patrón de sueño de ochenta y cinco miembros de la ISS y transbordadores espaciales durante diez años. Para esto, midieron su tiempo sueño-vigilia a través de un dispositivo no invasivo colocado en sus muñecas, además de tomar en cuenta sus diarios, donde se encargaron de registrar las características de su descanso y el consumo de drogas para conciliar el sueño. Todos estos datos fueron recabados antes, durante y después del lanzamiento.

Los resultados mostraron que a pesar de que el horario oficial de las expediciones los obliga a tener poco más de ocho horas de sueño por noche, rara vez descansaron más de cinco. Además, para tener las horas de descanso completas, tres cuartos de los astronautas ingirieron medicamentos para dormir, e incluso a veces la tripulación completa llegó a ser sedada para que descansaran.

La deficiencia de sueño se observó durante la misión, pero también durante el entrenamiento, esto es tres meses antes de la expedición. Es la falta de gravedad una posible explicación.

Los autores del trabajo mencionan que debido a que la falta de sueño crónica lleva a un detrimento del rendimiento, este trabajo enfatiza la necesidad de desarrollar medidas preventivas efectivas para promover el sueño reparador en los cosmonautas.

Fuentes:

Artículo original |  Nota en la revista Science |  Nota original en el Blog de Historias Cienciacionales | Imagen 

¡Cometa a la vista!: La Sonda Roseta llegó a su destino.

rosetta Hace 215 años y poco menos de un mes, en Egipto, un oficial francés de nombre Pierre-François Bouchard, les solicitó a sus soldados que prepararan las defensas de lo que era el Fuerte de Julien, un antiguo fuerte del imperio Otomano y anteriormente una construcción egipcia, al noreste de Rashid (Roseta). Ahí, mientras los soldados realizaban sus trabajos, uno de ellos se topó con una roca inusual: un bloque granítico de unos 760 kg que contenía lo que parecían ser 3 tipos de escrituras. En la parte superior contenía jeroglíficos egipcios, la central tenía letras en demótico y en la parte final se identificaron letras griegas. Así, tras el descubrimiento y su posterior robo como botín de guerra por los ingleses, Thomas Young, médico y físico inglés, y Jean François Champollion, un francés filólogo y estudioso de Egipto, usaron aquella roca bautizada como Roseta, para descifrar una lengua que llevaba más de mil años muerta. Tras su hallazgo y posterior análisis, la roca llevó a unir las piezas para redescubrir a la cultura egipcia, una de la más grande y emblemática de nuestra historia. De esta forma, tal y como se usó la Piedra Roseta como llave para conocer los misterios egipcios, el recién encuentro del cometa 67P/Churyumov-Gerasimenko con la Sonda Roseta servirá para investigar y descubrir el origen e historia de nuestro Sistema Solar.

Cuando nuestro vecindario – el Sistema Solar - comenzó a formarse, se piensa que la nebulosa de polvo y gas formó cúmulos de materia que se cohesionaron y más tarde dieron forma al Sol, los planetas y un sin fin de objetos. Pero lejos del calor del Sol, algunos de los cúmulos de materia más primitivos, los cometas, quedaron solos y fríos, preservando elementos y compuestos volátiles que podrían mantener el registro físico y químico de lo que ocurrió en aquel tiempo. Por ello, el 2 de marzo del 2004, la Agencia Espacial Europea (ESA, por sus siglas en ingles), lanzó al espacio a Roseta, una sonda compuesta de 3 toneladas de aluminio, que alberga 11 instrumentos y un pequeño robot que acometizará en la superficie de 67P/Churyumov-Gerasimenko – hazaña que se realizará por primera vez –, para analizarlo y conocer de que está hecho.

Así, tras una década de espera, haber pasado por dos asteroides, un estado hibernal de 3 años y un impulso gravitacional marciano y tres terrestres, la sonda Roseta llegó a su encuentro con el cometa el 6 de agosto de este año.

Ahora, Roseta se encuentra a 405 millones de kilómetros de la Tierra orbitando un cometa elíptico, cuya orbita alrededor del Sol dura 6.5 años y llega más allá de Júpiter en su punto más lejano y, entre Marte y la Tierra en el más cercano. Sin embargo, las labores del fisgón de cometas apenas comienzan, pues su llegada oficial se dio al tener a su objetivo a 100 km de distancia y se espera que durante las próximas semanas se vaya acercando. De esta manera, durante ese tiempo irá haciendo diversos análisis del polvo y gas que arroja, y buscará cinco sitios para desplegar a Philae en el núcleo del cometa, cuando se encuentre a una distancia de 1 km. A partir de ahí, se analizará la cubierta de hielo y materia orgánica, y su reacción conforme el cometa se aproxime al Sol hasta diciembre de 2015.

Si les da curiosidad el trayecto por el que pasó la sonda, los invitamos a ver este video de la Agencia Espacial Europea.

Fuentes:

Agencia Espacial Europea | NASA | Nota Original en el Blog de Historias Cienciacionales

Un venezolano que da información sobre la evolución de los dinosaurios.

dino Del tamaño de un perro, con una dieta basada en plantas y, probablemente también insectos, este dinosaurio vivió hace doscientos millones de años. Sus restos fueron encontrados en lo que ahora es Venezuela, concretamente en una formación llamada “La Quinta”, en los Andes –de ahí que su nombre sea "Laquintasaura venezuelae"-. Lo más importante es que su recuperación viene acompañada de mucha información valiosa.

Este animal es un ornitisquio, que en español significa “caderas de ave”. Es el primero de su grupo que arroja datos sobre los primeros cambios evolutivos que ocurrieron a los ornitisquios lo largo del tiempo. Más aún, pertenece a un colectivo de dinosaurios cuyas primeras caracterizaciones evolutivas están incompletas debido a que se tienen pocos ejemplares, y la mayoría de los datos paleontológicos están dominados por otros dinosaurios.

Además, el que se haya encontrado en dicha región, aumenta el área habitada por estos animales conocida hasta ahora, y contradice la hipótesis que sostenía que los ornitisquios vivían en climas diferentes a los cálidos y tropicales. También arroja datos sobre la velocidad de crecimiento de estos animales.

Finalmente, hasta ahora se han recuperado cuatro individuos de la nueva especie, lo que el equipo de investigadores sugiere como una evidencia de que vivieron en grupos, un comportamiento que hasta ahora era desconocido para un registro fósil de esta antigüedad.

En general, da evidencia sobre la importancia del registro de los ornitisquios en las discusiones sobre la evolución de los primeros grupos de dinosaurios.

Fuentes:

Artículo original | Nota en la Revista Science | Nota Original en el Blog de Historias Cienciacionales

La (otra) evolución de la migración de las aves en América.

pajarosEn este planeta, están las personas que prefieren el calor porque así no tienen que andar como cebollas, con miles de capas encima. También están las que detestan que el calor no se les vaya ni quitándose la ropa, por lo que prefieren el frío, que se va poniéndose un buen abrigo. Para otros animales, es más conveniente moverse de un lugar a otro en búsqueda de aquellas temperaturas ambientales que mejor les convengan. En el caso de las aves, sus patrones de migración ha dado buenos dolores de cabeza a muchos investigadores, debido a que son complejos.

Una hipótesis sobre el origen de estos flujos migratorios -y que ha perdurado por mucho tiempo- sostiene que los animales que se mueven, lo hacen desde los trópicos hacia zonas en el Norte con temperaturas más templadas, un comportamiento que se ha mantenido con el paso del tiempo.

Ahora, un grupo de investigadores de diferentes instituciones estadounidenses han propuesto lo contrario: las migraciones evolucionaron a través de movimientos que fueron del norte de América hacia los trópicos. Además, aquellos animales que se iban perdiendo en el camino, se asentaban en nuevas regiones, convirtiéndose en fundadores de otras especies, y contribuyendo a la diversidad tropical.

Para llegar a dichas conclusiones, los investigadores generaron un modelo para conocer el cambio en el tiempo de los lugares que animales migratorios establecen en épocas de frío y de apareamiento. A partir de esto, y junto a un árbol genealógico de aves, que incluyeron cardenales o gorriones, reconstruyeron en un programa computacional los cambios evolutivos más probables.

Los resultados permiten a los autores del trabajo asegurar que las migraciones comenzaron en el pasado desde el Norte del continente americano hacia el Sur. Además, la alta diversidad que se observa alrededor de los trópicos no es lo que llevó a las migraciones hacia el Norte, sino que, por el contrario, este es un resultado de los movimientos de esa zona de frío hacia el Sur cálido.

Fuentes:

Artículo original en PNAS | Nota fuente de The Field museum | Nota Original en el blog de Historias Cienciacionales | Imagen

 

La Bionanotecnología y sus conceptos

El vertiginoso desarrollo de la ciencia ha logrado avances impresionantes que necesitan ser divulgados entre la sociedad. Entre las nuevas fascinaciones de las mujeres y hombres de ciencia se encuentra la Bionanotecnología o también llamada Ingeniería Biomolecular, que destaca tanto por sus aportaciones a la ciencia e incidencia en el desarrollo tecnológico como por su carácter altamente interdisciplinario y polifacético donde convergen diferentes enfoques provenientes de la biología, química, física e ingeniería.

¿Qué es la bionanotecnología?

La bionanotecnología se origina de la fusión entre la nanotecnología y la biotecnología. Por un lado, la nanotecnología es la construcción y modelaje de la materia manipulando átomo por átomo aplicada en la ingeniería y manufactura a escala nanométrica. Por el otro, la biotecnología aprovecha diversas funcionalidades derivadas de procesos biológicos para aplicaciones específicas sin que importen los detalles moleculares y atómicos de las biomoléculas que llevan a cabo dichos procesos. Con base en ello, la bionanotecnología se define como la ingeniería y manufactura aplicada al diseño y modificación de los detalles atómicos de maquinarias y dispositivos moleculares basados en biomoléculas (ácido desoxirribonucleico -ADN-, proteínas, lípidos y carbohidratos) para que lleven a cabo funciones especificas a nivel nanométrico construidos mediante ensambladores biomoleculares. El rápido avance científico hace que el ámbito de influencia de la bionanotecnología aun se esté definiendo.

Para tener idea de las dimensiones de dichas máquinas es necesario decir que un nanómetro es la milmillonésima parte de un metro, o bien en nuestro mundo macroscópico equivaldría a comparar una moneda con el ¡diámetro de la tierra! La capacidad de visualización y manipulación de diminutos átomos y moléculas se logra con instrumentos y técnicas sofisticadas y refinadas de microscopía, cristalografía, espectroscopia y modelaje en computadora.

Las biomoléculas son las protagonistas

Las biomoléculas son los componentes de la célula desarrollados y optimizados a través de millones de años de evolución natural que mantienen la vida celular llevando a cabo todas las funciones necesarias para su crecimiento, sobrevivencia y reproducción.

A pesar de que la célula es un sistema altamente complejo, base de la vida, se puede hacer una analogía (muy pobre, pero muy efectiva) con una máquina o un sistema compuesto de varias máquinas. Por ejemplo, el flagelo bacteriano y el complejo ATP sintasa funcionan esencialmente como motores generando movimiento mecánico alrededor de un eje y bombeando protones, mientras que la miosina realiza la contracción muscular; los anticuerpos y receptores de membrana detectan diversas moléculas por lo que son sensores; la actina y los microtúbulos son vigas y soportes, las enzimas son herramientas reparadoras y constructoras, los ribosomas son los ensambladores que construyen nuevas máquinas proteínicas en líneas de producción, el ADN es el control numérico, los lípidos forman vesículas contenedoras y la membrana lipídica que rodea la célula tal como si fuera una carcasa, etcétera. Todas estas entidades biológicas son delicadas moléculas de tamaño nanométrico con propiedades basadas principalmente en la química y debido a que en esencia realizan funciones de máquinas con precisión atómica también pueden ser caracterizadas y optimizadas con enfoques de la física y la ingeniería.

La célula crea las biomoléculas

Debido a que las biomoléculas son productos exclusivos del metabolismo celular, el desarrollo de la biología molecular en las últimas décadas ha sido de gran ayuda para la bionanotecnología permitiendo conocer los detalles de los mecanismos de muchas de estas “nanomáquinas”.

De inmensa importancia ha sido el desarrollo de la tecnología del ADN recombinante en la expansión de la bionanotecnología ya que ha permitido modificar y producir en gran escala de forma barata y rápida las “bionanomáquinas” y biomateriales necesarios para la bionanotecnología. Como el ADN posee toda la información necesaria para generar una proteína funcional (la gran mayoría de las “bionanomáquinas” están compuestas de proteína), es decir, contiene secuencias de ácidos nucleicos que codifican para los aminoácidos de una proteína, solo basta alterar y editar las secuencias del ADN para modificar una proteína particular con precisión atómica y así optimizar su funcionamiento y propiedades o generar nuevas y novedosas máquinas de proteína, las cuales son producidas en gran cantidad a partir de substratos baratos al crecer la célula con el gen en particular. La capacidad de manipular la célula es sin duda un cambio de paradigma que ha revolucionado tanto la ciencia como la forma en que vemos al mundo.

La Bionanotecnología trabaja interdisciplinariamente

Además de optimizar y modificar las biomoléculas a escala nanométrica para aplicaciones específicas, la bionanotecnología se ha adentrado en nuevos caminos y consolidado como un área altamente interdisciplinaria. Fusionándose con la ciencia de materiales ha desarrollado novedosos materiales híbridos entre compuestos inorgánicos y bioorgánicos, superando así la tradicional separación entre estos dos tipos de materia y borrando las fronteras entre la materia viva e inanimada.

Esta área usa proteínas y ácidos nucleicos como unidades programables de reconocimiento molecular, las cuales son acopladas (ligadas químicamente) a nanopartículas inorgánicas con propiedades ópticas, electrónicas y catalíticas diversas e interesantes, útiles para elaborar materiales y dispositivos inteligentes basados en compuestos híbridos que se auto-ensamblan en complejos supramoleculares nanométricos usados en aplicaciones bioanalíticas y biomédicas para diagnóstico, visualización y tratamiento de enfermedades y también para computación, electrónica, óptica y manufactura molecular.

Borrando Fronteras entre la Materia

El punto cardinal en la Bionanotecnología es la materia y la disolución de la frontera bioorgánica/inorgánica. Objetos vivos e inanimados están hechos por átomos. Las propiedades de la materia cambian de acuerdo con el patrón en que estén ordenados y enlazados los diferentes átomos que la componen: carbón y diamante, arena y chips de computadora, cáncer y tejido sano, tienen cierta disposición que hace la diferencia entre lo enfermo de lo sano y lo barato de lo valioso, tal como dice el apóstol de la nanotecnología, Erik Drexler en su famoso libro Máquinas de creación.

Hemos entrado en la era conjunta de la manipulación atómica y genética. Hay muchos riesgos pero también mucho potencial, que bien balanceado y en un ambiente democrático puede ser aprovechado para atender problemáticas específicas dentro del contexto mexicano.

Así, los bionanotecnólogos han creado nuevos horizontes en la ciencia, han descubierto excitantes áreas de desarrollo tecnológico y científico, novedosas e inéditas aplicaciones de las biomoléculas y han generado hitos de interdisciplinariedad al asociar disciplinas comúnmente separadas. La pregunta es, parafraseando al Nobel Richard Feynman en su discurso inaugural de la nanotecnología, ¿habrá suficiente espacio en el fondo de nuestra mente para apoyar la bionanotecnología en México?

Escrito por Armando Hernández y publicado originalmente en su blog acerca de bionanotecnología

[hozbreak]

Acerca del autor

Armando Hernández García es Químico de Alimentos egresado de la UNAM. Obtuvo el doctorado en la Universidad de Wageningen, Holanda y actualmente realiza un postdoctorado en la Universidad de Northwestern en Chicago. Su investigación se ha enfocado a entender y controlar los principios que subyacen la formación de nanoestructuras funcionales con proteínas y su posible aplicación biomédica. Contacto: armaquim@gmail.com y blog: http://bionanotecnologias.blogspot.com.

GIFs de tus huesos en movimiento.

manoMientras escribimos en el teclado de nuestra computadora, nuestras manos y muñecas, con sus cincuenta y cuatro huesos, no se detienen. Cuando te de hambre y tengas ir a prepararte algo de comer, tus pies te moverán a la cocina con sus veintiséis huesos. Y mientras éstos se mantienen unidos y en locomoción por articulaciones móviles, hay otros que están juntos por articulaciones que no se mueven -como las de nuestro cráneo-. Con estos GIFs, realizados por Cameron Drake a petición del cirujano ortopedista Noah Weiss, podrán observar cómo se ven nuestros huesos en movimiento. Y en esta página puedes ver más videos.

Fuentes:

Nota original en el Blog de Historias Cienciacionales

Argumentos, datos y posturas sobre cómo conservar la biodiversidad del Nevado de Toluca

Colaboración de Alicia Mastretta Yanes, Renata Cao, Sergio Nicasio Arzeta, Paulo Quadri, Tania Escalante Espinosa, Libertad Arredondo y Daniel Piñero

En esta entrada resumimos cuáles han sido las diferentes posturas desde el punto de vista de la biología y del manejo de recursos naturales en uno de los sucesos más importantes que la política de la conservación mexicana ha visto: por decreto presidencial, el 1ro de octubre del 2013, el Nevado de Toluca dejó de ser un Parque Nacional y pasó a ser un Área de Protección de Flora y Fauna. Planteamos también por qué un correcto diagnóstico ambiental es indispensable y cómo, como científicos y sociedad, debemos proponer mejores opciones de manejo a las autoridades.

Quienes promovieron el cambio de categoría y realizaron el estudio previo justificativo se sustentan en el siguiente argumento: por definición, los parques nacionales deben ser propiedad de la nación, sin embargo, el Nevado de Toluca y muchos otros parques nacionales del país pertenecen a ejidos y propietarios privados; estas condiciones incapacitan a los dueños de la tierra para un sustento económico de manera legal, por lo que recurren a la tala ilegal y a actividades agropecuarias que no se encuentran permitidas. Lo anterior, argumentan, ha llevado al deterioro ambiental del Nevado de Toluca a grado tal que la conservación de su biodiversidad se encuentra en grave riesgo.

Esta es una postura compartida entre el Dr. Gerardo Ceballos del Instituto de Ecología de la UNAM, el PROESNEVADO (un programa especial del gobierno del Estado de México) y un grupo de forestales de la Universidad Autónoma del Estado de México. Puede consultarse más en extenso en un artículo de divulgación científica que el Dr. Ceballos escribió para la revista Oikos del Instituto de Ecología de la UNAM.

Por otro lado, preocupados porque el cambio de categoría lograra conservar la biodiversidad del Nevado de Toluca y los servicios ambientales que nos brinda, un grupo de biólogos y geólogos de diversas instituciones nacionales (UNAM, INECOL, entre otros) y extranjeras (University of East Anglia, University of California Santa Cruz e IPNA-CSIC), entre los que nos encontramos la Biól. Alicia Mastretta Yanes, el Dr. Daniel Piñero, la Mtra. Libertad Arredondo, el Mtro. Paulo Quadri, la Dra. Tania Escalante y 30 científicos más, decidimos revisar el programa de manejo de la ahora Área de Protección de Flora y Fauna Nevado de Toluca.

El programa de manejo es el documento que dicta y regula las actividades y su ubicación dentro del territorio del Área Natural Protegida y con qué acciones la Comisión Nacional de Áreas Naturales Protegidas (CONANP) garantizará la conservación de su biodiversidad. Tras revisar los artículos científicos citados por el programa de manejo y por el estudio previo justificativo, y después de realizar nuevos análisis, concluimos que el proceso de recategorización y el borrador del programa de manejo tienen vacíos de información y datos o interpretaciones incorrectas, tanto desde el punto vista ambiental, como socioeconómico y de política pública.

Por ejemplo, el deterioro del área natural protegida no es homogéneo ni responde a las mismas causas que hace 40 años (Figura 1). Además, la tasa de deforestación planteada en el programa de manejo está sobrestimada y en realidad se refiere a la pérdida de densidad arbórea (detalle en este link). Todo lo cual oculta el hecho de que no todos los tipos de bosque se encuentran afectados. En el mismo número de la revista Oikos, hemos publicado un artículo de divulgación donde resumimos el resultado de estos y otros análisis.

CambiosNevadodeToluca

El área abierta a la agricultura (amarillo) en el Nevado de Toluca no aumentó de 1972 al 2012 y los bosques de oyamel (verde oscuro) y latifoliadas (marrón) no disminuyeron en densidad ni en cobertura. Las imágenes satelitales de 1986 y del 2012 están disponibles en Google Timelapse y el artículo de Franco et al. 2006 aquí (parte A) y aquí (parte B).

 

Hemos insistido mucho en los problemas técnicos con los datos del estudio previo justificativo y del programa de manejo porque es con ellos que se realizó el diagnóstico ambiental y con los que se está fundamentando cómo manejar al Nevado de Toluca. En otras palabras, al igual que con una enfermedad humana, si el diagnóstico es incorrecto el tratamiento también lo será y perjudicará en vez de beneficiar. La labor del médico que lo descubra es informarlo y empezar cuanto antes con el tratamiento que sí sea adecuado.

En el caso del Nevado de Toluca, lo preocupante es que no existe evidencia de que las actividades y zonificación propuestas por el borrador del programa de manejo del 2013 (y de su nueva versión al 2014), crearán las condiciones socio-ambientales necesarias para conservar al Nevado de Toluca y para mejorar la calidad de vida de sus habitantes. El manejo que tendría el Área Natural Protegida no está diseñado para favorecer la conservación de su biodiversidad y la restauración de los bosques que se encuentran degradados, sino que favorece que los bosques que sí están conservados sean abiertos a la explotación forestal.

Lo que los proponentes del cambio de categoría están haciendo es promover una visión de explotación de los recursos naturales en lugar de una de conservación y manejo con bases ecológicas y de visión sistémica. Este cambio de paradigma pone en gravísimo riesgo la conservación de la biodiversidad, los servicios ambientales que nos brinda el Nevado de Toluca y no garantiza beneficios sociales para los pobladores locales.

Nuestro involucramiento con la CONANP empezó en noviembre del 2013 en respuesta a la consulta pública sobre el borrador del programa de manejo del 2013. En los subsecuentes nueve meses realizamos una serie de propuestas para mejorarlo, principalmente en torno a la Subzonificación. El 1ro de agosto del 2014, la CONANP puso a consulta pública la segunda versión del borrador del programa de manejo. Dicha versión modificó nuestras propuestas sin brindarnos argumentos técnicos sólidos que lo justificaran.

Actualmente, la consulta pública de la segunda versión está abierta a revisión, es por eso que invitamos a los interesados a consultarla y realizar recomendaciones.

La obligación de las autoridades es atender las observaciones de la ciudadanía y la comunidad científica, pues cualquier argumento para modificar los instrumentos regulatorios de un área natural protegida debe realizarse con datos fidedignos y poder sostenerse ante una evaluación estricta y crítica. De forma subsecuente, la CONANP debe garantizar que el manejo de un área natural protegida afectada por dichos cambios se hará en pro de la conservación y del bien común.

[hozbreak]

La foto del Nevado de Toluca al inicio de esta entrada fue tomada por Benjamin Bernal.

[hozbreak]

Acerca de los autores

A. Mastretta Yanes es bióloga egresada de la UNAM. Del 2007 al 2010 trabajó en proyectos de manejo sustentable de recursos naturales y pago por servicios ambientales. Actualmente realiza su doctorado en la University of East Anglia, Inglaterra. Su proyecto estudia el efecto de los cambios climáticos históricos en la distribución de la diversidad genética en plantas de las montañas más altas del centro de México.

R. Cao es bióloga egresada de la UNAM. Del 2011 al 2013 trabajó en proyectos de conservación y manejo sustentable de los recursos naturales en la Selva Lacandona. Este año egresó de la Maestría en Gestión Ambiental, Conservación y Manejo Sustentable de Recursos Naturales por la Universidad de Queensland, Australia, en donde enfocó sus estudios al manejo y gestión de Áreas Naturales Protegidas.

S. Nicasio Arzeta es biólogo egresado de la UNAM. Desde 2011 es estudiante de doctorado en el Centro de Investigaciones en Ecosistemas en Morelia. Su proyecto consiste en evaluar el potencial del territorio con actividades humanas para mantener la conectividad del paisaje de mamíferos terrestres y plántulas de árboles dentro de fragmentos de bosque tropical húmedo en la Selva Lacandona.

P. Quadri estudió comunicación en la Universidad de las Américas Puebla. Del 2007 al 2010 trabajó en la CONANP. Es maestro en estudios ambientales por la Universidad de Yale en los Estados Unidos. Actualmente es estudiante de doctorado en el departamento de Estudios Ambientales de la Universidad de California, donde investiga las relaciones entre cambios en la cobertura y uso del suelo, microclimas y el funcionamiento de las comunidades y ecosistemas en bosques del centro de México.

T. Escalante Espinosa realizó sus estudios de doctorado y posdoctorado en la UNAM. Actualmente es profesora Titular A de tiempo completo en la Facultad de Ciencias de la UNAM en el grupo de trabajo de Biogeografía de la Conservación, del Departamento de Biología Evolutiva. Sus líneas de investigación son la biogeografía, la biología de la conservación, la distribución de la biodiversidad y la mastozoología.

L. Arredondo-Amezcua es Maestra en Ciencias por el Centro de Investigaciones en Ecosistemas de la UNAM. Actualmente trabaja como técnico externo para el proyecto de la Flora alpina del centro de México, para el Instituto de Ecología A.C. – Centro Regional del Bajío; cuyo objetivo es inventariar la diversidad florística de los pastizales alpinos de los volcanes más altos de la Faja Volcánica Transmexicana, así como su estado de conservación.

D. Piñero es investigador del Instituto de Ecología de la UNAM. Dirige proyectos sobre genética de poblaciones de plantas, en particular de filogeografía y estructura genética en especies mexicanas.

A sudar para poner tu celular a cargar

sudar La abuela del primo de un amigo dice que hacerse un tatuaje es como ponerle una calcomanía a un Ferrari. Pero ¿qué cara pondría la abuela si supiera que puede cargar la batería de pequeños dispositivos electrónicos con uno de ellos?

Gracias a un tatuaje temporal es posible generar energía eléctrica a partir de la transpiración de nuestro cuerpo. Esto es así porque cuando realizamos actividad física, nuestro cuerpo activa un proceso que se llama glicolisis. Así, rompe la glucosa que hay en nuestra sangre y produce energía. Como resultado, se genera una sustancia llamada lactato, misma que se mantiene en la sangre y en el sudor. El tatuaje utiliza este lactato y lo transforma en energía eléctrica.

Este tatuaje temporal es resultado del desarrollo de dispositivos para medir el lactato del cuerpo, una práctica muy común, pero intrusiva y tediosa porque se necesita colectar sangre en diferentes momentos durante el ejercicio. Entonces, los atletas profesionales que monitorean sus niveles de lactato para evaluar sus programas de entrenamiento, y los médicos que lo hacen en pacientes que presentan padecimientos de corazón y pulmones, deben tomar muestras de sangre cada determinado tiempo.

En cambio, este tatuaje contiene un sensor flexible con una molécula que le quita los electrones al lactato y así, además de generar la electricidad, permite conocer los niveles de lactato.

Hasta ahora, la electricidad generada es muy débil como para poder alimentar un reloj de pulsera, pero los autores del trabajo perfeccionarán el diseño para que pueda ser utilizado en aparatos electrónicos. ----------------------

Bibliografía:

Nota fuente en ScienceArtículo original en Agewandte Chemie|Nota original en el Blog de Historias Cienciacionales

 

Tu bloqueador solar contamina el agua de mar
.

sunblock"Playa" es una de las primeras palabras que vienen a la mente cuando uno huele crema bloqueadora. Su uso protege nuestra piel de los rayos del Sol. Pero cuando nos metemos al mar, la crema se lava con las olas, y se queda en el agua. Aunque esto es aparentemente inofensivo, algunos de los ingredientes son tóxicos para los habitantes del mar.

Son las partículas del dióxido de titanio y el óxido de zinc presentes en el bloqueador solar que, al reaccionar con los rayos ultravioleta, forman agua oxigenada (peróxido de hidrógeno).

En grandes cantidades, el agua oxigenada daña al fitoplancton, las algas microscópicas de las que muchos animales, desde peces pequeños, hasta enormes ballenas, se alimentan.

Para llegar a esta conclusión, un grupo de investigadores españoles recolectaron muestras de agua de mar en las playas de las islas de Mallorca. El análisis mostró que los ingredientes del bloqueador solar son los principales responsables por el incremento en los niveles de peróxido de hidrógeno en las aguas costeras durante el verano.

El estudio muestra que la presencia del agua oxigenada en el mar en altas concentraciones a causa de nuestros bloqueadores solares tiene consecuencias peligrosas para la vida marina y para el ecosistema acuático.

Fuentes:

Artículo original | Nota de la Sociedad Estadounidense de Química | Imagen tomada de Pinterest | Nota original en el Blog de Historias Cienciacionales.

Epistemología: filosofía de/en/desde/con/para la ciencia

En su célebre conferencia de 1957 (convertida después en el último capítulo del libro La ciencia, su método y su filosofía) titulada "Filosofar científicamente y encarar la ciencia filosóficamente", el epistemólogo Mario Bunge le cuenta a sus alumnos (tanto de aquel tiempo como los que ahora lo leemos) la necesidad urgente de generar epistemólogos de primer nivel en Latinoamérica, con el fin de incrementar la difusión y el estudio de los fundamentos de la ciencia, y con ello ofrecer a la sociedad una serie de expertos que estén capacitados para analizar, debatir y proponer soluciones a los problemas filosóficos que se derivan de la actividad científica. Bunge nos habla de revitalizar la carrera de filosofía, la cual parece que prepara más especialistas en filosofía antigua y medieval, que filósofos propiamente dichos. También denuncia la falta de cultura científica de los especialistas en filosofía y la ignorancia filosófica de los científicos profesionales. Si esta situación sigue así, comentaba Bunge en el 57 aunque el problema aún continúa hasta hoy, estamos condenados a seguir viendo esa separación abismal entre ciencia y filosofía, con especialistas de ambas áreas despreciándose unos a otros.

Una de las áreas que une la rigurosidad y el respeto por los hechos que muestra toda ciencia, y el análisis lógico de conceptos y la formalización de la filosofía exacta, es la epistemología. Pero, ¿qué es la epistemología? El concepto puede causar cierta confusión ya que más de un libro lo utiliza como sinónimo de gnoseología o teoría del conocimiento. Pero esta confusión es innecesaria y puede evitarse si se define de forma clara el área de la epistemología.

Puede decirse entonces, por un lado, que la gnoseología es la rama de la filosofía que se ocupa del estudio de los principios del conocimiento. El conjunto de cuestiones, debates y respuestas sobre ¿qué es el conocimiento?, ¿qué podemos llegar a conocer?, ¿cómo conocemos? entre otras cuestiones, forman parte de la gnoseología. Esta área se ha visto enriquecida sobre todo gracias a las ciencias cognitivas que nos ofrecen respuestas a muchas de estas preguntas, generando nuevas cuestiones. Desde luego, el que la ciencia cognitiva nos ayude a resolver problemas gnoseológicos no significa que la gnoseología se quede sin campo de estudio; las ciencias cognitivas también presentan un fondo gnoseológico en el cual apoyan sus nuevas hipótesis. No podemos saber si algún día la gnoseología acabará siendo una ciencia cognitiva más, adquiriendo independencia de la filosofía; lo que sí sabemos, es que la gnoseología representa la cuna de una serie de problemas fascinantes sobre nuestra relación (como sujetos) con el universo (como objeto de estudio).

Pero la epistemología no se ocupa de problematizar sobre los problemas del conocimiento, así, de forma general. Tal vez podríamos ver a la epistemología como "gnoseología especializada", pues se enfoca en problematizar sobre un tipo de conocimiento muy especial: el conocimiento científico. La epistemología es el mejor ejemplo de un enlace de filosofía y ciencia.

La epistemología busca debatir y proponer respuestas a preguntas como ¿qué es el conocimiento científico?, ¿cuáles son los principios filosóficos presupuestos en la investigación científica?, ¿qué es el método científico?, ¿existe "el" método científico como un proceso lineal e inmutable?, ¿cuáles son las diferencias entre ciencia, semiciencia, protociencia y pseudociencia?, ¿son lo mismo ciencia y tecnología?, ¿la ciencia presupone la realidad autónoma y la legalidad del mundo?, ¿cómo se relacionan las teorías científicas con la realidad y la experiencia?, ¿la ciencia puede ir más allá de los fenómenos y la relación entre éstos?, ¿es posible describir las cosas reales con minuciosidad y una precisión perfecta?, ¿qué son las leyes y las explicaciones científicas?, ¿qué función desempeñan las matemáticas en las ciencias factuales?, ¿la filosofía puede desempeñar una función constructiva en la investigación científica?, ¿la ciencia está moralmente comprometida?, ¿existen límites al avance de la ciencia? Cuestionarse sobre los principios, fines y la naturaleza de la ciencia es el primer paso para hacer epistemología.

Mario Bunge enfatiza en esto al decirnos que la epistemología es pues, la filosofía de, en, desde, con y para la ciencia. Filosofía de la ciencia hace referencia al examen filosófico de la ciencia (sus problemas, sus métodos, su estructura, etc.). Filosofía en la ciencia (o más exactamente filosofía de la ciencia en la ciencia) comprende el estudio de las implicaciones filosóficas de la ciencia, el examen de las categorías e hipótesis que intervienen en la investigación científica, o que emergen en la síntesis de sus resultados. Es pues, el estudio de las hipótesis filosóficas que en ciencia se presuponen y se utilizan como punto de partida. La filosofía desde la ciencia sugiere que se trata de una filosofía que hace hincapié en la ciencia, que ha sustituido la especulación sin freno por la investigación guiada en el método científico, teniendo un respeto profundo por los hechos empíricos y por la consistencia lógica. Filosofía con la ciencia trata de una filosofía que acompaña a la ciencia, es decir, una filosofía que está al margen de los logros de la ciencia, que no se pone a especular sinsentidos sobre el ser y el tiempo. Por último, la filosofía para la ciencia sugiere una filosofía que no solo se nutre de la ciencia, sino que aspira a serle útil, que busca servir para establecer, por ejemplo, las diferencias que existen entre la definición y el dato, o entre la verdad factual y la proposición que es verdadera o falsa, independientemente de los hechos. Esta es una filosofía que no sólo escarba en los fundamentos filosóficos que las ciencias admiten, sino que además busca aclarar la estructura y función de los sistemas científicos, señalando relaciones y posibilidades inexploradas.

Pero hablar de filosofía de, en, desde, con y para la ciencia tal vez sea demasiado largo y poco estético. ¿Por qué no mejor utilizar un sólo concepto: epistemología?, o ¿por qué no llamarlo sólo filosofía de la ciencia? Una disciplina que resulta ser, por su objeto de estudio, una metaciencia. Pues bien, un epistemólogo como tal no puede ser un filósofo que pregona una filosofía contra, sobre y/o bajo la ciencia. Una filosofía contra la ciencia (tal como han existido y siguen existiendo) resultará ser una filosofía irracionalista, que desprecia el respeto por los hechos y la consistencia. Una filosofía contra la ciencia resulta ser anticientífica. Este tipo de posturas son las que alimentan doctrinas como las del fundamentalismo religioso, la tecnofobia y el activismo contra la investigación y aplicación científica. Quien filosofa contra la ciencia, o aun al margen de ella, ignorándola por completo (tal como nos dice Bunge) imita a los escolásticos que rehusaban mirar por el anteojo astronómico de Galileo.

Si hablamos de una filosofía sobre la ciencia estamos haciendo referencia a una disciplina superior rectora de las disciplinas científicas. Aunque éste ha sido el anhelo de muchos que en el pasado se han llamado a sí mismos "epistemólogos", lo cierto es que estos intentos no han sido otra cosa más que la burla de los científicos, pues siempre han mostrado grados intolerables de arrogancia combinados con ignorancia científica. Si quieres hacer que la comunidad científica se burle de la filosofía y la desprecie, tan sólo di que la filosofía es superior a la ciencia y que la primera le dice cómo actuar a la segunda.

Por otro lado, la expresión filosofía bajo la ciencia sugiera una posición inversa, como si la filosofía dependiera de forma absoluta de la ciencia. Este error, aunque poco común entre los filósofos que miran sus propuestas casi siempre como superiores a los anteriores, suele ser expresado como una virtud epistemológica. Sin embargo, la filosofía de la ciencia no sólo comporta el examen de los supuestos filosóficos de la investigación científica, sino que tiene derecho a una elaboración creadora de un nivel diferente del científico aunque reposa sobre éste último: el nivel metacientífico.

La comprensión precisa de la epistemología como la principal disciplina filosófica que, estando al margen de la ciencia, la cuestiona, la crítica y la analiza como la manifestación humana que es, probablemente sea el primer paso para comprender la relación tan estrecha entre filosofía y ciencia. Algo importante a comprender es que no todo el que tiene título en filosofía es un epistemólogo, del mismo modo que el no tener título en filosofía no significa que no se sea (o no se pueda ser) epistemólogo. Existen filósofos con perspectiva científica y científicos con inquietudes filosóficas que enriquecen por igual esta disciplina fascinante. Un segundo paso para este mismo propósito sería hablar de los logros e importancia de la epistemología para con la investigación, la aplicación y la divulgación de la ciencia, pero eso ya será tema para otra entrada.

*Publicación original en La pipa de Russell.

 


 

Acerca del Autor:

Daniel Galarza Santiago es estudiante de filosofía en el Centro Universitario de Ciencias Sociales y Humanidades (CUCSH) de la Universidad de Guadalajara. Autor de los blogs El escéptico de Jalisco y La pipa de Russell, también ha colaborado en otros espacios en línea tales como Blog Escéptico, Despertando Mentes, Magufobusters, Escépticos Unidos Mexicanos y Fundación Richard Dawkins para la Razón y la Ciencia.

100,000 Strong in the Americas, ¿qué podemos esperar?

“When we study together, we learn together, we work together and we prosper together.” President Barack Obama, May 2013, Mexico City.

“Cuando estudiamos juntos, aprendemos juntos, trabajamos juntos y prosperamos juntos.” Presidente Barack Obama, Mayo 2013, Ciudad de México.

Históricamente la relación entre los Estados Unidos Mexicanos y los Estados Unidos de América ha sido compleja y ha estado moldeada por lazos políticos, de negocios, culturales y familiares. El intercambio demográfico actual en la región es tan grande que la población hispana de los Estados Unidos de América ha superado los 50 millones de personas, haciéndolo el país con más hispanohablantes después de México. Sin embargo, intercambio demográfico no necesariamente significa un óptimo intercambio cultural e ideológico y aún hay un gran trabajo conjunto por hacer para impulsar la cooperatividad y el crecimiento en la región.

En la visita más reciente del Presidente Barack Obama a nuestro país, un tema importante en la agenda de discusión fue el programa 100,000 Strong in the Americas (100,000 Fuertes en las Américas), cuyo propósito principal es impulsar la movilidad de estudiantes no sólo entre los Estados Unidos de América y México, sino en todo el continente. Este programa pretende atraer a 100,000 estudiantes latinoamericanos a estudiar en EUA, mientras 100,000 estudiantes estadounidenses van a estudiar a Latinoamérica anualmente, con el objetivo final de lograr una mejor integración social, cultural y comercial en el continente. Este programa será financiado por el Gobierno de los Estados Unidos de América, la Asociación de Educadores Internacionales (NAFSA), gobiernos de países latinoamericanos, universidades y el sector privado.

¿Por qué es necesario un plan como este? La población del continente americano alcanza cerca de los 1,000 millones de habitantes (México: ~120 millones; Estados Unidos de América: ~300 millones) y se proyecta que para 2050 la población del continente rebase los 1,250 millones. Este crecimiento demográfico demanda soluciones innovadoras a problemas en sectores como salud, medio ambiente, educación, migración, seguridad, entre otros.

Actualmente existen diversos esfuerzos por crear soluciones a los problemas conjuntos de las Américas, pero a pesar de la cercanía geográfica aún hay grandes puentes que tender para lograr un entendimiento más profundo de la diversidad cultural. Esta vasta diversidad ideológica y cultural enriquece al continente pero al mismo tiempo hace que sea complicado crear políticas que funcionen y sean efectivas en toda la región. Estas soluciones sólo serán producto de trabajo en equipo entre los futuros líderes e innovadores de las naciones americanas. Facilitar el intercambio académico y cultural entre estos jóvenes futuros líderes los ayudará a comprender de manera más integral estos problemas, compartir ideas y crear soluciones para los mismos.

Sin duda las áreas de ciencia, tecnología, ingeniería y matemáticas (las famosas áreas “STEM” por sus siglas en inglés: science, technology, engineering and mathematics) serán de vital importancia en este programa y para el futuro desarrollo del continente.

¿Quién se beneficiará de un programa como este? En el corto plazo, los jóvenes estudiantes. La experiencia de estudiar en el extranjero crea una nueva forma de percibir tus raíces, un sentido de responsabilidad por volver a casa y ayudar a quienes están ahí. En el mediano y largo plazo: los países participantes en este programa, pues habrá una red de profesionales pensando en los problemas de estos países desde una perspectiva global, con ideas provenientes de todo el continente, buscando la manera de colaborar para crecer juntos. Se espera que el intercambio comercial en América crezca como resultado de esta iniciativa y de esta forma el sector privado también resultaría beneficiado, impulsando el crecimiento económico del continente.

Este intercambio académico traerá consigo intercambio de ideas e impulsará la cooperación. Los lazos de amistad creados a partir de la movilidad de estudiantes dentro del continente fortalecerán los lazos humanos en las Américas, sin duda indispensables para el crecimiento de nuestro continente. Durante la etapa de estudios universitarios se crea una manera de pensar y abordar problemas, la movilidad estudiantil creará una mente multicultural entre los estudiantes de las Américas, se fomentarán amistades entre personas de diferentes países, estos lazos traerán un mayor intercambio comercial, cultural y de valores para el continente.

¿Qué debe hacer México? Creo que la respuesta es simple, hacer lo que nos corresponde de la mejor manera. Si eres estudiante: estudia; en México o en el extranjero, donde estés hazlo lo mejor posible, no hay más. A los líderes políticos, apoyar e impulsar programas como este, facilitar los medios para que más estudiantes mexicanos se beneficien de esta iniciativa. Los profesores y académicos, mejorar su desempeño día a día para que las institutions educativas mexicanas sean más atractivas para estudiantes no sólo de Estados Unidos y Latinoamérica, sino de todo el mundo, de esta forma el intercambio académico y cultural será continuado así como los beneficios que lo acompañan.

Si la población hispana en los Estados Unidos actualmente es de más de 50 millones de personas, ¿podrán 100,000 estudiantes latinoamericanos impactar en la forma en que EUA mira a Latinoamérica? Y si la población de toda América es de casi 1,000 millones de personas, ¿podrán 200,000 jóvenes estadounidenses y latinoamericanos mejorar la calidad de vida y proponer soluciones a los grandes problemas del continente? El reto es grande, pero también lo son el liderazgo, la pasión y el talento de los jóvenes de las Américas.

Escrito por Jorge Buendía y publicado originalmente en AILUM

[hozbreak]

Acerca del autor

Jorge Eduardo Buendía Buendía es egresado de la Licenciatura en Ciencias Genómicas de la UNAM y actualmente investigador asistente en la Universidad de Edimburgo. Es también co-fundador de la Asociación de Ingenieros Líderes Unidos por México A.C. Sus intereses académicos yacen en la intersección entre matemáticas, computación y biología. De manera paralela se interesa en temas como educación, salud pública y literatura.

¿Te llevarías a ti mismo a una isla desierta?: la aversión a nuestra propia mente

cerebro En Internet abundan las listas de las 10 cosas que te llevarías a una isla desierta. "¿Cuáles son los 10 libros que te llevarías a una isla desierta?" "¿Cuáles discos?" "¿Cuáles pinturas?" Estas listas pretenden elegir obras de tanta calidad que no nos importaría pasar el resto de nuestras vidas repitiéndolas una y otra vez. Curiosamente, la pregunta más importante sobre las islas desiertas no cabe en formato de lista: "¿Te llevarías a ti mismo a una isla desierta?" La idea de pasar el resto de tu vida sin el acceso a ninguna obra artística o de entretenimiento ni a ningún contacto social, y quedarte contigo mismo y nada más, es la verdadera idea de una isla desierta. Pero ¿cuántos de nosotros aceptaríamos llevarla a cabo?

Recientemente, un grupo de científicos estadounidenses sugirió que la mayoría de nosotros nunca aceptaría, principalmente porque eso implicaría quedarnos a solas con nuestra propia mente. Tim Wilson y su equipo de la Universidad de Virginia realizaron un experimento con el fin de averiguar qué tan placentero es un ejercicio de pensamiento dirigido, sin distracciones externas de ningún tipo. Le pidieron a estudiantes universitarios voluntarios que se quedaran en un cuarto vacío de 6 a 15 minutos a solas y sin distracciones (ni libros ni música ni teléfonos celulares ni nada que pueda hacer un viaje a una isla desierta más placentero) y les sugirieron que pensaran sobre algún tema de su elección. Al salir, les preguntaron qué tan placentera había sido la experiencia. Cerca de la mitad de los participantes dijeron que no había sido placentera, cerca del 60 por ciento dijo que no había podido concentrarse y cerca del 90 por ciento, que su mente había divagado.

Pensando que el escenario de un cuarto de laboratorio sería la fuente de su incomodidad, los investigadores les pidieron a los voluntarios que hicieran un ejercicio similar, esta vez en sus propias casas. Los resultados fueron parecidos y, lo que es más, muchos admitieron haber hecho trampa y haberse distraído con sus teléfonos u otros objetos.

En entrevista para la revista Nature, Wilson se mostró sorprendido. "Tenemos un gran cerebro que está lleno de memorias placenteras y que tiene la capacidad de contar historias y construir fantasías: no debería ser tan difícil."

Tal vez Wilson tiene en la mente un mundo en el que las distracciones no están tan a la mano como ahora. Cada vez es más difícil elegir nuestras cosas para la isla desierta porque estamos inundados de cosas que piden que las llevemos. ¿No será esto un problema exclusivo de esos jóvenes universitarios, que nació con distracciones bajo el brazo? Los investigadores repitieron los experimentos con voluntarios que consiguieron en un mercado y en una iglesia de la localidad, con edades de 18 a 77 años. Los resultados volvieron a repetirse.

La conclusión de los investigadores hasta este punto era que las personas examinadas prefieren hacer algo a no hacer nada (aunque es discutible si el hecho de quedarse a solas con sus pensamientos es efectivamente no hacer nada, como se discutirá más abajo). La siguiente pregunta que abordaron fue si las personas preferirían hacer algo desagradable a no hacer nada. Idearon un experimento en el que dejaban a las personas a solas con sus pensamientos y con una máquina de toques (que con anterioridad los voluntarios habían admitido que eran tan desagradables que pagarían dinero para no sufrirlos), diciéndoles que usarla era su decisión. Al final del experimento, casi el 70% por ciento de los hombres y el 25% de las mujeres se administraron de 1 a 4 choques eléctricos durante algún momento del tiempo que pasaron a solas.

Para Wilson y su equipo, este es un resultado fascinante. "¿Por qué pensar fue tan difícil y desagradable?", preguntan en su artículo científico, publicado este mes en la revista Science. Aventuran un par de explicaciones. Es probable que los voluntarios se hayan metido a un ciclo de pensamientos negativos. Sin embargo, las entrevistas posteriores sobre qué habían pensado no mostraron una tendencia clara hacia las ideas negativas. Otra explicación es que a los voluntarios les resultó difícil ser los actores de sus propios pensamientos: ser a la vez "los guionistas" y los "experimentantes" (como los llamaron en su artículo) de sus fantasías. Sin embargo, en algunas versiones del experimento les daban a los voluntarios un tiempo de preparación para planear sobe lo que iban a pensar y esto no disminuía el desagrado final. ¿Cuál es la explicación entonces?

Los investigadores no aventuran más explicaciones que la más simple de todas: que a nuestras mentes no les gusta estar con ellas mismas. Sin embargo, también reconocen que esto no es universal. Al mencionar que hay estudios que muestran que las mentes son difíciles de controlar, señalan que hay personas que buscan mejorar el control de sus pensamientos por medio de la meditación y otras técnicas. "Sin ese entrenamiento", escriben Wilson y sus colegas en su artículo, "las personas prefieren hacer algo a pensar, aun cuando ese algo sea tan desagradable que normalmente pagarían para evitar hacerlo."

Quizá, después de todo, la principal respuesta a la pregunta "¿Qué te llevarías a una isla desierta?" debería ser: "una mente a la que no le desagrade pensar a solas."

_____________________

Bibliografía:

Nota fuente en Nature   | Artículo original en Social Psychology|Nota original en el Blog de Historias Cienciacionales

Los mejores amigos comparten todo, hasta los genes

amigos Del 1 al hermano del alma, piensa en aquellos amigos que se acercan más al límite de hermandad. En términos genéticos, considerar a tus mejores amigos como familia no es descabellado. De hecho, ellos son el equivalente a un familiar en cuarto grado, que es lo mismo a un primo que comparte contigo un tatara-tatarabuelo.

De acuerdo con un trabajo realizado por investigadores de diferentes universidades, que incluyen a la de Yale, en Estados Unidos, nuestro círculo social más cercano comparte el 1% de nuestros genes.

Dicho número puede parecer insignificante, pero muestra algo importante: somos más parecidos a nuestros amigos que a la gente que nos rodea todos los días.

Los genes que pertenecen a este porcentaje están relacionados con el sentido del olfato, pero se carecen de genes similares de la inmunidad. Esto significa que los mejores amigos perciben el mundo a través de los olores de una manera similar, pero que tienen una protección diferente contra las enfermedades.

Para llegar a esta conclusión, los autores del estudio trabajaron con el material genético de casi dos mil personas divididas en dos grupos: parejas de amigos y parejas de extraños.

Los investigadores mencionan que, a pesar de que las personas tenían ancestros europeos y fueron obtenidos de la misma población, los resultados no son un artefacto de sus antecedentes étnicos.

Finalmente, basados en las observaciones genéticas, los investigadores desarrollaron una “calificación de amistad” para predecir quiénes serán amigos con una precisión igual a la de los estudios que muestran las probabilidades de desarrollar esquizofrenia. ——————-

Bibliografía:

Nota fuente en Eurekalert   | Artículo original en PNAS|Nota original en el Blog de Historias Cienciacionales

 

De poco ayuda tener mucho talento en el mundial

copa Alemania se coronó hace unos domingo como el mejor equipo de futbol del mundo. Y aunque Argentina tenía al único jugador del planeta con cuatro balones de oro –reconocimiento al mejor jugador del año-, fue también sólo un gol el que los mandó a recoger las medallas de plata. En un equipo no hay espacio para mucho talento.

La intuición dice que un equipo con mucho talento entre sus jugadores es también el que se desempeña mejor. Este talento lleva a una mejor participación, pero existe un límite de máximo talento que, si se sobrepasa, puede ser perjudicial para la coordinación interna del equipo.

Dicha conclusión fue propuesta por un grupo de psicólogos de tres diferentes universidades, quienes analizaron los niveles de calificación de los jugadores en la copa del mundo del 2010 y la de 2014.

Las observaciones mostraron que los equipos se benefician de tener jugadores de élite en tanto que ellos no representen tres cuartos de la plantilla. Si el número de talentosos se desborda, su rendimiento cae.

Este resultado es congruente con el basquetbol y el beisbol. Un trabajo del mismo tipo realizado en la Asociación Nacional de Basquetbol estadounidense mostró que a lo más el 60% del equipo puede estar conformado por los mejores  jugadores para ayudar en . Por otro lado, un estudio en la liga de Beisbol del mismo país mostró que si la proporción de los mejores jugadores sube, su número de victorias aumenta. La diferencia radica en que, mientras los movimientos de los jugadores de basquetbol y futbol se traslapan en el terreno de juego, llevándolos a pelear y competir por la pelota entre ellos, en el beisbol las posiciones están muy especializadas.

Este trabajo pudo haber sido una llamada de advertencia para muchos equipos en este mundial que acaba de terminar. Por ejemplo, el director técnico del equipo francés, Didier Deschamps, anunció que mientras más jugadores élite pudiera conseguir para armar a la plantilla francesa, mejor sería el equipo para disputar la copa del mundo. Francia perdió por un gol también contra el ahora campeón del mundo. ----------------------------------

Bibliografía:

Nota fuente en Science Artículo original en Psychological Science|Nota original en el Blog de Historias Cienciacionales

 

 

Los cazadores del último bosón. A dos años del descubrimiento del bosón de Higgs.

Evento real de detección de un bosón de Higgs en el detector ATLAS del Gran Colisionador de Hadrones. El bosón de la imagen se encuentra decayendo en dos pares de electrones marcados en rojo y azul. ATLAS Experiment © 2014 CERN.  

Hace más de dos años, el 4 de julio de 2012, científicos de la Organización Europea para la Investigación Nuclear (CERN por sus siglas en inglés) mataron dos pájaros de un tiro: hicieron que Stephen Hawking perdiera una apuesta de cien dólares y pusieron fin a la búsqueda más intensiva de la que la ciencia moderna tiene registro. Esta búsqueda requirió de la construcción del Gran Colisionador de Hadrones (LHC), el complejo científico más grande del mundo con un costo superior a los nueve mil millones de dólares y un equipo de trabajo de más de diez mil científicos e ingenieros de todo el mundo. ¿Qué era lo que buscaban estos físicos con tanto empecinamiento? ¿Qué descubrimiento monumental requería de esfuerzos tan notables por parte de la comunidad científica internacional? Nada monumental, por el contrario, la búsqueda era en pos de algo en un orden de magnitud tan pequeño, que resulta incluso incomprensible. Lo que encontraron fue la última pieza de un rompecabezas llamado Modelo Estándar de las Partículas Elementales, una partícula que daría coherencia a los modelos físicos actuales. La infame, pero popularmente llamada Partícula de Dios: el bosón de Higgs.

 

Un gran descubrimiento… que no sorprendió a muchos

La primera imagen que viene a mi cabeza cuando recuerdo esa primera semana de julio de 2012 es la de un montón de periodistas tratando de explicar al mundo la importancia de un evento científico que sabían era de gran relevancia, pero que en realidad, no comprendían en lo más mínimo. Y es que la física de partículas subatómicas rara vez llega a los titulares, pero este descubrimiento ameritaba todos los reflectores.

Después de más de dos décadas de planeación, construcción y calibración de la instalación experimental más grande y compleja jamás construida, el Gran Colisionador de Hadrones cumplió el objetivo para el que había sido diseñado: la detección de una partícula cuyas características correspondían a las predicciones de lo que se esperaba era el bosón de Higgs.

 

ATLAS. Uno de los detectores multipropósito del Gran Colisionador de Hadrones. Lleva a cabo un amplio rango de labores, desde la búsqueda del bosón de Higgs y extra dimensiones, hasta la detección de partículas generadoras de materia obscura. ATLAS Experiment © 2014 CERN.

 

 

El descubrimiento del bosón corrobora las predicciones teóricas que Peter Higgs, Gerald Guralnik, Richard Hagen, Tom Kibble, Robert Brout y Françoise Englert realizaron en la década de los sesentas –¡la cacería duró cerca de medio siglo!- con respecto a la física de partículas subatómicas. El hallazgo, que le brindó el premio Nobel a Higgs y a Englert, era el último eslabón para que el Modelo Estándar estuviera completo, validando el trabajo de décadas de muchos físicos teóricos. La comunidad científica esperaba con ansias la comprobación de la existencia del bosón, ¡no podía no existir! La alternativa, un escenario mucho más interesante para la ciencia según Stephen Hawking, hubiera implicado el replanteamiento de muchos de los postulados físicos vigentes. La existencia comprobada del bosón de Higgs abre la puerta a nuevas concepciones sobre la forma en la que se comporta nuestro universo y podría ser el parte aguas para superar el Modelo Estándar y dar paso a una “nueva física”.

Se estarán preguntando ¿por qué tanto alboroto?, ¿qué es lo que hace a esta partícula tan especial? o ¿por qué la física moderna dependía de su descubrimiento? Para responder todo esto tenemos que empezar por una pregunta más general… ¿qué demonios es un bosón?

 

La naturaleza cuántica de un bosón

A mediados del siglo pasado, los físicos elaboraron el Modelo Estándar, una ambiciosa colección de ecuaciones y postulados cuyo objetivo es describir el comportamiento de todas las partículas subatómicas y la forma en las que estas interactúan. Es una teoría de casi todo y, aunque no considera elementos como la fuerza de gravedad o la materia obscura, es el modelo más ambicioso de la física moderna.

De acuerdo al Modelo Estándar, todas las partículas pueden ser divididas en dos grupos: los fermiones y los bosones. Los fermiones son las partículas subatómicas que constituyen la materia y se dividen a su vez en quarks (que conforman a los protones y neutrones) y leptones (de los cuales el electrón es el más conocido). Los bosones, por otro lado, son las partículas responsables de las fuerzas fundamentales asociadas a la naturaleza. Los fotones, por ejemplo, son los bosones relacionados con el electromagnetismo; los gluones, se encuentran asociados a las interacciones fuertes de los núcleos atómicos, responsables de que protones y neutrones no se desintegren en un frenesí de quarks; y los bosones W y Z se relacionan a las interacciones débiles, responsables de cambiar las propiedades de los quarks y de otras curiosidades como el decaimiento radiactivo y la fusión nuclear que mantiene al Sol brillando y generando calor para que podamos aprovechar un buen día de playa. Hasta aquí todo “fácil”.

 

¿Qué papel juega Higgs en todo esto?

En el Modelo Estándar bosones y fermiones interactúan alegremente para darle forma al universo como lo conocemos, permitiendo la expansión de las galaxias, la formación de estrellas y la vida en nuestro planeta. Para que esta armonía sea posible, las interacciones entre materia y energía deben ajustarse a ciertas reglas o simetrías. Sin embargo, la evidencia empírica empezó a jugar en contra del modelo: había partículas con más masa de la esperada, fuerzas que actuaban de forma distinta a lo predicho… ¡El caos! ¡Sería necesario reevaluar todos los postulados de la física moderna! ¡Tardaríamos décadas en reconstruir un modelo igual de robusto! O…podríamos intentar balancear el Modelo Estándar tomando en cuenta las anomalías y ver qué pasa.

El postulado teórico que vino a balancear el Modelo Estándar es asombroso. En teoría, el universo estaría embebido en una especie de red –el Campo de Higgs- encargada de suministrar de masa a la materia del universo. ¡Todas las partículas del universo obtienen su masa por la interacción con este campo y el bosón de Higgs es una expresión de esta interacción! ¿Confundidos? Intentemos visualizar lo siguiente. Imagínense que el universo se reduce a la superficie de un –enorme- charco de lodo. Sobre la superficie del charco hay un sinnúmero de canicas, algunas se deslizan sobre la superficie tan rápido que no dejan rastro de su paso y ni siquiera se embarran de lodo, otras cruzan por el charco con menos gracia y no se libran de alguna salpicadura y están aquellas que van rodando sin mayor preocupación y están hechas una porquería. Las primeras canicas corresponden a las partículas que carecen de masa, como los fotones. Las segundas corresponden a fermiones como los electrones y a algunos bosones que tienen masas muy bajas. Las últimas canicas son los quarks, componentes de los protones y neutrones del núcleo de los átomos. En esta pequeña analogía, el campo de Higgs sería el lodo y el bosón de Higgs… ¡las ondas que se forman por la interacción entre las canicas y el lodo!

Explicar el campo y el bosón de Higgs resulta tan complicado que a finales del siglo pasado, el Ministerio de Ciencias del Reino Unido ofreció una botella de champaña de la mejor calidad a aquel que realizara la analogía más sencilla al respecto. El premio se lo llevo David Miller del University College of London. Aquí les dejo una interpretación animada de su solución, esperando que, entre ésta y el lodazal, queden claros los conceptos más generales del campo de Higgs.

 

http://www.youtube.com/watch?v=joTKd5j3mzk

 

A dos años de detectar el bosón

La historia del bosón de Higgs, desde su concepción hasta su descubrimiento, es uno de los mejores ejemplos de cómo debe funcionar la ciencia moderna. Por un lado, nos demostró el poder que tienen las teorías científicas para realizar descripciones y predicciones sobre nuestro universo. Pero también es un recordatorio de que la única forma de validar nuestras ideas, debe ser a través del método científico.

El túnel principal del Gran Colisionador de Hadrones no ha visto muchas colisiones recientemente y, contrario a lo esperado por actores sensacionalistas de opiniones pseudocientíficas, todavía no ha destruido al universo. El mantenimiento es costoso y llevará tiempo. Sin embargo, los datos que se generaron en el complejo durante su periodo operativo siguen siendo analizados y los resultados siguen sorprendiendo a muchos. Hoy se cuenta con evidencia (observen la primera imagen de este artículo) de el decaimiento del bosón de Higgs hacia fermiones (su descubrimiento se basó exclusivamente en el decaimiento a bosones de baja masa) y se tienen más elementos para analizar a fondo la naturaleza del campo de Higgs. Recientemente se presentó el plan de trabajo para los próximos años de los distintos experimentos activos en el LHC.

El Modelo Estándar está completo. Ahora, la labor de la ciencia es terminar de entenderlo y expandirlo con la ayuda de las nuevas evidencias. Seguimos muy lejos de tener una “teoría de todo”, pero no cabe duda que dimos un paso gigante en esa dirección.

 

Crónica de una mantis marina conmovida en su mundo multicolor

mantis marina Me da mucha ternura cuando los humanos se emocionan por los colores que pueden ver. Que si la primavera llena de colores sus jardines o que si la lluvia del verano les pinta el cielo con un arcoíris. Pero ver el mundo con tres receptores de colores está sobrevalorado. Si nos vamos a poner estrictos, mejor verlo con 12, como nosotras. Así como lo dije, nosotras, las mantis marinas, tenemos 12 tipos diferentes de receptores de luz en nuestros ojos. Como si esto no fuera suficiente, un grupo de humanos acaba de observar con sus tres tipos de receptores que seis de nuestros receptores tienen la capacidad de diferenciar entre varios tipos de ondas de luz ultravioleta –cinco ondas, para ser exacta–.

Quienes nos estudiaron, de universidades estadounidenses y suecas, mencionan en su trabajo que hacemos uso de unos filtros ópticos ultravioleta que están presentes en las células de nuestros ojos. Ellos analizaron de lo que están hechos nuestros filtros y detectaron que es una sustancia que se puede encontrar en la piel o esqueleto de algunos organismos marinos.

Los humanos llaman a esta sustancia “protector solar natural”, muy al estilo de la crema que se ponen cuando van a la playa a asolearse. Y es que esta sustancia que encontraron en nuestros ojos nos protege de los daños causados por los rayos UV.

Una cosa es cierta: los humanos entienden muy poco nuestra visión, a la que ellos llaman “compleja”. Ahora, tienen la idea de que esta detección de rayos UV nos permite identificar presas en los corales.

Y claro, yo podría decirles la verdad. Pero prefiero seguir por ahí, andando en mi mundo brillante y lleno de imágenes fascinantes. ___________________

Bibliografía:

Nota fuente en Science Daily   | Artículo original en Cell|Nota original en el Blog de Historias Cienciacionales

¿Comer por dos en el embarazo?

Mi abuela decía que echando a perder se aprende y yo lo viví echando a perder mis codos cuando estaba tratando de aprender a andar en bicicleta. Al final sólo me quedaron unas cicatrices y no pasó a mayores, pero a mi tía Karina no le fue tan bien. Cuando Manuelito nació, todos estábamos encantados. ¡Pesaba más de cuatro kilos! Era increíble. Sobre todo considerando que en la familia somos más bien menuditos.

Se veía tan grande y gordo que nos pareció muy extraño que tuviera que quedarse en el hospital. Aparentemente no respiraba bien. En una de las visitas que le hicimos, el doctor nos explicó que la tía Karina había cursado con diabetes gestacional y que por eso Manuelito había nacido tan grande y estaba teniendo problemas para respirar. Nos dijo que se le había quedado líquido en los pulmones y tendría que estar en observación unos días.

Alimentación en el embarazo

Foto: Teresa Rodríguez

Una adecuada alimentación durante el embarazo es crucial tanto para la madre como para el bebé que está por nacer. Al planear un embarazo con asesoría nutricional es posible corregir las deficiencias y excesos en la alimentación de la futura madre que pudieran representar un riesgo para ella o para el feto.

bebé - alimentación embarazo

Foto: radloff

Para las mujeres embarazadas es común escuchar la frase “estás comiendo por dos”. La dicen en películas, en libros y en ocasiones hasta las mamás y las abuelitas. Sin embargo, durante los tres primeros meses de gestación, una dieta equilibrada, tal como la que debe llevar cualquier otra persona, es suficiente para cubrir los requerimientos tanto de la madre como del producto. Es importante aumentar el consumo de agua (en la medida que lo recomiende el médico o nutriólogo) para contribuir a la formación del líquido amniótico, el cual rodea al bebé durante el embarazo.

En el tercer trimestre del embarazo se pueden suplementar alrededor de 500kcal adicionales al requerimiento normal, vigilando siempre la calidad sobre la cantidad. Esto implica consumir alimentos que contengan proteínas de buena calidad (como carnes y leguminosas), ácidos grasos esenciales (como pescado graso y nueces) y frutas y verduras, llevando una dieta variada y suficiente. Es importante evitar la comida rápida (frita y con alimentos en conserva o congelados), los alimentos ricos en sal y el exceso de grasa y azúcares en la dieta. Una regla no escrita es que la madre debe haber ganado un total de 10 kilos al término del embarazo. En general, puede ser un buen dato a tener en mente, pero claramente depende del caso, ya que no todas las personas inician su embarazo en las mismas condiciones ni con el mismo peso. Por ejemplo, para personas que inician el embarazo con sobrepeso, este rango normalmente se reduce de 5-9 kg. En el 2008 se publicó un reporte en Estados Unidos con el fin de ayudar a médicos y nutriólogos a proporcionar una mejor asesoría respecto a este tema durante el embarazo y evitar el uso de esa “regla de dedo”.

La diabetes gestacional es uno de los posibles problemas que pueden surgir durante el embarazo. Están en riesgo, principalmente las personas mayores de 25 años, con sobrepeso o con antecedentes diabéticos en la familia. Actualmente, desconocemos el porcentaje exacto de la población que sufre este padecimiento, pero el número de casos reportados ha aumentado en los últimos años.

El detectar este padecimiento en etapas tempranas permite que la mujer gestante reciba el tratamiento adecuado para reducir al mínimo los riesgos asociados al mismo. Estos riesgos incluyen hipertensión arterial, preclampsia y eclampsia en la madre. Mientras que en el bebé puede causar un tamaño demasiado grande o demasiado pequeño, complicaciones respiratorias e ictericia, entre otros problemas. El llevar un buen control de peso y nutricional es crucial para prevenir este padecimiento durante el embarazo.

A mamá le extrañó mucho que eso fuera lo que tenía la tía Karina. Ella me dijo que la diabetes más bien le da a personas mayores o que consumen mucha azúcar.

La diabetes gestacional no siempre se presenta a causa de sobrepeso, de hecho, parece estar asociada a las hormonas placentarias que pueden llegar a bloquear los efectos de la insulina en el cuerpo de la madre. Esto hace que no haya suficiente insulina para transportar la glucosa a las células y convertirla en energía, causando así diabetes. Algunos de los síntomas incluyen visión borrosa, mareos, vómito y sed, entre otros. Todo esto puede evitarse con una adecuada alimentación.

Mientras Manuelito seguía en el hospital, mamá y yo nos quedamos con la tía Karina. Ella se sentía muy cansada todo el tiempo y siempre tenía sed. Al parecer así había pasado todo el embarazo. No sólo eso, también había tenido muchos “ascos” y de repente veía borroso.

En la actualidad es común que las mujeres embarazadas, sobre todo las adolescentes, tengan miedo de engordar y por ello busquen comer lo menos posible durante el embarazo. Cuando las ratonas preñadas, son alimentadas con una dieta pobre en proteínas se han observado problemas en el desarrollo del cerebro y páncreas del feto.

El embarazo adolescente y los embarazos espaciados por menos de un año son situaciones donde el cuerpo de la madre puede presentar mayores deficiencias. El embarazo en adolescentes es un tema muy delicado ya que, en muchos casos, la futura madre sigue creciendo; este crecimiento provoca una competencia por recursos con el feto en desarrollo, lo cual puede traer consecuencias como bajo peso al nacer o partos prematuros. La solución no es tan simple como alimentar más a la madre, ya que es fácil que al comer más, la chica aumente de peso mucho más de lo recomendado. No es una cuestión de cantidad, sino de hacer lo posible por cumplir con las necesidades tanto de la madre como del producto. Si la madre ya tiene una deficiencia nutricional importante, el cuerpo suele darle preferencia a la madre, mientras que cuando la alimentación es ligeramente deficiente, el cuerpo de la madre favorece al feto.

En los últimos años se han llevado a cabo diversas campañas para fomentar que las mujeres embarazadas consuman nutrientes como el ácido fólico. Esto es debido a que bajos niveles de hierro y de ácido fólico durante la gestación pueden llevar a partos prematuros y retraso en el crecimiento del feto. A pesar de que el mecanismo exacto en que actúa el ácido fólico se desconoce, hay evidencia de su importancia para disminuir la incidencia de malformaciones como la espina bífida.

La espina bífida es una malformación de los tejidos neurológicos. No es la única, pero es la más común. En ella, la columna vertebral de los bebés no cierra adecuadamente y frecuentemente es necesario operarla para evitar que el daño empeore. Esto hace muy importante el llevar una dieta adecuada durante la gestación y consumir suplementos cuando así sea requerido.

Alimentación en el embarazo - 3 w&b

Foto (modificada): Thomas Hellberg

A la tía Karina la trataron con una dieta restrictiva y Manuelito, no tardó en salir del hospital. El doctor le dijo a mamá que, a pesar de las complicaciones, Manuelito ya estaba bien y fuera de peligro. Le comentó que en muchos casos, después de sufrir diabetes gestacional, una persona puede volverse diabética, por lo que la tía Karina debería ir a revisiones periódicas para hacer lo posible para evitar que la diabetes se consolidara.

[hozbreak]

Bibliografía

En “Diabetes gestacional. Comportamiento de los factores de riesgo en población mexicana” los autores revisaron los principales factores de riesgo para esta enfermedad en México.

Aquí pueden encontrar la liga acerca de la alimentación en madres adolescentes, así como el aumento de peso recomendado en ellas.

Guía general (revisada por médicos) de las necesidades nutricionales de la mujer embarazada. En ella se mecionan los aumentos de peso durante el embarazo que suelen recomendarse. En Outcomes of Maternal Weight Gain se realizó una revisión de la literatura con el fin de orientar la atención médica y nutricional de mujeres embarazadas con respecto a su peso.

Estudio sobre la resistencia a insulina en ratones tratados con placenta humana.

En “Influences of pre- and postnatal nutritional exposures on vascular/endocrine systems in animals” se menciona los efectos que una dieta pobre en proteínas puede tener en el desarrollo del páncreas de ratones.

Los autores de "Early life protein restriction alters dopamine circuitry" y "Early protein malnutrition disrupts cerebellar development and impairs motor coordination" argumentan que una dieta pobre en proteínas puede causar un desarrollo deficiente del sistema nervioso.

En Recommendations for Weight Gain During Pregnancy in the Context of the Obesity Epidemic se mencionan algunas recomendaciones para el control de peso y alimentación durante el embarazo de personas con sobrepeso.

En el artículo de revisión: Diabetes mellitus gestacional. Puede encontrarse información acerca de las causas y posibles consecuencias de la diabetes gestacional.

En el artículo The Risk of Maternal Nutritional Depletion and Poor Outcomes Increases in Early or Closely Spaced Pregnancies, los autores mencionan cómo el tener embarazos consecutivos y una mala nutrición pueden afectar tanto al feto como a la madre.

[hozbreak]

Acerca del autor

Libertad Pantoja Hernández nació en la Ciudad de México. Estudió Ciencias Genómicas en el campus Morelos de la UNAM. En el 2008 y 2009 participó el concurso iGEM de máquinas genéticas. Actualmente estudia el Doctorado en Ciencias Biomédicas en la UNAM y participa en el Taller de Narrativa impartido por Alberto Chimal. Cada vez que puede escribe y dibuja.

El gato de Schrödinger: ¿estaba entonces vivo o muerto?

¿Puede un gato estar vivo y muerto a la vez? En esta colaboración, nuestro amigo Juan de Pedazos de Carbono responde esta pregunta y nos explica por qué. ------

Seguramente habrás escuchado, quizá sin enterarte mucho de los detalles, sobre la paradoja del famoso gato de Schrödinger. Yo mismo sabía desde hace años sobre este experimento mental, pero fue hace poco gracias a la explicación de Jim Al-Khalili en “Paradox” que finalmente entendí la solución a esta aparente paradoja. La respuesta sobre si todo este tiempo el gato estaba vivo o muerto es: . Pero mejor déjenme explicar antes la pregunta.

GatoSchroedinger

El gato de Schrödinger, ¿simultaneamente vivo y muerto? / Imagen: Dhatfield *

Erwin Schrödinger se preguntó lo que pasaría si colocamos a un gato dentro una caja especialmente preparada y después la cerramos. Dentro de la caja se encuentra también una muy pequeña cantidad de algún material radioactivo, tan pequeña que en el transcurso de una hora hay sólo un 50% de probabilidad de que el material emita una partícula cargada de energía. Si la partícula es emitida entonces activará un detector que, a su vez, liberará un potente ácido matando al gato de forma instantánea. (Recuerda: es un experimento mental, ¡ningún gato ha sido lastimado pensando en las implicaciones de este experimento!)

Si repitiéramos el experimento muchas veces—colocamos un gato en la caja, cerramos la caja, esperamos una hora, abrimos la caja—la mitad de las veces encontraríamos un gato muerto (cuando se emitió la partícula) y la mitad de las veces un gato vivo (cuando la partícula no fue emitida). Esto puede sonar un poco cruel, pero nada extraño. Schrödinger notaba que lo realmente absurdo es que, según la física cuántica, cuando la caja estaba cerrada la partícula fue “emitida” y “no emitida” al mismo tiempo. En el mundo cuántico ambas posibilidades ocurrieron simultáneamente en realidad y, por consecuencia, mientras no mirábamos el gato estaba simultáneamente vivo y muerto. Más aún, parecería que nuestra acción de abrir la caja y observar el interior fue lo que “decidió” el destino del gato.

¡Eso sí que suena completamente absurdo! ¿Qué tenemos de especial que con sólo observar podemos estar decidiendo el destino de los gatos?

Antes de contestar estas preguntas, y revelar la solución a la aparente paradoja, quizá sea importante entender exactamente qué es lo que dice la física cuántica, y por qué es que sabemos que lo que dice es cierto.

Un electrón, por poner un ejemplo, en realidad no es una pequeña canica que se encuentre siempre en algún lugar determinado. La posición del electrón se puede entender más bien como una onda, cuya amplitud está relacionada con la probabilidad de encontrar al electrón en distintos sitios. Ojo, no se trata de que seamos nosotros los que no sepamos la posición exacta del electrón y por lo tanto usemos probabilidades como una aproximación, el hecho es que el electrón realmente se encuentra en distintos sitios al mismo tiempo.

Esto puede comenzar a sonar algo bizarro pero la verdad es que, hasta este punto, la situación no es muy distinta a lo que ocurre cuando dejas caer una piedra en un lago y observas las ondas producidas sobre la superficie. La onda no está localizada en un punto exacto sobre el lago, sino distribuida y ocupando distintos sitios al mismo tiempo. De modo similar, al chocar unos con otros los electrones “interfieren” entre ellos—sumándose o cancelándose sus amplitudes—del mismo modo como lo hacen las ondas en el lago.

El comportamiento de los electrones no es muy distinto al de las ondas en la superficie de un lago / Foto: Scott Robinson

Esto se puede comprobar en el famoso experimento de la doble rejilla donde a un solo electrón se le hace pasar por dos caminos distintos que—al juntarse después de nuevo—ocasionan que el electrón haga interferencia “consigo mismo”. Espero que con la explicación que acabo de dar te puedas hacer en la mente una idea más o menos de lo que está sucediendo. No es muy complicado. Quizá nunca lo habías pensado de esta manera, pero también te darás cuenta que no es tan descabellado como sonaba en un principio.

Lo realmente inesperado y sorprendente es lo siguiente: si en uno de los dos caminos pones un detector para determinar si el electrón pasó o no pasó por ahí, entonces los patrones de interferencia desaparecen y el electrón parece ser forzado a elegir entre tomar “uno” o “el otro” camino, ya no ambos al mismo tiempo. Pareciera que el electrón puede felizmente recorrer los dos caminos distintos al mismo tiempo mientras nadie lo mira, pero al observarlo el electrón es forzado a elegir una y sólo una de las dos opciones.

El párrafo anterior contiene una de las ideas centrales de la física cuántica, la que daba dolores de cabeza a Schrödinger, y de la que surgen muchas de las otras extrañezas que seguro has escuchado sobre física cuántica. Y no se trata de filosofía ni de un experimento mental, esta es en realidad la forma en que los electrones—al igual que fotones y otras partículas energéticas—se comportan cuando se les estudia en el laboratorio. Este es un hecho de nuestro universo.

Desafortunadamente ésta es también la idea de la física cuántica que más suele ser mal interpretada, dando dar lugar a ideologías como “El Secreto” o toda la pseudo-filosofía de Deepak Chopra. Y es que el experimento parece decir que las cosas no son “reales” hasta que las observamos, que nuestro acto consciente de observar al mundo es el que ocasiona que el destino se desenlace de una u otra manera. “Tu mente decide la realidad.” Pero esto no es así.

Lo curioso es que la solución a este malentendido resuelve también la paradoja del gato de Schrödinger. Y es que el “observar” que hace que un electrón tome uno u o otro camino—o que una partícula se emita o no se emita, y por lo tanto se produzca o no la muerte del gato—no requiere una mente consciente que esté “observando”. No requiere un humano, ni siquiera un par de ojos: el electrón es “observado” al interactuar de cierta manera con cualquier otro sistema—por ejemplo un detector de electrones—en un proceso llamado decoherencia cuántica.

El gato no pudo estar vivo y muerto al mismo tiempo pues, si en algún momento el detector “observa” que la partícula radioactiva es emitida, a partir de entonces el destino de la partícula—y fatalmente también del gato—ha sido definido. La respuesta es entonces que , en todo momento el gato está vivo o muerto—según el detector determine—pero nunca se encontraba en ambos estados al mismo tiempo.

En conclusión los efectos cuánticos son reales, pero solo aplican en escalas muy pequeñas del tamaño de los átomos, así como a electrones, fotones y partículas más pequeñas. En cuanto tienes un sistema más grande y complejo—como un detector, un gato, o una persona a quien le gustan los gatos—el proceso de decoherencia pronto ocurre y los efectos cuánticos desaparecen. Cuando se entiende un poco más la física cuántica no parece ya taaan extraña, ¿verdad?

Juan

--

Escrito por Juan A. Navarro Pérez y publicado originalmente en Pedazos de Carbono

* La imagen aquí utilizada para ilustrar el gato de Schrödinger es distinta a la que se presentó en la versión original de Pedazos de Carbono

El vibrante arcoíris de las aves.

pajCharles Bukowski tenía un pájaro azul en su corazón que sólo dejaba salir algunas noches, cuando todo mundo dormía. Los pájaros, sean corazones atrapados o cantantes libres, tienen impreso el arcoíris en sus plumas. El color de las plumas de las aves está dado por los carotenoides, pigmentos orgánicos que también dan color a las plantas y a algunas bacterias y hongos.El ancestro común de todas las aves con un colorido plumaje vivió hace 56 millones de años, más de 100 millones de años después de que los pájaros cafés y negros se adueñaran de los cielos.

Esta conclusión fue alcanzada por un grupo de investigadores de instituciones estadounidenses y neozelandesas, quienes colectaron y analizaron los compuestos químicos de plumas de casi 10 mil especies de pájaros extintos. Sus resultados mostraron que el plumaje del 40% de todas las aves estudiadas contenía carotenoides, lo que es 25% más de lo que se había estimado.

Después de construir un árbol genealógico entre especies, los investigadores han propuesto que los pájaros se han vuelto más coloridos con el paso del tiempo.

Fuentes: Nota fuente de Science | Artículo original | Traducción del poema “Bluebird” de Bukowski | Nota de Historias Cienciacionales  | Imagen