Divulgación de la Ciencia

Las células de nuestro cuerpo saben qué hora es

Las células de nuestro cuerpo saben qué hora es

¿Sabías que las células de nuestro cuerpo saben cuándo es de día y cuándo es de noche? Este fenómeno se llama “ritmo circadiano” y es de gran importancia para regular desde procesos a nivel celular hasta el comportamiento de los seres vivos.

De cuentos y patas, un blog para bicharrajos

De cuentos y patas, un blog para bicharrajos

De cuentos y patas, un blog para bicharrajos

Bichos, alimañas, sabandijas. Bien reza el dicho, "más sabe el diablo por viejo que por diablo". A la luz de la historia biológica de la tierra, pocos grupos de animales podrán presumir de ser tan sabios como aquel de los artrópodos. Son por mucho el grupo de animales más numeroso en especies, y de los más antiguos

Bacterias y hongos produciendo mi detergente

No todas las bacterias y hongos causan enfermedades o plagas como a veces se suele creer; con ayuda de la biotecnología y de la ingeniería genética podemos hacer uso de algunas moléculas que ellos utilizan como las enzimas. Pero, ¿qué son las enzimas? Son herramientas que todos los seres vivos producen y que ayudan a que los procesos que tienen lugar dentro de las células se lleven a cabo más rápido, ya sea degradando o sintetizando compuestos que posteriormente serán utilizados. Gracias a la biotecnología, se ha logrado manipular muchas enzimas con el fin de obtener o mejorar productos, como por ejemplo los detergentes. Imaginemos ahora el mecanismo de limpieza de un detergente común. Un detergente es una mezcla de compuestos que facilita la remoción de suciedad en las telas; dado que el agua por sí sola no es capaz de penetrar en las telas con suciedad, al combinarse con el detergente se facilita la absorción en la ropa. Esto es gracias a que los detergentes disminuyen la tensión superficial del agua. Una vez absorbido, el detergente comienza su mecanismo de limpieza gracias a unas estructuras llamadas “micelas”, las cuales son pequeñas cápsulas que atrapan la suciedad liberándola a la superficie.

Las enzimas en los detergentes se utilizan para romper enlaces de biomoléculas como lípidos, carbohidratos y proteínas, causantes de manchas casi imposibles de eliminar. La eficiencia de las enzimas llega a tal alcance que gracias a estos nuevos productos biotecnológicos el eliminar manchas de sangre, aceite y otras que antes condenaban a las prendas a la basura, ahora se ha vuelto una tarea más sencilla y esto gracias a aquellos microorganismos que tanto nos desagradan.

Existe una gran cantidad de bacterias y hongos cuyas enzimas inspiran nuevos productos biotecnológicos, un ejemplo de algunos son las bacterias Bacillus lichenformis y Bacillus amyloliquefaciens, y los hongos Humicola insolens, Aspergillus oryzae y Aspergillus flavus. Todos estos son utilizados en la industria biotecnológica en los detergentes con enzimas.

La Bacillus lichenformis es una bacteria encontrada en forma de espora en el suelo. De ella se obtienen las “amilasas”, específicamente la α-amilasa, que es una enzima que ayuda a degradar residuos de almidones o carbohidratos, como el chocolate o las harinas.

La Bacillus amyloliquefaciens, por otro lado, es una bacteria productora de las enzimas llamadas “proteasas”, las cuales se encargan de romper, con ayuda del agua, los enlaces que unen a las proteínas, removiendo manchas de huevo y sangre, ambos constituidos principalmente por este tipo de macromoléculas. Estas proteasas son también producidas por el hongo Aspergillus flavus (figura 1), causante de enfermedades en humanos; puede ocasionar desde una rinitis alérgica hasta asma crónica severa. Este tipo de hongo forma filamentos o ramificaciones durante su crecimiento, secretando la enzima capaz de descomponer alimentos complejos. Este tipo de enzimas se encargan de romper las proteínas en las moléculas que la constituyen, o sea los aminoácidos, pues así el hongo puede alimentarse fácilmente.

PHIL_4299_lores

Figura 1. Aspergillus flavus, hongo que causa enfermedades en humanos, pero cuyas enzimas también han sido útiles para la producción de detergentes. Imagen cortesía del Dr. Libero Ajello , ID #4299.

 

Otras enzimas integradas en los detergentes son las “lipasas”, que ayudan a disolver las manchas de grasas y aceites en la ropa, y son producidas por un hongo filamentoso llamado Humicola. Mediante la biotecnología se logró aislar el gen de la lipasa de este hongo y se transfirió al hongo Aspergillus oryzae, utilizado también en la producción de salsa de soja mediante la fermentación.

Todas estas enzimas son muy eficientes en nuestra ropa hecha de algodón, compuesto en un 91.5% de celulosa, un tipo de carbohidrato complejo que forma las fibras que se entrelazan para crear una tela. Al desgastarse la tela, se exponen cada vez más fibras de algodón al exterior promoviendo la pérdida de color y la apariencia desgastada en la ropa. Actualmente los detergentes que conservan el color en las telas contienen “celulasas” que son extraídas de un hongo llamado Humicola insolens. Estas enzimas están encargadas de degradar la celulosa contenida en las fibras de algodón desgastado, así se pierden los excedentes causantes del color opaco y se restaura el color original de la prenda.

Gracias a la biotecnología podemos manipular bacterias y hongos que en otras circunstancias resultan perjudiciales para nuestra salud y utilizarlas para nuestro beneficio en asuntos de la vida diaria. Estas innovaciones se apoyan en dichos microorganismos para que los procesos industriales se vuelvan amigables con el ambiente, permitiéndonos crear productos biodegradables de uso cotidiano tales como los detergentes.

 

Referencias

Jesús Córdoba López, S. R. (s.f.). Producción de Lipasas de hongos termófilos cultivados en medios líquidos y sólidos. Guadalajara, Jalisco, México.

Jorge Gonzáles-Bacerio, V. R.-M.-M. (2010). Las lipasas: enzimas con potencial para el desarrollo de biocatalizadores inmovilizados por adsorción interfacial. Revista Colombiana de Biotecnología , 12 (1).

Jyoti Vakhlu, A. K. (10 de Agosto de 2005). Yeast Lipases: enzyme purification, biochemical properties and gene cloning. 9(1). Electronic Journal of biotechnology.

Murray, P. (2009). Center for Integrated Fungal Reaserch. Obtenido de AspergillusFlavus.org: http://aspergillusflavus.org/aflavus/

Las enzimas en los jabones para la ropa. Recuperado el 24 de noviembre del 2014 desde http://www.argenbio.org/index.php?action=novedades&note=240

Proteasa. Recuperado el 24 de noviembre del 2014 desde http://www.ecured.cu/index.php/Proteasa

Martínez G., J.F. (2005). Utilización de la α-amilasas en la formulación de detergentes industriales. Tesis doctoral, Departamento de ciencias químicas, Universidad de Granada.

 

Agradecimientos

A la Dra. Yalbi I Balderas-Martínez de la Facultad de Ciencias, UNAM, México, D.F. por la revisión del escrito.

 

Autores

Estudiantes de la Ing. en Biotecnología de la Universidad Politécnica del Estado de Morelos UPEMOR. Por orden alfabético:

Alejandra Naomi Adán Valencia, Sergio A. Chavarría Santibañez, Emmanuel Gómez Corona, Gabriela Hernández Contreras, Oliver Gerardo Moreno Aguilera, Karen Azucena Ruiz Guerrero, Jonathan Sandoval Espinoza.

Una breve historia del petróleo y la sociedad que decidió explotarlo

Durante los primeros meses de 1991, fuerzas iraquíes encendieron fuego a cientos de pozos petroleros en Kuwait en respuesta a la intervención de las fuerzas de la Coalición de la Guerra del Golfo. Los incendios petroleros de Kuwait fueron totalmente controlados en noviembre del mismo año. La invasión de Irak a Kuwait fue motivada por conflictos petroleros. http://bit.ly/VQfsAx  

Hace algunos meses un grupo de hackers de la comunidad musulmana, bajo el nombre de AnonGhost, lanzó el primero de lo que prometió sería una serie de ataques contra corporaciones occidentales y ciertos gobiernos de países árabes; la campaña #OpPetrol es un ataque dirigido a la industria petrolera que, en palabras de los activistas, “ha deshumanizado la economía y ha creado un nuevo orden mundial basado en el Petro Dólar”. Del otro lado del mundo, un grupo de ecologistas es arrestado por protestar contra la construcción de las primeras minas para explotar arenas de petróleo en Estados Unidos que, siguiendo el ejemplo de Canadá, busca extraer hidrocarburos por vías poco ortodoxas, como respuesta al agotamiento de otro tipo de yacimientos.

En México se invierten cantidades exorbitantes en la exploración y explotación de yacimientos petroleros en aguas profundas aún cuando la sombra del desastre provocado por el hundimiento de la plataforma Deepwater Horizon en 2010 no se ha disipado del todo.

No cabe duda que el mundo se mueve con combustibles fósiles y es un hecho que la reserva mundial de estos hidrocarburos está menguando; día con día somos testigos de las implicaciones políticas, económicas y sociales que se desprenden de este hecho. Pero, ¿qué sabemos realmente del petróleo?, ¿de dónde viene?, ¿cuándo comenzamos a explotarlo?, ¿por qué parece haber tan poco? y ¿cómo pasó de ser una solución energética a ser un problema mundial? Para darle respuesta a estas preguntas tenemos que comenzar el relato hace algunos millones de años, cuando la Tierra era muy diferente a lo que conocemos ahora.

 

Un puré de microorganismos a presión

Contrario a la creencia popular, hay muy poco de dinosaurios en nuestro petróleo; la mayor parte de él tuvo su origen en las aguas tibias y someras de mares antiguos, donde las condiciones ambientales favorecieron una explosión de vida microscópica (algas verde azules, foraminíferos y diatomeas), pero un océano floreciente de vida es también un océano lleno de muerte; cuando estos microorganismos partían al cielo de las diatomeas, sus restos se depositaron por millones sobre el lecho marino; en ocasiones la velocidad de este proceso era tal, que el piso oceánico acumulaba restos con mayor velocidad que la necesaria para iniciar el proceso de descomposición. A esta receta sólo tenemos que agregarle unos cuantos millones de años de temperatura y presión elevadas y listo: nuestro coctel de microorganismos se ha transformado en petróleo.

 

Las diatomeas son algas unicelulares que forman una proporción importante del fitoplancton. Poco queda de sus espectaculares diseños después de que el tiempo, la presión y las elevadas temperaturas las transforman en hidrocarburos. Ilustración de Ernst Haeckel.

 

 

Las condiciones adecuadas para la formación de petróleo no son exclusivas de una era geológica; distintas circunstancias pudieron haber generado situaciones similares a las expuestas anteriormente para formar los yacimientos que tanto nos esforzamos en localizar hoy en día. Un elemento constante para que sea exitosa la transformación del plancton en un potencial combustible de avión, es el paso del tiempo. Las condiciones de temperatura y presión necesarias para que esto suceda se logran mediante la acumulación lenta y sostenida de sedimentos que aumentan gradualmente la presión de las capas más bajas y provocan que éstas eleven su temperatura al estar más cerca del manto terrestre. Esto sólo sucede con el paso de millones y millones de años. En este proceso, además de petróleo, también se genera gas natural.

El carbón, el tercer elemento en nuestro imperio de combustibles fósiles, se generó mediante un proceso similar, pero éste utilizó materia vegetal “macro” -troncos y ramas- como materia prima. Estudios recientes han sugerido que la abundancia de depósitos de carbón con más de trescientos millones de años de antigüedad puede estar relacionada con la ausencia de hongos capaces de descomponer la lignina de los troncos. ¿De qué sirve comer madera si no se ha “inventado” la madera aún?

Existe un teoría alternativa respecto a la formación de petróleo y otros combustibles fósiles por la descomposición de materia viva: la teoría abiótica. Los defensores de esta teoría argumentan que el origen del petróleo, el carbón y el gas natural podrían estar ligados a procesos que ocurren naturalmente en las capas más profundas de la corteza terrestre, cerca del manto, sin necesidad de la intervención de materia viva. Existe una gran controversia con respecto a esta teoría, pero no puede eliminarse debido al simple hecho de que nadie ha presenciado la formación de petróleo de forma natural. Si la teoría abiótica tuviera fundamentos, esto implicaría que existe más –mucho más- petróleo, gas y carbón en la Tierra del que tenemos previsto; sin embargo, esto también implica que dichos recursos podrían estar a profundidades y condiciones tales que su explotación es prácticamente inviable bajo los esquemas de extracción actuales. Independientemente de quién tenga la razón, en términos de aprovechamiento de recursos, quedamos en las mismas.

 

El surgimiento de una economía petrolera

El petróleo se ha utilizado de forma más o menos constante por varias civilizaciones humanas. Existen registros de su uso por griegos, chinos y persas, quienes utilizaban el recurso para labores de construcción y, por su carácter inflamable, como materia prima para lámparas y otras pirotecnias. Su historia moderna empieza a mediados del siglo XIX, cuando pasó de ser un remedio casero para curar dolores reumáticos a ser el principal combustible utilizado en la iluminación.

El queroseno –un aceite producido a partir de una destilación simple del petróleo- sustituyó rápidamente al aceite de ballena como principal fuente de iluminación, debido a su bajo costo y aparente abundancia; esta industria fundamenta el éxito temprano de la explotación petrolera. Pronto se comenzaron a construir refinerías a gran escala para solucionar la demanda del combustible y procesar el nuevo recurso que “brotaba de la tierra”. John D. Rockefeller aprovechó la fiebre del oro negro y fundó Standard Oil, la compañía que capitalizó el aprovechamiento del hidrocarburo hasta principios del siglo XX.

En 1879 Thomas Alva Edison presenta al mundo el primer foco de luz incandescente, capaz de comercializarse a gran escala y el imperio del queroseno llega a su fin. Sin embargo, los procesos de refinación petrolera habían generado un sinnúmero de productos aprovechables y el petróleo no tardó en encontrar un nuevo mejor amigo: el motor de combustión interna.

A partir de aquí, la historia es fácil de recapitular: Henry Ford hace que el motor de combustión interna se vuelva uno de los bienes más comunes en los hogares estadounidenses y en el mundo, la demanda mundial de petróleo aumenta exponencialmente durante el siglo XX y se empiezan a aprovechar nuevos subproductos de la refinación del petróleo crudo, principalmente en la forma de polímeros plásticos.

Los primeros síntomas de agotamiento se hacen evidentes y para los años sesenta, Estados Unidos no puede sostener una producción capaz de satisfacer la demanda y se convierte en un fuerte importador del hidrocarburo. El mismo destino aqueja a muchos países industrializados y los conflictos bélicos por el recurso limitante empiezan a hacerse evidentes.

 

 El petróleo hoy

El panorama actual no es muy alentador. Existen fuentes muy optimistas y otras muy pesimistas sobre la cantidad de combustibles fósiles que quedan a nuestra disposición, pero la realidad es que el acceso a estos recursos, independientemente de la cantidad que quede, es cada vez más difícil y costoso. Prácticas altamente cuestionadas por sus repercusiones ambientales como el fracking y la explotación de arenas bituminosas ocupan las primeras planas en muchos países. A estos problemas, es necesario sumar que el aprovechamiento de combustibles fósiles es, en buena parte, responsable de los problemas de contaminación prevalecientes en las ciudades modernas y la mayor fuente de los gases invernadero de origen antropogénico que juegan un papel importante en el cambio climático. La época en la que el petróleo brotaba de la tierra sin mayores consecuencias ha quedado atrás.

Mientras muchos países siguen discutiendo medidas sobre cómo mantener las políticas energéticas vigentes, otros como Dinamarca han puesto manos a la obra en la búsqueda de alternativas. Dinamarca planea sustentar 70% del consumo energético nacional con recursos renovables (mediante el aprovechamiento de energía eólica) para 2020 y ser totalmente sustentable para mediados de siglo.

La granja de viento de Middelgrunden en Dinamarca es una parte de los esfuerzos de este país por volverse energéticamente sustentable en el corto plazo. Imagen por Kim Hansen. Procesada digitalmente por Richard Bartz y Kim Hansen. (http://creativecommons.org/licenses/by-sa/3.0).

 

Basar la economía global, de un país o de un pueblo en recursos no renovables no es una buena inversión a largo plazo. Quiero cerrar este artículo contándoles la historia de Pithole City, Pennsylvania; esta ciudad se estableció en 1965, en medio de la fiebre petrolera estadounidense. A unos meses de haberse realizado el trazo urbano, ya contaba con la oficina de correos más grande del estado, más de cincuenta hoteles, un periódico propio y una población superior a los quince mil habitantes. La producción petrolera que enriqueció a muchos de los habitantes de la ciudad cayó más de 70% en menos de un año y para 1977 la ciudad estaba completamente abandonada. Hoy, Pithole City prevalece como un museo donde se puede admirar la historia de los primeros días de la industria petrolera americana.

 

Si quieren conocer más detalles sobre la industrial petrolera, la historia del petróleo y los procesos químicos detrás de su refinación y aprovechamiento, aquí les dejó un link al libro Petroquímica y Sociedad de Susana Chow Pangtay. Si quieren algo más de información sobre el mercado y la situación global de la industria petrolera les recomiendo el libro Oil 101 de Morgan Downey. Y si quieren una buena lectura en el contexto del nacimiento de la industria petrolera americana, échenle un ojo a Oil! De Upton Sinclair o a su adaptación cinematográfica por Paul Thomas Anderson There Will Be Blood. ¡Ambos son muy recomendables!

Imitando a la Naturaleza: Diseño Molecular de un Virus

Cuando se inicia una nueva investigación uno nunca sabe que tan lejos podrá llegar, aunque uno supone que no tan lejos porque suele pasar que en ciencia uno va caminando muy lentamente. Pocos son los que han encontrado en su investigación la rendija que los llevará al otro lado, ese lado tan anhelado pero poco visitado. Eso es lo que pensaba hasta hace unos meses cuando los resultados de mi investigación empezaron a mostrar que el tiro por el que apostamos dio al blanco y así lo confirmaban experimentos sucesivos. La Composición Determina La Función

Empezaré explicando lo básico. Como todos saben toda la materia está hecha de átomos y moléculas y dependiendo de cómo estén arreglados en el espacio y tiempo es como serán sus propiedades. Esto también aplica para la materia biológica, la que está compuesta de biomoléculas, ya sabes, proteínas, ácidos nucleicos (ADN o ARN), lípidos y carbohidratos. La materia biológica también está ordenada en el espacio y tiempo aunque, no está de más decirlo, particularmente de manera muy precisa y compleja. Me detendré a explicar con más detalle este dato que es sumamente importante. Debido a su carácter polimérico1, las biomoléculas forman estructuras regulares; esto significa que despliegan ciertos grupos químicos con orientación espacial fija, lo cual condiciona las interacciones que establecen con otras biomoléculas tanto en el tiempo y espacio y, por lo tanto, las propiedades de esa biomolécula en particular están determinadas. Por interacciones me refiero a fuerzas de atracción o repulsión hacia otros grupos químicos desplegados por otras (bio)moléculas, incluyendo las moléculas de agua. Todo esto depende en última estancia de la composición particular de la biomolécula. Es decir la composición de las biomoléculas codifica para su funcionalidad. Así es que conociendo la composición de una biomolécula en particular y sabiendo como se despliega en el espacio es posible predecir y modificar sus propiedades, o bien crear una biomolécula desde cero o de novo con ciertas propiedades. Esto es uno de los paradigmas más importantes de la química actual, es el engranaje que mueve la maquinaria de la (bio)nanotecnología. Se puede intuir la gran capacidad que tiene para revolucionar el estado actual de la tecnología.

Esta impresionante capacidad actual de la química es resultado de las pasadas décadas de estudio intensivo y acelerado de las propiedades básicas de la (bio)materia y de entender sus interacciones, desarrollar modelos para cuantificarlas y poder predecir sus efectos. A la par, han llegado otros desarrollos tecnológicos que permiten un rápido estudio de la ingeniería biomolecular, microscopios de fuerza atómica (que permiten ver y manipular átomos y moléculas individuales), de fluorescencia (entender interacciones y dinámicas), estandarización de métodos de biología molecular (para poder producir cualquier proteína exista o no en la naturaleza).

Diseñando (Bio)Moléculas Con Propiedades Específicas

Con esta capacidad para predecir las propiedades de nuevas (bio)moléculas los científicos hemos empezado a preguntarnos: ¿podemos diseñar (bio)moléculas que puedan imitar estructuras de la naturaleza tales como las encontradas en la fotosíntesis (para obtención de energía), o las capsulas virales (para tener sistemas de entrega de medicamentos mucho más eficientes) y usarlas para nuestro beneficio? La respuesta es sí.

Diseñando Partículas Virales Artificiales

Cuando inicié mi proyecto de doctorado mis supervisores me decían que no teníamos necesariamente que lograr lo que estaba planteado por escrito en la propuesta de anteproyecto, que usualmente, aunque se tiene como objetivo, no se alcanza. Bien, si la naturaleza ya lo ha logrado, ¿por qué no usarla como fuente de inspiración?

Si tomamos un virus muy sencillo, como el virus del mosaico del tabaco (VMT) y analizamos sus componentes, podemos distinguir que está compuesto por una sola molécula de ARN recubierta por alrededor de 2000 copias de una proteína, formando una estructura alargada de aproximadamente 300 nanómetros (parecen rodillos rígidos) donde el ARN se encuentra en el interior (ver figura 1). Parece ser que la cápsula (el recubrimiento) es bastante sencilla, solo un tipo de proteína que se ordena alrededor del ARN. ¿Como está diseñada esta proteína que al mezclarla con el ARN forma espontáneamente estructuras regulares capaces de infectar células de las hojas del tabaco? Como se pueden dar cuenta, el diseño mínimo de una partícula viral recae en el diseño de la cubierta proteínica, ya que básicamente ella realiza todas las funciones esenciales.

VirusMT

Figura 1. Virus del Mosaico del Tabaco (VMT). 1) ARN 2) Sub-unidad proteínica de la cubierta 3) Partículas virales ensambladas (Crédito de la imagen: Splette)

Si analizamos la proteína de la cubierta del virus podemos distinguir partes de ella que realizan funciones fundamentales (ver figura 2), 1) unión al ácido nucleico (ARN), 2) Auto-ensamblaje alrededor del ARN (establece interacciones entre proteínas adyacentes de manera coordinada y ordenada) 3) Estabilidad coloidal (evita que partículas virales ya formadas empiecen a agregarse entre sí o se insolubilicen, ya que partículas grandes tienden a precipitarse en solución).

Tobacco_Mosaic_Virus_structure

Figura 2. Sub-unidad proteica de la cubierta del virus del mosaico del tabaco

 Codificando La Funcionalidad En La Composición Química

¿Cómo codificar estas funciones a nivel molecular en proteínas artificiales? Imitando la química de los virus. Si se toma una secuencia de aminoácidos (de lo que están hechas las proteínas) con alta densidad de carga positiva entonces se podrán unir a los ácidos nucleicos que son negativos. Si se une a esta otra secuencia con propiedades de auto-ensamblado entonces podrás dirigir la condensación del ácido nucleico en estructuras alongadas de forma cooperativa. La propiedad de auto-ensamblado es fundamental para hacer emerger la cooperatividad, propiedad que es ubicua en todos los sistemas biológicos y que asegurará que las partículas entre el ARN y la proteína estén ensambladas completamente y por lo tanto la información genética del ácido nucleico esté protegida. La última función requerida es la estabilidad coloidal que se puede lograr si se añade una secuencia de aminoácidos que den solubilidad al agregado. Estas propiedades permitirán que las partículas penetren las células y entreguen el cargamento de ADN. No está de más decir que una partícula viral artificial formada de esta forma es totalmente segura ya que no es capaz de replicarse e infectar nuevas células ya que esas funciones no están codificadas en la cubierta diseñada.

Después de una larga labor produciendo estas proteínas, en una de esas noches largas que pasarán a la posteridad, sentado enfrente del microscopio vislumbre una imagen increíble, una serie de estructuras alargadas esparcidas por la superficie. Eran mis partículas virales con las que habíamos soñado años antes. Unos minutos antes había mezclado un poco de ADN con cierta cantidad de mi proteína diseñada. Las proteínas que diseñamos habían empezado su danza microscópica, cual historia de amor, habían sido atraídas por ese aroma negativo del ADN, y empezado a recubrirlo. Una parte de ellas , responsable del auto-ensamblado, les ordenó a todas esas proteínas reunidas alrededor del ADN actuar, condensar el ADN en una pequeña partícula de 300 nm, rígida, alargada como una fibra. Acercamiento. Esto es un virus, una partícula viral artificial, una molécula de ADN condensada por una cubierta proteínica diseñada por nosotros. La danza molecular ha terminado, ahora yo danzo, brinco y grito de emoción. ¿Hasta dónde llegará esto? Semanas después colaboradores del Centro Médico de Nimega nos confirman, esas partículas han logrado entrar a células y entregar el ADN que expresa una proteína fluorescente. Después llegaron los teóricos de la Universidad de Eindhoven y nos cuentan que el proceso físico de ensamblaje es similar al del virus del mosaico del tabaco, nuestra fuente de inspiración.

Este estudio ha demostrado que es posible codificar en diferentes secuencias las mismas funcionalidades que se requieren para crear algún material que imite a componentes biológicos. De una forma es imitar la nanotecnología de la naturaleza. El diseño de moléculas funcionales que se auto-ensamblen en nuevos materiales con propiedades controladas a la escala nanométrica ya es una realidad. El siguiente paso es ahora empezar a crear otros materiales que imiten a la naturaleza de una manera mas compleja, ensambladores de nanomateriales, sensores ultra potentes, captadores de energía solar, cápsulas que respondan a estímulos del cuerpo para que combatan una enfermedad, etc. Las perspectivas son amplias para las partículas virales diseñadas de novo. Se pueden añadir secuencias con función de reconocimiento de células enfermas (por ejemplo, cáncer) para que sean usadas para terapia génica o para entregar otros ARN de interferencia afectando mínimamente al tejido sano. También pueden ser usados para crear vacunas de diseño.

En Hombros De Gigantes

En este punto me pongo a reflexionar sobre todos esos hombres y mujeres que desde hace décadas han contribuido a entender los componentes celulares, no solo para aplicar su conocimiento sino para entender lo que somos, y que con sus contribuciones han cimentado nuestro trabajo actual: podemos diseñar moléculas con un refinamiento tal que imiten a las máquinas moleculares de la naturaleza.2

Si tienes cualquier comentario, sugerencia o pregunta no dudes en dejarla. Gracias por tu atención.

Notas

1. Un polímero es una molécula muy grande formada por múltiples repeticiones de una unidad básica.

2. Si bien la célula no es en esencia una máquina, visualizarla como tal en ciertas ocasiones trae resultados muy prácticos y espectaculares

Escrito por Armando Hernández y publicado originalmente en su blog acerca de bionanotecnología

[hozbreak]

Acerca del autor

Armando Hernández García es Químico de Alimentos egresado de la UNAM. Obtuvo el doctorado en la Universidad de Wageningen, Holanda y actualmente realiza un postdoctorado en la Universidad de Northwestern en Chicago. Su investigación se ha enfocado a entender y controlar los principios que subyacen la formación de nanoestructuras funcionales con proteínas y su posible aplicación biomédica. Contacto: armaquim@gmail.com y blog: http://bionanotecnologias.blogspot.com.

La Bionanotecnología y sus conceptos

El vertiginoso desarrollo de la ciencia ha logrado avances impresionantes que necesitan ser divulgados entre la sociedad. Entre las nuevas fascinaciones de las mujeres y hombres de ciencia se encuentra la Bionanotecnología o también llamada Ingeniería Biomolecular, que destaca tanto por sus aportaciones a la ciencia e incidencia en el desarrollo tecnológico como por su carácter altamente interdisciplinario y polifacético donde convergen diferentes enfoques provenientes de la biología, química, física e ingeniería.

¿Qué es la bionanotecnología?

La bionanotecnología se origina de la fusión entre la nanotecnología y la biotecnología. Por un lado, la nanotecnología es la construcción y modelaje de la materia manipulando átomo por átomo aplicada en la ingeniería y manufactura a escala nanométrica. Por el otro, la biotecnología aprovecha diversas funcionalidades derivadas de procesos biológicos para aplicaciones específicas sin que importen los detalles moleculares y atómicos de las biomoléculas que llevan a cabo dichos procesos. Con base en ello, la bionanotecnología se define como la ingeniería y manufactura aplicada al diseño y modificación de los detalles atómicos de maquinarias y dispositivos moleculares basados en biomoléculas (ácido desoxirribonucleico -ADN-, proteínas, lípidos y carbohidratos) para que lleven a cabo funciones especificas a nivel nanométrico construidos mediante ensambladores biomoleculares. El rápido avance científico hace que el ámbito de influencia de la bionanotecnología aun se esté definiendo.

Para tener idea de las dimensiones de dichas máquinas es necesario decir que un nanómetro es la milmillonésima parte de un metro, o bien en nuestro mundo macroscópico equivaldría a comparar una moneda con el ¡diámetro de la tierra! La capacidad de visualización y manipulación de diminutos átomos y moléculas se logra con instrumentos y técnicas sofisticadas y refinadas de microscopía, cristalografía, espectroscopia y modelaje en computadora.

Las biomoléculas son las protagonistas

Las biomoléculas son los componentes de la célula desarrollados y optimizados a través de millones de años de evolución natural que mantienen la vida celular llevando a cabo todas las funciones necesarias para su crecimiento, sobrevivencia y reproducción.

A pesar de que la célula es un sistema altamente complejo, base de la vida, se puede hacer una analogía (muy pobre, pero muy efectiva) con una máquina o un sistema compuesto de varias máquinas. Por ejemplo, el flagelo bacteriano y el complejo ATP sintasa funcionan esencialmente como motores generando movimiento mecánico alrededor de un eje y bombeando protones, mientras que la miosina realiza la contracción muscular; los anticuerpos y receptores de membrana detectan diversas moléculas por lo que son sensores; la actina y los microtúbulos son vigas y soportes, las enzimas son herramientas reparadoras y constructoras, los ribosomas son los ensambladores que construyen nuevas máquinas proteínicas en líneas de producción, el ADN es el control numérico, los lípidos forman vesículas contenedoras y la membrana lipídica que rodea la célula tal como si fuera una carcasa, etcétera. Todas estas entidades biológicas son delicadas moléculas de tamaño nanométrico con propiedades basadas principalmente en la química y debido a que en esencia realizan funciones de máquinas con precisión atómica también pueden ser caracterizadas y optimizadas con enfoques de la física y la ingeniería.

La célula crea las biomoléculas

Debido a que las biomoléculas son productos exclusivos del metabolismo celular, el desarrollo de la biología molecular en las últimas décadas ha sido de gran ayuda para la bionanotecnología permitiendo conocer los detalles de los mecanismos de muchas de estas “nanomáquinas”.

De inmensa importancia ha sido el desarrollo de la tecnología del ADN recombinante en la expansión de la bionanotecnología ya que ha permitido modificar y producir en gran escala de forma barata y rápida las “bionanomáquinas” y biomateriales necesarios para la bionanotecnología. Como el ADN posee toda la información necesaria para generar una proteína funcional (la gran mayoría de las “bionanomáquinas” están compuestas de proteína), es decir, contiene secuencias de ácidos nucleicos que codifican para los aminoácidos de una proteína, solo basta alterar y editar las secuencias del ADN para modificar una proteína particular con precisión atómica y así optimizar su funcionamiento y propiedades o generar nuevas y novedosas máquinas de proteína, las cuales son producidas en gran cantidad a partir de substratos baratos al crecer la célula con el gen en particular. La capacidad de manipular la célula es sin duda un cambio de paradigma que ha revolucionado tanto la ciencia como la forma en que vemos al mundo.

La Bionanotecnología trabaja interdisciplinariamente

Además de optimizar y modificar las biomoléculas a escala nanométrica para aplicaciones específicas, la bionanotecnología se ha adentrado en nuevos caminos y consolidado como un área altamente interdisciplinaria. Fusionándose con la ciencia de materiales ha desarrollado novedosos materiales híbridos entre compuestos inorgánicos y bioorgánicos, superando así la tradicional separación entre estos dos tipos de materia y borrando las fronteras entre la materia viva e inanimada.

Esta área usa proteínas y ácidos nucleicos como unidades programables de reconocimiento molecular, las cuales son acopladas (ligadas químicamente) a nanopartículas inorgánicas con propiedades ópticas, electrónicas y catalíticas diversas e interesantes, útiles para elaborar materiales y dispositivos inteligentes basados en compuestos híbridos que se auto-ensamblan en complejos supramoleculares nanométricos usados en aplicaciones bioanalíticas y biomédicas para diagnóstico, visualización y tratamiento de enfermedades y también para computación, electrónica, óptica y manufactura molecular.

Borrando Fronteras entre la Materia

El punto cardinal en la Bionanotecnología es la materia y la disolución de la frontera bioorgánica/inorgánica. Objetos vivos e inanimados están hechos por átomos. Las propiedades de la materia cambian de acuerdo con el patrón en que estén ordenados y enlazados los diferentes átomos que la componen: carbón y diamante, arena y chips de computadora, cáncer y tejido sano, tienen cierta disposición que hace la diferencia entre lo enfermo de lo sano y lo barato de lo valioso, tal como dice el apóstol de la nanotecnología, Erik Drexler en su famoso libro Máquinas de creación.

Hemos entrado en la era conjunta de la manipulación atómica y genética. Hay muchos riesgos pero también mucho potencial, que bien balanceado y en un ambiente democrático puede ser aprovechado para atender problemáticas específicas dentro del contexto mexicano.

Así, los bionanotecnólogos han creado nuevos horizontes en la ciencia, han descubierto excitantes áreas de desarrollo tecnológico y científico, novedosas e inéditas aplicaciones de las biomoléculas y han generado hitos de interdisciplinariedad al asociar disciplinas comúnmente separadas. La pregunta es, parafraseando al Nobel Richard Feynman en su discurso inaugural de la nanotecnología, ¿habrá suficiente espacio en el fondo de nuestra mente para apoyar la bionanotecnología en México?

Escrito por Armando Hernández y publicado originalmente en su blog acerca de bionanotecnología

[hozbreak]

Acerca del autor

Armando Hernández García es Químico de Alimentos egresado de la UNAM. Obtuvo el doctorado en la Universidad de Wageningen, Holanda y actualmente realiza un postdoctorado en la Universidad de Northwestern en Chicago. Su investigación se ha enfocado a entender y controlar los principios que subyacen la formación de nanoestructuras funcionales con proteínas y su posible aplicación biomédica. Contacto: armaquim@gmail.com y blog: http://bionanotecnologias.blogspot.com.

Epistemología: filosofía de/en/desde/con/para la ciencia

En su célebre conferencia de 1957 (convertida después en el último capítulo del libro La ciencia, su método y su filosofía) titulada "Filosofar científicamente y encarar la ciencia filosóficamente", el epistemólogo Mario Bunge le cuenta a sus alumnos (tanto de aquel tiempo como los que ahora lo leemos) la necesidad urgente de generar epistemólogos de primer nivel en Latinoamérica, con el fin de incrementar la difusión y el estudio de los fundamentos de la ciencia, y con ello ofrecer a la sociedad una serie de expertos que estén capacitados para analizar, debatir y proponer soluciones a los problemas filosóficos que se derivan de la actividad científica. Bunge nos habla de revitalizar la carrera de filosofía, la cual parece que prepara más especialistas en filosofía antigua y medieval, que filósofos propiamente dichos. También denuncia la falta de cultura científica de los especialistas en filosofía y la ignorancia filosófica de los científicos profesionales. Si esta situación sigue así, comentaba Bunge en el 57 aunque el problema aún continúa hasta hoy, estamos condenados a seguir viendo esa separación abismal entre ciencia y filosofía, con especialistas de ambas áreas despreciándose unos a otros.

Una de las áreas que une la rigurosidad y el respeto por los hechos que muestra toda ciencia, y el análisis lógico de conceptos y la formalización de la filosofía exacta, es la epistemología. Pero, ¿qué es la epistemología? El concepto puede causar cierta confusión ya que más de un libro lo utiliza como sinónimo de gnoseología o teoría del conocimiento. Pero esta confusión es innecesaria y puede evitarse si se define de forma clara el área de la epistemología.

Puede decirse entonces, por un lado, que la gnoseología es la rama de la filosofía que se ocupa del estudio de los principios del conocimiento. El conjunto de cuestiones, debates y respuestas sobre ¿qué es el conocimiento?, ¿qué podemos llegar a conocer?, ¿cómo conocemos? entre otras cuestiones, forman parte de la gnoseología. Esta área se ha visto enriquecida sobre todo gracias a las ciencias cognitivas que nos ofrecen respuestas a muchas de estas preguntas, generando nuevas cuestiones. Desde luego, el que la ciencia cognitiva nos ayude a resolver problemas gnoseológicos no significa que la gnoseología se quede sin campo de estudio; las ciencias cognitivas también presentan un fondo gnoseológico en el cual apoyan sus nuevas hipótesis. No podemos saber si algún día la gnoseología acabará siendo una ciencia cognitiva más, adquiriendo independencia de la filosofía; lo que sí sabemos, es que la gnoseología representa la cuna de una serie de problemas fascinantes sobre nuestra relación (como sujetos) con el universo (como objeto de estudio).

Pero la epistemología no se ocupa de problematizar sobre los problemas del conocimiento, así, de forma general. Tal vez podríamos ver a la epistemología como "gnoseología especializada", pues se enfoca en problematizar sobre un tipo de conocimiento muy especial: el conocimiento científico. La epistemología es el mejor ejemplo de un enlace de filosofía y ciencia.

La epistemología busca debatir y proponer respuestas a preguntas como ¿qué es el conocimiento científico?, ¿cuáles son los principios filosóficos presupuestos en la investigación científica?, ¿qué es el método científico?, ¿existe "el" método científico como un proceso lineal e inmutable?, ¿cuáles son las diferencias entre ciencia, semiciencia, protociencia y pseudociencia?, ¿son lo mismo ciencia y tecnología?, ¿la ciencia presupone la realidad autónoma y la legalidad del mundo?, ¿cómo se relacionan las teorías científicas con la realidad y la experiencia?, ¿la ciencia puede ir más allá de los fenómenos y la relación entre éstos?, ¿es posible describir las cosas reales con minuciosidad y una precisión perfecta?, ¿qué son las leyes y las explicaciones científicas?, ¿qué función desempeñan las matemáticas en las ciencias factuales?, ¿la filosofía puede desempeñar una función constructiva en la investigación científica?, ¿la ciencia está moralmente comprometida?, ¿existen límites al avance de la ciencia? Cuestionarse sobre los principios, fines y la naturaleza de la ciencia es el primer paso para hacer epistemología.

Mario Bunge enfatiza en esto al decirnos que la epistemología es pues, la filosofía de, en, desde, con y para la ciencia. Filosofía de la ciencia hace referencia al examen filosófico de la ciencia (sus problemas, sus métodos, su estructura, etc.). Filosofía en la ciencia (o más exactamente filosofía de la ciencia en la ciencia) comprende el estudio de las implicaciones filosóficas de la ciencia, el examen de las categorías e hipótesis que intervienen en la investigación científica, o que emergen en la síntesis de sus resultados. Es pues, el estudio de las hipótesis filosóficas que en ciencia se presuponen y se utilizan como punto de partida. La filosofía desde la ciencia sugiere que se trata de una filosofía que hace hincapié en la ciencia, que ha sustituido la especulación sin freno por la investigación guiada en el método científico, teniendo un respeto profundo por los hechos empíricos y por la consistencia lógica. Filosofía con la ciencia trata de una filosofía que acompaña a la ciencia, es decir, una filosofía que está al margen de los logros de la ciencia, que no se pone a especular sinsentidos sobre el ser y el tiempo. Por último, la filosofía para la ciencia sugiere una filosofía que no solo se nutre de la ciencia, sino que aspira a serle útil, que busca servir para establecer, por ejemplo, las diferencias que existen entre la definición y el dato, o entre la verdad factual y la proposición que es verdadera o falsa, independientemente de los hechos. Esta es una filosofía que no sólo escarba en los fundamentos filosóficos que las ciencias admiten, sino que además busca aclarar la estructura y función de los sistemas científicos, señalando relaciones y posibilidades inexploradas.

Pero hablar de filosofía de, en, desde, con y para la ciencia tal vez sea demasiado largo y poco estético. ¿Por qué no mejor utilizar un sólo concepto: epistemología?, o ¿por qué no llamarlo sólo filosofía de la ciencia? Una disciplina que resulta ser, por su objeto de estudio, una metaciencia. Pues bien, un epistemólogo como tal no puede ser un filósofo que pregona una filosofía contra, sobre y/o bajo la ciencia. Una filosofía contra la ciencia (tal como han existido y siguen existiendo) resultará ser una filosofía irracionalista, que desprecia el respeto por los hechos y la consistencia. Una filosofía contra la ciencia resulta ser anticientífica. Este tipo de posturas son las que alimentan doctrinas como las del fundamentalismo religioso, la tecnofobia y el activismo contra la investigación y aplicación científica. Quien filosofa contra la ciencia, o aun al margen de ella, ignorándola por completo (tal como nos dice Bunge) imita a los escolásticos que rehusaban mirar por el anteojo astronómico de Galileo.

Si hablamos de una filosofía sobre la ciencia estamos haciendo referencia a una disciplina superior rectora de las disciplinas científicas. Aunque éste ha sido el anhelo de muchos que en el pasado se han llamado a sí mismos "epistemólogos", lo cierto es que estos intentos no han sido otra cosa más que la burla de los científicos, pues siempre han mostrado grados intolerables de arrogancia combinados con ignorancia científica. Si quieres hacer que la comunidad científica se burle de la filosofía y la desprecie, tan sólo di que la filosofía es superior a la ciencia y que la primera le dice cómo actuar a la segunda.

Por otro lado, la expresión filosofía bajo la ciencia sugiera una posición inversa, como si la filosofía dependiera de forma absoluta de la ciencia. Este error, aunque poco común entre los filósofos que miran sus propuestas casi siempre como superiores a los anteriores, suele ser expresado como una virtud epistemológica. Sin embargo, la filosofía de la ciencia no sólo comporta el examen de los supuestos filosóficos de la investigación científica, sino que tiene derecho a una elaboración creadora de un nivel diferente del científico aunque reposa sobre éste último: el nivel metacientífico.

La comprensión precisa de la epistemología como la principal disciplina filosófica que, estando al margen de la ciencia, la cuestiona, la crítica y la analiza como la manifestación humana que es, probablemente sea el primer paso para comprender la relación tan estrecha entre filosofía y ciencia. Algo importante a comprender es que no todo el que tiene título en filosofía es un epistemólogo, del mismo modo que el no tener título en filosofía no significa que no se sea (o no se pueda ser) epistemólogo. Existen filósofos con perspectiva científica y científicos con inquietudes filosóficas que enriquecen por igual esta disciplina fascinante. Un segundo paso para este mismo propósito sería hablar de los logros e importancia de la epistemología para con la investigación, la aplicación y la divulgación de la ciencia, pero eso ya será tema para otra entrada.

*Publicación original en La pipa de Russell.

 


 

Acerca del Autor:

Daniel Galarza Santiago es estudiante de filosofía en el Centro Universitario de Ciencias Sociales y Humanidades (CUCSH) de la Universidad de Guadalajara. Autor de los blogs El escéptico de Jalisco y La pipa de Russell, también ha colaborado en otros espacios en línea tales como Blog Escéptico, Despertando Mentes, Magufobusters, Escépticos Unidos Mexicanos y Fundación Richard Dawkins para la Razón y la Ciencia.

Los cazadores del último bosón. A dos años del descubrimiento del bosón de Higgs.

Evento real de detección de un bosón de Higgs en el detector ATLAS del Gran Colisionador de Hadrones. El bosón de la imagen se encuentra decayendo en dos pares de electrones marcados en rojo y azul. ATLAS Experiment © 2014 CERN.  

Hace más de dos años, el 4 de julio de 2012, científicos de la Organización Europea para la Investigación Nuclear (CERN por sus siglas en inglés) mataron dos pájaros de un tiro: hicieron que Stephen Hawking perdiera una apuesta de cien dólares y pusieron fin a la búsqueda más intensiva de la que la ciencia moderna tiene registro. Esta búsqueda requirió de la construcción del Gran Colisionador de Hadrones (LHC), el complejo científico más grande del mundo con un costo superior a los nueve mil millones de dólares y un equipo de trabajo de más de diez mil científicos e ingenieros de todo el mundo. ¿Qué era lo que buscaban estos físicos con tanto empecinamiento? ¿Qué descubrimiento monumental requería de esfuerzos tan notables por parte de la comunidad científica internacional? Nada monumental, por el contrario, la búsqueda era en pos de algo en un orden de magnitud tan pequeño, que resulta incluso incomprensible. Lo que encontraron fue la última pieza de un rompecabezas llamado Modelo Estándar de las Partículas Elementales, una partícula que daría coherencia a los modelos físicos actuales. La infame, pero popularmente llamada Partícula de Dios: el bosón de Higgs.

 

Un gran descubrimiento… que no sorprendió a muchos

La primera imagen que viene a mi cabeza cuando recuerdo esa primera semana de julio de 2012 es la de un montón de periodistas tratando de explicar al mundo la importancia de un evento científico que sabían era de gran relevancia, pero que en realidad, no comprendían en lo más mínimo. Y es que la física de partículas subatómicas rara vez llega a los titulares, pero este descubrimiento ameritaba todos los reflectores.

Después de más de dos décadas de planeación, construcción y calibración de la instalación experimental más grande y compleja jamás construida, el Gran Colisionador de Hadrones cumplió el objetivo para el que había sido diseñado: la detección de una partícula cuyas características correspondían a las predicciones de lo que se esperaba era el bosón de Higgs.

 

ATLAS. Uno de los detectores multipropósito del Gran Colisionador de Hadrones. Lleva a cabo un amplio rango de labores, desde la búsqueda del bosón de Higgs y extra dimensiones, hasta la detección de partículas generadoras de materia obscura. ATLAS Experiment © 2014 CERN.

 

 

El descubrimiento del bosón corrobora las predicciones teóricas que Peter Higgs, Gerald Guralnik, Richard Hagen, Tom Kibble, Robert Brout y Françoise Englert realizaron en la década de los sesentas –¡la cacería duró cerca de medio siglo!- con respecto a la física de partículas subatómicas. El hallazgo, que le brindó el premio Nobel a Higgs y a Englert, era el último eslabón para que el Modelo Estándar estuviera completo, validando el trabajo de décadas de muchos físicos teóricos. La comunidad científica esperaba con ansias la comprobación de la existencia del bosón, ¡no podía no existir! La alternativa, un escenario mucho más interesante para la ciencia según Stephen Hawking, hubiera implicado el replanteamiento de muchos de los postulados físicos vigentes. La existencia comprobada del bosón de Higgs abre la puerta a nuevas concepciones sobre la forma en la que se comporta nuestro universo y podría ser el parte aguas para superar el Modelo Estándar y dar paso a una “nueva física”.

Se estarán preguntando ¿por qué tanto alboroto?, ¿qué es lo que hace a esta partícula tan especial? o ¿por qué la física moderna dependía de su descubrimiento? Para responder todo esto tenemos que empezar por una pregunta más general… ¿qué demonios es un bosón?

 

La naturaleza cuántica de un bosón

A mediados del siglo pasado, los físicos elaboraron el Modelo Estándar, una ambiciosa colección de ecuaciones y postulados cuyo objetivo es describir el comportamiento de todas las partículas subatómicas y la forma en las que estas interactúan. Es una teoría de casi todo y, aunque no considera elementos como la fuerza de gravedad o la materia obscura, es el modelo más ambicioso de la física moderna.

De acuerdo al Modelo Estándar, todas las partículas pueden ser divididas en dos grupos: los fermiones y los bosones. Los fermiones son las partículas subatómicas que constituyen la materia y se dividen a su vez en quarks (que conforman a los protones y neutrones) y leptones (de los cuales el electrón es el más conocido). Los bosones, por otro lado, son las partículas responsables de las fuerzas fundamentales asociadas a la naturaleza. Los fotones, por ejemplo, son los bosones relacionados con el electromagnetismo; los gluones, se encuentran asociados a las interacciones fuertes de los núcleos atómicos, responsables de que protones y neutrones no se desintegren en un frenesí de quarks; y los bosones W y Z se relacionan a las interacciones débiles, responsables de cambiar las propiedades de los quarks y de otras curiosidades como el decaimiento radiactivo y la fusión nuclear que mantiene al Sol brillando y generando calor para que podamos aprovechar un buen día de playa. Hasta aquí todo “fácil”.

 

¿Qué papel juega Higgs en todo esto?

En el Modelo Estándar bosones y fermiones interactúan alegremente para darle forma al universo como lo conocemos, permitiendo la expansión de las galaxias, la formación de estrellas y la vida en nuestro planeta. Para que esta armonía sea posible, las interacciones entre materia y energía deben ajustarse a ciertas reglas o simetrías. Sin embargo, la evidencia empírica empezó a jugar en contra del modelo: había partículas con más masa de la esperada, fuerzas que actuaban de forma distinta a lo predicho… ¡El caos! ¡Sería necesario reevaluar todos los postulados de la física moderna! ¡Tardaríamos décadas en reconstruir un modelo igual de robusto! O…podríamos intentar balancear el Modelo Estándar tomando en cuenta las anomalías y ver qué pasa.

El postulado teórico que vino a balancear el Modelo Estándar es asombroso. En teoría, el universo estaría embebido en una especie de red –el Campo de Higgs- encargada de suministrar de masa a la materia del universo. ¡Todas las partículas del universo obtienen su masa por la interacción con este campo y el bosón de Higgs es una expresión de esta interacción! ¿Confundidos? Intentemos visualizar lo siguiente. Imagínense que el universo se reduce a la superficie de un –enorme- charco de lodo. Sobre la superficie del charco hay un sinnúmero de canicas, algunas se deslizan sobre la superficie tan rápido que no dejan rastro de su paso y ni siquiera se embarran de lodo, otras cruzan por el charco con menos gracia y no se libran de alguna salpicadura y están aquellas que van rodando sin mayor preocupación y están hechas una porquería. Las primeras canicas corresponden a las partículas que carecen de masa, como los fotones. Las segundas corresponden a fermiones como los electrones y a algunos bosones que tienen masas muy bajas. Las últimas canicas son los quarks, componentes de los protones y neutrones del núcleo de los átomos. En esta pequeña analogía, el campo de Higgs sería el lodo y el bosón de Higgs… ¡las ondas que se forman por la interacción entre las canicas y el lodo!

Explicar el campo y el bosón de Higgs resulta tan complicado que a finales del siglo pasado, el Ministerio de Ciencias del Reino Unido ofreció una botella de champaña de la mejor calidad a aquel que realizara la analogía más sencilla al respecto. El premio se lo llevo David Miller del University College of London. Aquí les dejo una interpretación animada de su solución, esperando que, entre ésta y el lodazal, queden claros los conceptos más generales del campo de Higgs.

 

http://www.youtube.com/watch?v=joTKd5j3mzk

 

A dos años de detectar el bosón

La historia del bosón de Higgs, desde su concepción hasta su descubrimiento, es uno de los mejores ejemplos de cómo debe funcionar la ciencia moderna. Por un lado, nos demostró el poder que tienen las teorías científicas para realizar descripciones y predicciones sobre nuestro universo. Pero también es un recordatorio de que la única forma de validar nuestras ideas, debe ser a través del método científico.

El túnel principal del Gran Colisionador de Hadrones no ha visto muchas colisiones recientemente y, contrario a lo esperado por actores sensacionalistas de opiniones pseudocientíficas, todavía no ha destruido al universo. El mantenimiento es costoso y llevará tiempo. Sin embargo, los datos que se generaron en el complejo durante su periodo operativo siguen siendo analizados y los resultados siguen sorprendiendo a muchos. Hoy se cuenta con evidencia (observen la primera imagen de este artículo) de el decaimiento del bosón de Higgs hacia fermiones (su descubrimiento se basó exclusivamente en el decaimiento a bosones de baja masa) y se tienen más elementos para analizar a fondo la naturaleza del campo de Higgs. Recientemente se presentó el plan de trabajo para los próximos años de los distintos experimentos activos en el LHC.

El Modelo Estándar está completo. Ahora, la labor de la ciencia es terminar de entenderlo y expandirlo con la ayuda de las nuevas evidencias. Seguimos muy lejos de tener una “teoría de todo”, pero no cabe duda que dimos un paso gigante en esa dirección.

 

El gato de Schrödinger: ¿estaba entonces vivo o muerto?

¿Puede un gato estar vivo y muerto a la vez? En esta colaboración, nuestro amigo Juan de Pedazos de Carbono responde esta pregunta y nos explica por qué. ------

Seguramente habrás escuchado, quizá sin enterarte mucho de los detalles, sobre la paradoja del famoso gato de Schrödinger. Yo mismo sabía desde hace años sobre este experimento mental, pero fue hace poco gracias a la explicación de Jim Al-Khalili en “Paradox” que finalmente entendí la solución a esta aparente paradoja. La respuesta sobre si todo este tiempo el gato estaba vivo o muerto es: . Pero mejor déjenme explicar antes la pregunta.

GatoSchroedinger

El gato de Schrödinger, ¿simultaneamente vivo y muerto? / Imagen: Dhatfield *

Erwin Schrödinger se preguntó lo que pasaría si colocamos a un gato dentro una caja especialmente preparada y después la cerramos. Dentro de la caja se encuentra también una muy pequeña cantidad de algún material radioactivo, tan pequeña que en el transcurso de una hora hay sólo un 50% de probabilidad de que el material emita una partícula cargada de energía. Si la partícula es emitida entonces activará un detector que, a su vez, liberará un potente ácido matando al gato de forma instantánea. (Recuerda: es un experimento mental, ¡ningún gato ha sido lastimado pensando en las implicaciones de este experimento!)

Si repitiéramos el experimento muchas veces—colocamos un gato en la caja, cerramos la caja, esperamos una hora, abrimos la caja—la mitad de las veces encontraríamos un gato muerto (cuando se emitió la partícula) y la mitad de las veces un gato vivo (cuando la partícula no fue emitida). Esto puede sonar un poco cruel, pero nada extraño. Schrödinger notaba que lo realmente absurdo es que, según la física cuántica, cuando la caja estaba cerrada la partícula fue “emitida” y “no emitida” al mismo tiempo. En el mundo cuántico ambas posibilidades ocurrieron simultáneamente en realidad y, por consecuencia, mientras no mirábamos el gato estaba simultáneamente vivo y muerto. Más aún, parecería que nuestra acción de abrir la caja y observar el interior fue lo que “decidió” el destino del gato.

¡Eso sí que suena completamente absurdo! ¿Qué tenemos de especial que con sólo observar podemos estar decidiendo el destino de los gatos?

Antes de contestar estas preguntas, y revelar la solución a la aparente paradoja, quizá sea importante entender exactamente qué es lo que dice la física cuántica, y por qué es que sabemos que lo que dice es cierto.

Un electrón, por poner un ejemplo, en realidad no es una pequeña canica que se encuentre siempre en algún lugar determinado. La posición del electrón se puede entender más bien como una onda, cuya amplitud está relacionada con la probabilidad de encontrar al electrón en distintos sitios. Ojo, no se trata de que seamos nosotros los que no sepamos la posición exacta del electrón y por lo tanto usemos probabilidades como una aproximación, el hecho es que el electrón realmente se encuentra en distintos sitios al mismo tiempo.

Esto puede comenzar a sonar algo bizarro pero la verdad es que, hasta este punto, la situación no es muy distinta a lo que ocurre cuando dejas caer una piedra en un lago y observas las ondas producidas sobre la superficie. La onda no está localizada en un punto exacto sobre el lago, sino distribuida y ocupando distintos sitios al mismo tiempo. De modo similar, al chocar unos con otros los electrones “interfieren” entre ellos—sumándose o cancelándose sus amplitudes—del mismo modo como lo hacen las ondas en el lago.

El comportamiento de los electrones no es muy distinto al de las ondas en la superficie de un lago / Foto: Scott Robinson

Esto se puede comprobar en el famoso experimento de la doble rejilla donde a un solo electrón se le hace pasar por dos caminos distintos que—al juntarse después de nuevo—ocasionan que el electrón haga interferencia “consigo mismo”. Espero que con la explicación que acabo de dar te puedas hacer en la mente una idea más o menos de lo que está sucediendo. No es muy complicado. Quizá nunca lo habías pensado de esta manera, pero también te darás cuenta que no es tan descabellado como sonaba en un principio.

Lo realmente inesperado y sorprendente es lo siguiente: si en uno de los dos caminos pones un detector para determinar si el electrón pasó o no pasó por ahí, entonces los patrones de interferencia desaparecen y el electrón parece ser forzado a elegir entre tomar “uno” o “el otro” camino, ya no ambos al mismo tiempo. Pareciera que el electrón puede felizmente recorrer los dos caminos distintos al mismo tiempo mientras nadie lo mira, pero al observarlo el electrón es forzado a elegir una y sólo una de las dos opciones.

El párrafo anterior contiene una de las ideas centrales de la física cuántica, la que daba dolores de cabeza a Schrödinger, y de la que surgen muchas de las otras extrañezas que seguro has escuchado sobre física cuántica. Y no se trata de filosofía ni de un experimento mental, esta es en realidad la forma en que los electrones—al igual que fotones y otras partículas energéticas—se comportan cuando se les estudia en el laboratorio. Este es un hecho de nuestro universo.

Desafortunadamente ésta es también la idea de la física cuántica que más suele ser mal interpretada, dando dar lugar a ideologías como “El Secreto” o toda la pseudo-filosofía de Deepak Chopra. Y es que el experimento parece decir que las cosas no son “reales” hasta que las observamos, que nuestro acto consciente de observar al mundo es el que ocasiona que el destino se desenlace de una u otra manera. “Tu mente decide la realidad.” Pero esto no es así.

Lo curioso es que la solución a este malentendido resuelve también la paradoja del gato de Schrödinger. Y es que el “observar” que hace que un electrón tome uno u o otro camino—o que una partícula se emita o no se emita, y por lo tanto se produzca o no la muerte del gato—no requiere una mente consciente que esté “observando”. No requiere un humano, ni siquiera un par de ojos: el electrón es “observado” al interactuar de cierta manera con cualquier otro sistema—por ejemplo un detector de electrones—en un proceso llamado decoherencia cuántica.

El gato no pudo estar vivo y muerto al mismo tiempo pues, si en algún momento el detector “observa” que la partícula radioactiva es emitida, a partir de entonces el destino de la partícula—y fatalmente también del gato—ha sido definido. La respuesta es entonces que , en todo momento el gato está vivo o muerto—según el detector determine—pero nunca se encontraba en ambos estados al mismo tiempo.

En conclusión los efectos cuánticos son reales, pero solo aplican en escalas muy pequeñas del tamaño de los átomos, así como a electrones, fotones y partículas más pequeñas. En cuanto tienes un sistema más grande y complejo—como un detector, un gato, o una persona a quien le gustan los gatos—el proceso de decoherencia pronto ocurre y los efectos cuánticos desaparecen. Cuando se entiende un poco más la física cuántica no parece ya taaan extraña, ¿verdad?

Juan

--

Escrito por Juan A. Navarro Pérez y publicado originalmente en Pedazos de Carbono

* La imagen aquí utilizada para ilustrar el gato de Schrödinger es distinta a la que se presentó en la versión original de Pedazos de Carbono

Gimnasia artrópoda en Río 2016.

Screen Shot 2014-05-19 at 2.39.12 PMEstamos de regreso para la transmisión en vivo de los Juegos Olímpicos de Verano Río 2016. ¡Vaya competencia pudimos presenciar entre los equipos femeninos de handball! Tal parece ser que la Noruega da la ventaja, justo como hace cuatro años. Ahora inicia la gimnasia artíst... ¿artrópoda? Ah, es verdad. La gimnasia artrópoda. Uno de los nuevos juegos olímpicos que se inauguran aquí, en Río 2016. En la arena se encuentra Ángela Pereira, nuestra enviada especial. Ángela, ¿nos escuchas? Ángela: ... ¡Hola, Carlos! Un saludo al auditorio que nos sintoniza. Así es: me encuentro aquí en la arena donde se realizará en unos minutos la inauguración de un nuevo deporte olímpico, la gimnasia artrópoda. El comité olímpico ha decidido integrarlo a la lista a pesar de la notable escasez de competidoras.

Carlos: Según tengo entendido, sólo se han presentado representantes de cuatro países: Estados Unidos, Inglaterra, Sudáfrica y Marruecos. ¿No es así, Ángela?

Ángela: ... ¡Así es, Carlos! Sin embargo, el comité olímpico ha hecho esta decisión debido a la habilidad sin precedentes de estas competidoras. Y parece que estamos a punto de comenzar. Puedo ver a las gimnastas estirarse en el otro extremo de la arena, concentradas. La dinámica será la siguiente: cada una de ellas tendrá que demostrar sus habilidades con una coreografía libre. Terminada su rutina, los jueces las calificarán de acuerdo a su fuerza, flexibilidad, agilidad y elegancia.

Carlos: Suena fascinante. ¿Nos puedes presentar a las competidoras?

Ángela: ... ¡Claro que sí, Carlos! La primera de ellas, Cicindela dorsalis, se acerca decidida a la arena. Originaria de Carolina del Sur, Estados Unidos, esta gimnasta –la más joven de todas, pues es apenas una larva– pertenece a una especie de escarabajos tigre. Oh, parece que ya está lista. Cicindela sube a la barra de equilibrio y estira todo su cuerpo antes de iniciar. De un salto, comienza su coreografía y se contorsiona por completo en el aire. Cae perfectamente en línea sobre la barra de equilibrio y... ¡comienza a girar! A girar, te digo. ¡Como una rueda, Carlos! Vuelve a dar un salto y cae victoriosa sobre la arena. Wow, nunca había visto algo así.

Carlos: ¿Como una rueda? Bastante impresionante, Ángela. Dime, ¿hay alguna forma de que podamos ver en acción a esta deportista? Ángela: ... ¡Por supuesto, Carlos! Pueden ver la coreografía grabada de Cicindela desde este enlace:  Pero esperen. Ya llega la siguiente competidora al salto de potro: Pleurotya ruralis o, como la llaman en su casa, la polilla Madre de Perla. Esta gimnasta inglesa es también una larva, pero algo me dice que tiene mucha más experiencia que la pequeña Cicindela. Ahora arrastra cada uno de sus pies y flexiona la cabeza, preparándose. Pleurotya sale disparada hacia el potro, anclando el extremo posterior de su cuerpo, doblándose y rodando. ¡Whoa! ¡Tremendo salto de esta gimnasta y qué buen aterrizaje! Parece que... Oh, sí. Ahora Pleurotya rueda hacia atrás, salta y termina su coreografía en el mismo punto donde comenzó. ¡Qué belleza, Carlos! Miren qué belleza

Carlos: Supongo que la gimnasia artrópoda ha superado las expectativas de más de uno. Quién lo hubiera dicho.

Ángela: ... ¡Quién lo hubiera dicho, Carlos! Las tribunas todavía no se recuperan de toda esta emoción. Yo misma estoy agitada. El mundo entero debería de estar viendo esto. Y qué momento más oportuno: a la arena entra la araña sudafricana Carparachne aureoflava, nativa del desierto de Namib. Debo decirles que esta es una de las gimnastas más experimentadas. ¡Y qué manera de demostrarlo! Ni bien ha comenzado la música, Carparachne ya domina el suelo, haciendo magia con sus patas mientras gira sobre sí misma. Carlos, debes ver esto. Carparachne ahora comienza a dar vueltas de carro a una velocidad impresionante alrededor de la arena. Según me informan, da 44 vueltas por segundo. ¡Qué cosa! Termina su rutina con una carismática vuelta y, como puedes escuchar, el lugar se inunda de aplausos.

Carlos: ¿44 vueltas por segundo, has dicho? Vaya, creo que yo no puedo dar una sola. Jaja, ¿y tú, Ángela?

Ángela: ... ¡No hay tiempo de responder, Carlos! Y es que ya ha empezado la coreografía de la última concursante: la araña marroquí Cebrennus rechenbergi. Debo decirte que nadie sabía muy bien qué esperar de ella porque apenas fue descubierta en marzo de 2014, pero ahora nos da un espectáculo memorable. ¡Qué agilidad, qué elegancia! Gira, corre y se detiene por un segundo mientras se pavonea frente a nuestros ojos. Una verdadera artista. ¡Sus vueltas de carro son algo espectacular, Carlos! Quizá no sea la más veloz, pero eso no impide que deje a los jueces con la boca abierta. ¡Miren nada más! 

Carlos: Una enorme sorpresa por parte de las gimnastas arácnidas. Pero no puedo evitar preguntarte, Ángela, ¿cómo es que estos animales son tan brillantes en un deporte olímpico como la gimnasia?

Ángela: (sollozando) ... ¡Disculpa, Carlos! Estas sólo son lágrimas de emoción. Qué buena pregunta. Ni yo misma lo sé. Supongo ... sus habilidades ... servirán ... escape ante amenazas como depredadores, ¿no?

Carlos: Vaya, Ángela. Hasta pareces científica. Eh, parece que pasa algo con la transmisión. ¿Me escuchas bien?

Ángela: ...

Carlos: ... Parece que ha ocurrido una falla técnica con nuestra enviada a los Juegos Olímpicos Río 2016. Nos vamos a un corte, pero al regresar veremos la entrevista exclusiva que nos dio el multi-medallista estadunidense Michael Phelps. Además, ¿cómo se alimentan los deportistas olímpicos para mantenerse en forma aquí, en Río 2016? ¡No se vayan!

Bibliografía:

Nota en Scientific American |  Nota II en Scientific American | Artículo del Descubrimiento de Cebrennus rechenbergi | Nota original en el Blog de Historias Cienciacionales.

No todo es lo que parece. Agallas, manzanas de roble e insectos.

Vas de excursión, caminando en medio del bosque. Ya pasaron unas horas desde que te comiste tu último sándwich y desapareciste la última manzana. Ves una fruta redonda, rojiza y que parece estar cubierta de pelos. Está en medio de las rosas silvestres, lo cual te parece curioso. De cualquier modo, de inmediato piensas que ha de ser algo similar al rambután. Esa fruta dulce parecida a los lichis. No parece haber nada más a la redonda y, dado que llevas un rato sin comer, suena a una buena botana. Tomas tu navaja y la partes a la mitad antes de pelarla. Entonces ves algo que de inmediato te quita el hambre. Sucede que la fruta que tomaste no es tal y un gusanito blanco te observa pasmado desde su interior.  

Agalla

Ilustración 1. Agalla causada por una avispa Diplolepis. Fotografiada por J.R. Crellin.

 

Las agallas (fitomas, cedidios o abogallas) son estructuras inducidas en las plantas por la presencia de un organismo extraño como puede ser un insecto, bacteria o virus. Algunas se ven tan sólo como pequeñas protuberancias en las hojas.

 

Agalla2

Ilustración 2. Diplolepis rosae en Rosa canina. Tomada el 25 de agosto de 2007 por Frank Vincentz.

En inglés se les denomina gallnuts (nueces de bilis) o insect-galls (bilis de insecto) debido al sabor amargo característico de los taninos que contienen, los cuales son sustancias amargas producidas por las plantas que precipitan proteínas. La existencia de estos taninos permitió que antiguamente las agallas se emplearan para curtir pieles. En la edad media se utilizaron como fármacos y se les atribuían propiedades adivinatorias. Se creía que el año dependería de si dentro de la agalla se encontraba un gusano, una mosca o una araña. Si había un gusano habría hambre, si era una mosca guerra y si era una araña pestilencia. También fueron utilizadas para la elaboración de colorantes y tinta. En el este de África las mujeres somalíes utilizaban un tipo de agalla para realizar tatuajes. ¡Incluso llegaron a usarse para alimentar al ganado!

Es común que los árboles de aguacate se infecten de Trioza, un insecto cuyas ninfas (un estado anterior al adulto) viven en agallas en las hojas de aguacate. Por su aspecto, es claro que estas agallas son un elemento extraño en la planta; sin embargo, hay algunas que tienen un aspecto tan similar al de las frutas o brotes de hojas que son casi indistinguibles de las estructuras normales de las plantas. Tal es el caso de las “manzanas de roble”, que son agallas dentro de las cuales crecen las larvas de una especie de avispa llamada Amphibolips confluenta. En México, éstas suelen verse también en los encinos y llegan a alcanzar ocho centímetros de diámetro. Aunque no tienen precisamente la misma forma de las manzanas, su color rojizo o amarillento hace que se confundan fácilmente con frutos.

 

Agalla3(manzana)

Ilustración 3. Manzana de Roble producida por Trichoteras vaccinifoliae. Fotografiada por Ron Russo para Confessions of a Gall Hunter en la Revista de Historia Natural (Natural History Magazine).

De acuerdo con Margaret M. Fagan, las agallas causadas por Discholcaspis weldi (una especie de avispa) en Quercus reticulata (un roble) podían adquirirse en puestos de frutas de la Ciudad de México.

Las agallas a las que nos referimos en el inicio de este texto han sido llamadas Diplolepis bicolor y son causadas en las rosas por otro tipo de avispas. Estas son comunes en Canadá y Estados Unidos, donde frecuentemente son fotografiadas por excursionistas.

Debido a sus propiedades, a lo inesperado que resulta hallar un insecto viviendo dentro de una “frutilla” y a la variedad de formas que pueden generar (más allá de los vistosos cuasi-frutos), las agallas han despertado el interés de la comunidad científica desde hace muchos años. Inicialmente interesaba medir cómo afectan las agallas el crecimiento y rendimiento de las plantas. En algunos trabajos sobre fósiles de agallas, se les han calculado edades de más de 300 millones de años, lo cual nos habla de lo antigua que es esta relación entre las plantas y los insectos.

A pesar del tiempo que llevan estudiándose, los mecanismos moleculares por los cuales los insectos logran controlar el desarrollo de las plantas para formar estas intrincadas estructuras, aún son un misterio. Se saben, y en algunos casos se sospechan, cuáles podrían ser algunas de las moléculas involucradas en estos procesos, pero aún hay mucho por averiguar. En principio, llama la atención que unos cuantos cambios, como mordeduras de los insectos y las sustancias que el insecto le transmite a la planta por medio de su saliva, puedan generar este tipo de respuesta. Ante la presencia de estrés, algunas células de las plantas cambian de un tipo celular a otro para reparar y neutralizar los cambios. Pero si el estímulo es muy fuerte, la planta suele matar a las células bajo la influencia del insecto u otro parásito para asegurar la supervivencia del resto del organismo.

Sabemos que hay pasos clave para que los insectos consigan formar una agalla completa, como el reconocimiento de la llegada del insecto por parte de la planta, la señalización que se da dentro de la planta después de reconocer esta llegada, el crecimiento de la agalla y la diferenciación observable. De momento, como se mencionó anteriormente, una pieza clave parece ser la saliva. Científicos que estudian este tema proponen que la saliva genera un “choque” químico que altera el estado de las células generando el estrés que lleva a la célula a cambiar de tipo celular en un intento por compensar los daños. Incluso los mismos compuestos dentro de la célula, al ser expulsados cuando la planta es mordida por un insecto, podrían ser los que estén induciendo el estrés que es clave en el inicio de la formación de una agalla.

Las agallas reciben una gran cantidad de señales bioquímicas provenientes de las hojas sobre las que crecen. Por lo general, dichas señales ayudan a que una hoja se desarrolle normalmente, pero las agallas logran diferenciarse independientemente de estas señales, desarrollando estructuras impresionantes.

Las plantas no son los únicos organismos que pueden verse afectados por avispas, ya que estos insectos también pueden inducir comportamientos extraños en arañas, cucarachas y otros organismos que parasitan. Algunos investigadores han comparado este comportamiento con un estado “zombie”, que lleva al ser infectado a suicidarse o dejarse llevar ciegamente por su captor. Llama mucho la atención ya que otras presas, como las mariposas, sólo son paralizadas y no exhiben estos cambios de comportamiento. En las cucarachas, las avispas logran imponer su control por medio de un “cóctel” neurotóxico que suprime la actividad de algunas neuronas, cambiando así la “motivación” de la cucaracha por caminar. Con esta acción la avispa impide que la cucaracha escape del nido donde la avispa la coloca. Este es otro ejemplo de una respuesta extraña y compleja lograda con una señal sencilla.

Además de ser procesos por sí mismos muy interesantes, el estudio de la formación de estos brotes falsos conocidos como agallas y el control que ejercen las avispas sobre el sistema nervioso de otros organismos, ayuda a entender cómo se dan otros procesos como la diferenciación y simetría en las plantas.

[hozbreak]

Bibliografía y literatura adicional

Agallas sobre Quercíneas es un documento en español del 2006 de la Universidad de Aragón, revisado por los Doctores Pedro del Estal, José Luís Nieves-Aldrey y Juli Pujade-Villar. Este documento contiene una breve introducción acerca de las agallas, en donde se comenta, a grandes rasgos, cómo actúan algunos insectos inductores de agallas.

On predatory wasps and zombie cockroaches: Investigations of “free will” and spontaneous behavior in insects, es una revisión donde Ram Gal y Frederic Libersat discuten cómo se da el control mental de las avispas hacia las cucarachas.

Fossil oak galls preserve ancient multitrophic interactions de Graham N. Stone y sus colaboradores es un artículo del 2008 en donde los autores describen un fósil de agallas. Lo interesante del artículo es que, a pesar de haber evidencia fósil previa, este espécimen está muy bien conservado y es muy detallado.

En The Effects of Stem Gall Insects on Life History Patterns in Solidago canadensis de David C. Hartnett y Warren G. Abrahamson (1979), los autores hicieron una exploración acerca de los posibles efectos de las agallas en las poblaciones de plantas.

The Uses of Insect Galls de Margaret M. Fagan (1918) es, a pesar de ser un artículo antiguo, una revisión muy interesante de los usos que los seres humanos le habíamos dado hasta ese entonces a las agallas de insectos y de cómo hemos ido comprendiendo su naturaleza.

Morphogenesis of insect-induced plant galls: facts and questions, de Anantanarayanan Raman (2011) es una revisión que nos habla de las evidencias actuales de cómo funcionan las agallas de insectos y de qué falta por saber.

[hozbreak]

Acerca del autor

Libertad Pantoja Hernández nació en la Ciudad de México. Estudió Ciencias Genómicas en el campus Morelos de la UNAM. En el 2008 y 2009 participó el concurso iGEM de máquinas genéticas. Actualmente estudia el Doctorado en Ciencias Biomédicas en la UNAM y participa en el Taller de Narrativa impartido por Alberto Chimal. Cada vez que puede escribe y dibuja.

Una nueva receta cósmica

 

Continuando con las ideas del post “Por qué Planck aún no termina de sorprender…”,  hagamos un breve resumen de la nueva apariencia de nuestro Universo que la Misión Planck nos proporcionó hace ya más de un año:

  1. El Universo tiene una edad de 13.82 mil millones de años.
  2. El Universo se está expandiendo un poco más lentamente que lo que se esperaba.
  3. El Universo contiene 4.9 % de materia ordinaria, 26.8 % de materia oscura y 68.3 % de energía oscura.
  4. El Universo es asimétrico: sólo un poco, sólo un indicio, pero que tiene profundas implicaciones.

¿Qué significa todo esto?  Demos un vistazo a estos resultados.

 

Tan viejito como lleno de misterio. 

 

La edad del Universo es mayor de lo que esperábamos. Hace algunos unos años, la sonda de Anisotropía de Microondas Wilkinson (WMAP, por sus siglas en inglés) miró el Universo tanto como el satélite Planck lo ha hecho recientemente, y por el momento tiene la mejor determinación de la edad cósmica: 13.73 ± 0.12 mil millones de años.

La misión Planck descubrió que el Universo es casi 100 millones de años más antiguo: 13.82 mil millones de años, lo cual es consistente con la estimación reportada por la sonda WMAP, pero las mediciones del satélite Planck se consideran más refinadas. Esta nueva cantidad se convertirá en el nuevo punto de referencia para los astrónomos.

 

 El Universo se expande un poco más lento de lo que esperábamos.

 

El Universo está en expansión, y ha estado comportándose así desde el momento en que nació. Podemos medir la velocidad de la expansión de diversas maneras, por ejemplo, mirando distantes explosiones de estrellas. Podemos medir la rapidez con que se están alejando de nosotros junto con la expansión del espacio al ver lo mucho que su luz está desplazada hacia el rojo. Cuanto más lejos vaya, más rápido será la expansión del Universo, y lo que el satélite Planck encontró es que el Universo está creciendo a una velocidad de 67.1 kilómetros por segundo por megaparsec. Un megaparsec es una unidad de distancia equivalente a 3.26 millones de años luz (lo cual es conveniente para los astrónomos). Eso significa que si nos fijamos en una galaxia un megaparsec lejos (distancia equivalente a unos 3,26 millones de años luz), ésta parece estar alejándose de nosotros a 67.3 kilómetros/segundo. Una galaxia a dos megaparsecs de distancia retrocedería a dos veces esa velocidad, 134.6 kilómetros/segundo, y así sucesivamente. Esto se conoce como el Parámetro de Hubble. Varios métodos han sido utilizados para medirlo durante el siglo pasado, y algunos de los mejores mostraron un resultado de 74.2 kilómetros/segundo/megaparsec. La medición del satélite Planck es aún más pequeña, por lo que el Universo parece estar expandiéndose un poco más lento de lo que pensábamos, y su edad es un poco mayor de la que se había considerado.

Parte de la razón por la cual la cantidad que da el satélite Planck es menor es porque se está mirando la luz proveniente del origen del Universo, y que viene de muy lejos, por lo que hay que extrapolar hacia el presente para ver lo rápido que está creciendo. Otras mediciones utilizan la luz de objetos que están más cerca, y los científicos extrapolan hacia atrás en el tiempo.

Puesto que los dos números son distintos, esto puede significar que el Parámetro de Hubble cambia con el tiempo. Este parámetro es muy difícil de medir, y seguro que los astrónomos estarán discutiendo sobre él durante los siguientes años. Más información sobre estos detalles los pueden encontrar en el artículo titulado “A través de la oscuridad del Universo”.

 

Un pastel con diferentes proporciones

 

Puede que los nuevos números que el satélite Planck ha revelado le den un nuevo sabor a la estructura del Universo. La cantidad de las fluctuaciones en la luz de los inicios del Universo, así como la forma en que se distribuyen se pueden utilizar para averiguar de lo que está constituido. La nueva receta es:

  1. 4.9  % de materia ordinaria,
  2. 26.8 % de materia oscura,
  3. y 68.3 % de energía oscura.

 

Figura 1. Relación porcentual de los componentes materiales del Universo. En misiones anteriores a Planck (Izquierda). Actual porcentaje material dado por la misión Planck (Derecha). [Modificado de la fuente original].

 

 

La materia ordinaria es lo que llamamos protones, neutrones, electrones, básicamente todo lo que ves cuando miras a tu alrededor. Estrellas, automóviles, libros. Todo esto está hechos de materia ordinaria. Tú también.

La materia oscura es una sustancia invisible, pero tenemos evidencia que sugiere su existencia. Vemos sus efectos a través de su gravedad, que altera profundamente cómo las galaxias rotan y cómo se comportan los cúmulos de galaxias. Y haciendo las cuentas, hay 21.9 % más de ésta materia de lo que hay materia ordinaria. ¡Nuestro Universo realmente prefiere su lado oscuro!

Los indicios de existencia de la energía oscura empezaron en 1998, cuando se descubrió que la expansión del Universo se está acelerando. Esta energía es muy misteriosa, pero actúa como una presión, aumentando la velocidad de expansión del Universo. Lo poco que sabemos de esta exótica materia es que es un componente con grandes proporciones en la receta cósmica.

Las mejores estimaciones para estos números antes de la misión Planck fueron un poco diferentes: 4.6, 24 y 71.4 %, respectivamente. ¿Qué es lo que aprendemos con la misión Planck? Que hay menos energía oscura de lo que pensábamos, por lo que el Universo está formado por un poco menos de esas cosas raras, si eso hace sentir mejor al lector. ¡Pero todavía hay mucho de eso! Lo que alegra a gran parte de la comunidad de cosmólogos, ya que estas nuevas cifras apoyan el paradigma inflacionario, la hipótesis según la cual el universo habría experimentado una expansión de proporciones descomunales durante la primera fracción de segundo tras la gran explosión.

La buena noticia es que teniendo cantidades refinadas de todos estos medios, los astrónomos pueden ajustar aún más sus modelos, llevándonos así a un más claro entendimiento de los fenómenos astronómicos. Diferentes modelos de cómo el Universo se comporta predicen diferentes proporciones de estos ingredientes, así que conseguir que ellos estén centrados con más detalle nos permite ver qué modelos funcionan mejor. ¡Estamos aprendiendo!

 

 

Porque en la asimetría radica la belleza

 

Cuando decimos que el Universo presenta una asimetría en las temperaturas en los hemisferios opuestos del cielo, nos referimos a la falta de su distribución de manera homogénea. La misión Planck reporta nuevos datos, contrarios a las predicciones del modelo estándar cosmológico de que el Universo debería ser semejante en cualquier dirección que mirásemos. De todos los resultados mencionados hasta ahora, éste puede ser el más provocador. Esperamos que el Universo sea uniforme a gran escala. Esas fluctuaciones iniciales deben ser al azar, así que cuando usted mire alrededor de esa luz antigua, el patrón debe ser bastante aleatorio. ¡Y lo es! La distribución de las fluctuaciones es bastante aleatoria. A simple vista estas fluctuaciones pueden comportarse de esa manera, pero nuestros cerebros son desastrosos al pensar en la aleatoriedad real, por lo que tenemos que imponer orden en él. Tenemos que usar computadoras, matemáticas y estadísticas para medir la distribución y probar la aleatoriedad real, y una vez hecho esto el Universo pasa la prueba.

Un modelo cosmológico estándar simple del Universo dice que esto no debería suceder. ¡El Universo es asimétrico a gran escala! ¿Qué puede significar esto? En este momento, no sabemos, y hay muchas más ideas de por qué esto podría pasar que datos con los que podemos probarlas. Esto podría significar que la energía oscura cambia con el tiempo, por ejemplo. Otra idea, y una que es muy emocionante, es que estamos viendo un patrón impreso en el Universo desde antes del Big Bang. Lo que suena loco, pero no es completamente ilógico. Puede que esté sucediendo algo en escalas que no podemos ver.

 

 

Acerca del autor:

Celia Escamilla Rivera es Doctora Europeus por la Universidad del País Vasco y la Universidad de Oxford. Actualmente investigadora visitante en la Universidad de Nottingham, Reino Unido. Su investigación se centra en la interacción entre la cosmología teórica y observacional.

Por qué Planck aún no termina de sorprender...

 

Hace tres semanas escuchamos el anuncio de lo que muchos ya han denominado “el descubrimiento del siglo”: se ha detectado la primera evidencia de ondas gravitacionales. Científicos del Centro de Astrofísica Harvard-Smithsonian anunciaron los resultados de su experimento denominado BICEP2 ubicado en el Polo Sur. Este descubrimiento abre un nuevo campo de juegos donde la comunidad científica podrá empezar a poner a prueba sus teorías. Pero claro, este es el resultado de un solo experimento, y como buenos científicos debemos ponerlo a prueba. Existe al menos media docena de experimentos que continúan buscando esas extrañas señales, como por ejemplo: el Telescopio del Polo Sur  (SPTPol, por sus siglas en inglés); el Telescopio Cosmológico en Atacama (ACTPol) en Chile y el POLARBEAR también ubicado en el desierto de Atacama. Los datos de dichos experimentos concretarán o refutarán este hallazgo. Sin embargo, todos estos instrumentos están situados en los polos o en montañas desérticas donde podemos aislarnos de la contaminación lumínica de las grandes ciudades. Pero hay un lugar aún mejor para realizar las observaciones astronómicas: el espacio. Es por ello, sin lugar a dudas que las miradas de los científicos están puestas en la misión que precisamente hace un año cambió la manera de ver nuestro Universo: la misión Planck .

 

En la frontera de nuevos fenómenos cosmológicos

 

Si fabricar un Universo fuera como hacer un pastel, los datos del satélite Planck cambiaron la receta. Según los datos de la Agencia Espacial Europea  (ESA, por sus siglas en inglés), nuestro universo requiere una pizca más de materia ordinaria de lo que pensábamos y algo menos de los ingredientes misteriosos de los cuales apenas conocemos nada. Estos nuevos resultados mantuvieron emocionado al mundo científico y a la vanguardia de ideas que describirán con mayor precisión el Universo que habitamos.

¿De qué trata esta nueva era del conocimiento cosmológico? Permítame guiarle por un breve recorrido en la noticia que tiene a los cosmólogos con los ojos en el cielo.

Es bien conocido que nuestros ojos en el enorme y oscuro Universo en el que vivimos son los satélites artificiales. Con estos instrumentos somos capaces de visualizar y captar los más intrigantes datos astronómicos que nos dan indicio de lo que se encuentra a nuestro alrededor y más allá de lo que nuestra imaginación comprende. Mientras más refinados, hablando en el sentido tecnológico, sean estos aparatos, más posibilidades tenemos de conocer los fenómenos que ocurrieron, ocurren y podrían ocurrir en nuestro Universo. Es así como Planck, una misión de la Agencia Espacial Europea, ha surgido como uno de los satélites que han aportado en años recientes resultados astronómicos que alimentan nuevas perspectivas acerca de lo que podría estar compuesto el Universo, su forma, su edad y el futuro que le depara.

Figura 2. Cronología histórica de las misiones científicas dedicadas al estudio del Universo y sus secretos. 1965: Arno Penzias y Robert Wilson descubren la radiación cósmica de fondo con el uso de su altamente sensitiva radio antena. 1992: Se construye el primer satélite destinado a estudiar la cosmología, conocido también como Explorer 66. 2003: Nombrado en honor a uno de los pioneros en cosmología, David T. Wilkinson, la misión WMAP fue diseñada para comprobar las teorías sobre el origen y evolución del Universo. 2013: Conocida anteriormente como Planck Surveyor, esta misión europea fue lanzada en el año 2009 reportando al año siguiente su primera imagen y en marzo de 2013 divulgando los resultados más refinados hasta la fecha. [Diseño por la autora].

 

 

El satélite Planck, desde su lanzamiento en 2009, exploró todo el cielo, observando las frecuencias de radio y microondas del Universo. Parte de esta luz proviene de estrellas, otra de grumos de polvo frío, unas más de las estrellas en explosión o de galaxias distantes. Pero existe una parte de ella que viene desde más lejos...mucho más lejos, miles de millones de años luz, de hecho, todo el camino desde el borde del universo observable.

Esa luz fue emitida por primera vez cuando el Universo era muy joven, de unos 380 000 años. Fue cegadoramente brillante, pero en sus eones de duración de viaje se ha atenuado y enrojecido. Luchando desde entonces contra la expansión del Universo, la longitud de onda de esta luz se ha extendido a regiones de menor energía (más rojas) por lo que llega a nosotros en forma de microondas. El satélite Planck logró captar esta luz (conocida formalmente como radiación de fondo de microondas) por alrededor de 15 meses, con instrumentos mucho más sensibles que los antes conocidos.

La luz de los inicios del Universo no se muestra tan suave. Imagine que se pone en el camino contrario a la trayectoria de la luz hasta que vea manchas ligeramente brillantes y ligeramente más tenues. Estos corresponden a los cambios de temperatura del Universo en una escala de 1 parte en 100 000. Eso es increíblemente pequeño, pero tiene profundas implicaciones. Se cree que esas fluctuaciones se imprimieron en el Universo cuando tenía una billonésima de una billonésima de segundo de edad, y que creció cuando el Universo se expandió. Ahí mismo se encontraban las semillas de las galaxias y cúmulos de galaxias que vemos actualmente.

Lo que comenzó como fluctuaciones cuánticas cuando el Universo observable era más pequeño que un protón, se han convertido en las mayores estructuras en el cosmos con cientos de millones de años luz de diámetro. Deténgase el lector un momento y deje que se deposite esta idea en su cerebro...resulta impactante el visualizar dicho escenario ¿verdad?

Y resulta que esas fluctuaciones son la clave para las observaciones del satélite Planck. Al observar esos pequeños cambios en la temperatura podemos averiguar mucho sobre el Universo. Los científicos pasaron años buscando y analizando los datos del satélite Planck. Y lo que encontraron confirmó algo que sabíamos es bastante sorprendente, generando el 21 de marzo de 2013 la publicación de 29 artículos de investigación. Hagamos un breve resumen de los resultados:

  1. El Universo tiene una edad de 13.82 mil millones de años.
  2. El Universo se está expandiendo un poco más lentamente que lo que se esperaba.
  3. El Universo contiene 4.9 % de materia ordinaria, 26.8 % de materia oscura y 68.3 % de energía oscura.
  4. El Universo es asimétrico: sólo un poco, sólo un indicio, pero que tiene profundas implicaciones.

 

¿Qué significa todo esto? ¿Qué implicaciones tendrían estos cambios en nuestro vecindario cósmico? Todo esto y algo más en la siguiente entrega: “Una nueva receta cósmica”.

 

 

¡Porque aún hay mucho que probar!

 

La comunidad científica está encantada con estos resultados, y como buenos científicos nos gusta cuando llegamos a mejores mediciones, con más detalles y números refinados. Así es como se prueban las teorías y nos ayudan a entender mejor nuestras ideas.

El satélite Planck nos ha entregado un mapa completo del Universo durante el tiempo que estuvo en operación entre los años 2009 y 2013. Sin embargo, este análisis aún no está completado, y es aquí donde este instrumento tendrá que entrar al escenario de la detección de las ondas gravitacionales. La misión Planck aún no revela el análisis de estas medidas, que muy probablemente puedan confirmar o descartar en los siguientes meses los resultados de BICEP2.

Cuando se verifique este importante descubrimiento tendremos a la mano las herramientas que precisarán el paradigma inflacionario. Mientras tanto...¡esperemos a que Planck nos sorprenda por segunda vez!

 

 

Acerca del autor:

Celia Escamilla Rivera es Doctora Europeus por la Universidad del País Vasco y la Universidad de Oxford. Actualmente investigadora visitante en la Universidad de Nottingham, Reino Unido. Su investigación se centra en la interacción entre la cosmología teórica y observacional.

¡Bienvenidos a la Tierra de las Ondas Gravitacionales Primordiales!

¡¿Qué se puede decir después de haber vivido la semana más excitante en el campo de la cosmología?! Después de la noticia que dio una vuelta al mundo el lunes pasado a las 9 am (hora del D.F., México): ondas-1

¡Las ondas gravitacionales han sido detectadas y están para quedarse! Permítanme darles un breve recorrido sobre este suceso y las nuevas fronteras que conllevarán sus resultados.

Todo comenzó con un anuncio oficial de prensa del Centro de Astrofísica Harvard-Smithsonian(spaceref):

Este Lunes 17 de marzo, hora del este, los astrónomos anunciarán un “gran descubrimiento”.

Sin embargo, dicho anuncio no reveló evidencia de qué se trataba el “descubrimiento” realmente. Y los rumores en la comunidad científica empezaron...

Claro que  al conocer cosmólogos o teniendo amigos de dicha área en Facebook, Twitter, o cualquier otra red social, el rumor empezó a esclarecerse: el experimento en el polo sur BICEP2 (Background Imaging of Cosmic Extragalactic Polarization, por sus siglas en inglés) que cuenta con el trabajo de 47 investigadores de varios países y dirigidos por John Kovac, ha detectado señales de ondas gravitacionales.

¿Qué son las ondas gravitaciones? y ¿cuál es la importancia de su detección? Estas preguntas serán reveladas más adelante, pero primero permítame mencionar la importancia por la cual esta noticia es extraordinaria: la detección de éstas señales extrañas provenientes del espacio daría una enorme e importante pista de lo que pasó en los primeros momentos de la Gran Explosión (o Big Bang) que dio origen a nuestro universo.

BICEP-1

Así se ve el BICEP-2

De la misma forma que el electromagnetismo predice la existencia de ondas electromagnéticas, la Relatividad General propuesta por Albert Einstein en 1915 predice la existencia de ondas gravitacionales, las cuales pueden verse como perturbaciones en el espacio-tiempo y que se propagan a la velocidad de la luz. Explicar la ciencia de las ondas gravitacional requeriría unas líneas extras a esta noticia, pero invito al lector a que disfrute de 3 minutos sobre este fenómeno en el Universo con este vídeo.

Continuando con esta noticia impactante, es interesante mencionar que además de encontrar vida en otros planetas o detectar la materia oscura, se podría pensar que no hay descubrimiento plausible más importante que éste para ampliar nuestro entendimiento del Universo. Y por supuesto, muchos consideran que es uno de los más grandes descubrimientos desde la presentación de la energía oscura.

Una idea que debemos tener en mente es que el descubrimiento no indica que las ondas gravitacionales existen -claro que existen-. La gran noticia es que ahora tenemos la evidencia experimental de ese algo que pasó justo cuando nuestro universo nació. Y de la mano de este descubrimiento, tenemos la teoría de la inflación cósmica, una hermosa teoría que describe ese instante del Universo y que explica por qué lo vemos al mismo tiempo grande y muy parejo en todas direcciones. Esta idea fue propuesta en 1979 por Alan Guth, aquí vemos en sus apuntes como se resolvía el problema de la teoría de la Gran Explosión:

ondas-2

En resumen, en épocas muy, muy tempranas (aún no estamos seguros cuándo exactamente, pero ha sido plausible considerar 10-35 segundos o menos antes del tiempo de Planck, que es la unidad de tiempo más pequeña que puede ser medida y es de alrededor de 10-43 segundos), el Universo pasó por una fase de expansión acelerada por alguna razón u otra. Existe una amplia variedad de modelos que describen cuál pudo haber sido dicha fase; y descubrir cuál es el modelo adecuado es el pan de cada día de los cosmólogos. Pero claro, el efecto básico de la idea de la era inflacionaria suaviza mucho las cosas: elementos como la densidad de las perturbaciones (las cuales al colapsar gravitacionalmente formaron las galaxias, grupos de galaxias y super agrupaciones de galaxias), la curvatura espacial, y ciertas reliquias de esa época quedan diluidas. Claro que, según la mecánica cuántica, no podemos suavizar estas cosas completamente. Sin prolongar estas ideas, la inflación ciertamente hace predicciones crudas: el universo es aproximadamente homogéneo, y la curvatura del espacio es muy pequeña. Pero las perturbaciones que aparecen en dicho escenario proveen información aún más específica y cualitativa, y ofrecen una esperanza tangible de que estamos aprendiendo más de la era inflacionaria.

Hay dos clases de perturbaciones que esperamos ver: el campo “inflaton” y las “ondas gravitacionales”. No sabemos qué campo llevó a cabo la inflación, es por ello que le llamamos inflaton y tratamos de determinar sus propiedades con base en observaciones. Y por supuesto, hay fluctuaciones cuánticas en el campo gravitacional: las ondas gravitaciones o gravitones. Esta idea fue propuesta a principio de los años 80 y justo después de que la teoría inflacionaria fuera publicada.

Las ondas gravitacionales son interesantes por las siguientes razones: primero, sabemos que deben estar ahí; segundo, existe un proceso por el cual podemos separar las ondas gravitacionales de las fluctuaciones de la densidad usando la polarización de la radiación cósmica de fondo, es decir, podemos separar la señal de estas ondas, las cuales tienen forma de remolinos en la polarización de la luz más antigua del universo y que éstas sean polarizadas significa que en su movimiento de propagación se mueven de una manera específica en un plano dado. Finalmente, las ondas gravitacionales podrían revelar un número mágico: la densidad de energía del Universo durante la era inflacionaria.

Usualmente, un mapa de la polarización de la radiación cósmica de fondo toma la forma de pequeños segmentos de líneas en el cielo. Si uno tiene polarización en un punto específico, esa es toda la información disponible; pero si uno tiene un mapa de polarización sobre una determinada área, se podría descomponer en lo que llamamos modos E y modos B, y son éstos últimos el resultado de las perturbaciones de las ondas gravitacionales. En la imagen 3 tenemos el mapa obtenido por BICEP2 donde vemos como giran las flechitas haciendo espirales en algunos sitios según los cambios de temperatura. Podemos conocer la medida del efecto los modos B a través de un parámetro al que denominamos “r” (tensor-to-scalar ratio, en inglés). Si r=0, quiere decir que no se observan estas ondas gravitacionales. Es aquí donde el rumor de la semana pasada y el ahora descubrimiento confirmado recae: el experimento BICEP2 ha encontrado signos de los modos B de las ondas gravitacionales primordiales con r=0.2 como se observa en la Imagen 4. Los resultados oficiales fueron publicados en http://bicepkeck.org.

ondas-3

ondas-4

Pensemos por un momento lo que este descubrimiento quiere decir. Las ondas gravitacionales son producidas por la inflación, y ahora que se han detectado tenemos los datos que describen el proceso físico a escalas un poco más abajo que las de Planck. Actualmente, nuestro conocimiento empírico del universo temprano se extiende a escenarios cerca de un segundo después de la Gran Explosión, por supuesto, cortesía de la época de nucleosíntesis, etapa del universo temprano que duró alrededor de tres minutos y dio origen a la formación de elementos ligeros, como por ejemplo: el hidrógeno.

La predicción de las ondas gravitacionales es una de las grandes palancas que tenemos para decir que la inflación realmente ocurrió. Y ahora que BICEP2 ha publicado sus resultados es seguro que afectará nuestras ideas de cómo pensamos que fueron los primeros momentos de la historia de nuestro Universo. Es por lo cual hasta este punto se podría pensar en el fin del mundo como lo conocemos: primero, con estos resultados sabemos que la era de inflación realmente ocurrió. Segundo, sería prueba de que la gravedad cumple con los preceptos de la mecánica cuántica y podría ser unificada con las otras fuerzas que aparecen en la naturaleza Tercero, tenemos un valor numérico que indica la escala de energía a la cual ocurrió la época inflacionaria. Y por último, muchos modelos teóricos alternativos a la inflación y propuestos hasta el momento quedarían en el olvido. Mencionemos también que hay más de un pilar en la historia de la teoría inflacionaria: tenemos en una columna a Alexei Starobinski con su espléndido artículo publicado en la Journal of Experiment and Theoretical Physics Letters en 1979, en otra a Andrei Linde con su artículo publicado en Physics Letters B en 1982 y el dúo Andreas Albretch y Paul Steinhardt con su ideas plasmadas en la revista Physical Review Letters de 1982. No pasen desapercibidos estos héroes de la idea de la época inflacionaria, que seguramente serán los rostros de muchos comentarios en la próxima reunión del comité del Premio Nobel.

No olvidemos que actualmente existen muchos experimentos en competencia, por ejemplo la Misión Planck, la cual dio relevantes resultados precisamente hace un año. Cada uno de ellos está trabajando muy rápidamente para decirnos si estamos en el camino correcto a describir el Universo en el que vivimos.

Mientras tanto en la comunidad científica los rumores continuan: ¡suenan campanas para el Premio Nobel de Física 2014! Cerremos este breve artículo con un video emotivo de  las reacciones de Andrei Linde y su esposa Renata Kallosh al recibir la noticia de este descubrimiento:

--

Acerca de la autora:

Celia Escamilla Rivera es Doctor Europeus por la Universidad del País Vasco y la Universidad de Oxford. Actualmente investigadora visitante en la Universidad de Nottingham, Reino Unido. Su investigación se centra en la interacción entre la cosmología teórica y observacional.

Los anillos de un Centauro

Asteroide-Cariclo  

En la mitología griega, los centauros son seres salvajes con el cuerpo y las piernas de caballo y la cabeza, brazos y torso de humano. Los centauros se asocian comúnmente con un comportamiento irracional y visceral, son animales supersticiosos y miran al cielo con frecuencia para determinar su destino de acuerdo con la posición de los objetos celestiales. Poco saben los centauros descritos por la mitología griega que allí mismo, en el cielo al que miran antes de tomar sus decisiones, existe un grupo de objetos bautizados en su honor. Hablando en términos astronómicos, los centauros son cuerpos celestes que orbitan alrededor del Sol entre las órbitas de Júpiter y Neptuno y cuyo comportamiento se parece a veces al de los asteroides y a veces al de los cometas (la naturaleza híbrida de los centauros griegos está presente). A diferencia de los planetas, los cuales tienen órbitas elípticas definidas, la órbita que siguen los centauros es errática, igual que el errático camino de los centauros mitológicos, debido a la influencia de la gravedad de los planetas.

Uno de los centauros mitológicos más importantes es Queirón, quien se distingue de sus congéneres por ser racional y sabio. Queirón tuvo por esposa a la ninfa Cariclo, quien le ayudó activamente en la educación de dos héroes griegos: Jasón y Aquiles. Y es de Cariclo de quien hablaremos en este blog.

Cariclo y Queirón son los dos centauros (astronómicos) de mayor tamaño conocidos hasta el momento, tienen un diámetro de 250 y 230 Km respectivamente. Comparado con nuestra Luna, Cariclo es aproximadamente 14 veces más pequeño y tarda 63.17 años en completar una vuelta alrededor del Sol. Cariclo fue descubierto en 1997 y durante este tiempo las observaciones realizadas a este centauro fueron desconcertantes, pues a veces se observa una disminución inusual en el brillo que refleja. Además, aunque ya se había detectado la presencia de hielo en este centauro, en algunas observaciones no se detectaba hielo por ningún lado. Cariclo era un misterio y un desafío para los astrónomos, pero esa historia acaba de dar un giro inesperado: un grupo multinacional formado por investigadores de más de diez países formaron una red de observación espacial compuesta por distintos telescopios para observar la ocultación de una estrella debido al paso de Cariclo. Las ocultaciones son fenómenos frecuentes y se refieren a la disminución del brillo de una estrella por el tránsito de un cuerpo opaco entre la estrella y el observador. En este caso se dispuso a una serie de telescopios localizados en América del Sur para observar la ocultación de la estrella UCAC4 248-108672. Los resultados que se obtuvieron fueron sorprendentes, pues además de la disminución del brillo que se esperaba debido al tránsito de Cariclo, se observaron otras cuatro disminuciones en el brillo de UCAC4.

La primera explicación que se puede ofrecer para este resultado es que Cariclo posee cuatro satélites, pero la disminución del brillo de la estrella debido a estos "satélites" sugeriría que existen dos pares de satélites idénticos y que además están perfectamente alineados con Cariclo, lo cual es una explicación muy poco probable. La segunda explicación, la cual es mucho más interesante y probable, es que Cariclo posee dos anillos similares a los que se conocen para Saturno. Hasta ahora, los anillos sólo se conocen para cuatro grandes planetas: Júpiter, Saturno, Urano y Neptuno y se creía que una condición para la formación de los anillos es que la masa del planeta al que orbitan fuera tan grande que por efecto de su gravedad lograra mantener en órbita alrededor de él a distintos objetos de diámetro minúsculo o incluso partículas de polvo estelar o hielo. Por ello el descubrimiento de los anillos alrededor de Cariclo resulta relevante, pues su tamaño y masa son muy pequeños y contradicen a nuestra idea de que los anillos sólo pueden formarse alrededor de gigantes gaseosos como Saturno. Los anillos de Cariclo poseen un ancho de 6.5 y 3.5 Km y han sido llamados Oiapoque y Chuí, nombre de dos ríos que cruzan Brasil, país de origen de Felipe Braga-Ribera quien es el líder del equipo que realizó el descubrimiento. La presencia de dos anillos, y más específicamente la distancia que separa a estos anillos, sugiere también que Cariclo posee un satélite pequeño, el cual podría actuar como luna "pastora" al confinar y definir a Oiapoque y Chuí.

Ahora bien, de acuerdo con las mediciones de la ocultación de UCAC4, también fue posible proponer que la inclinación de los anillos es tal que algunas veces lo vemos de frente y otras veces de canto. Si el hielo que se ha detectado en Cariclo está contenido en los anillos, esto explicaría por qué el brillo del centauro aumenta y disminuye gradualmente (en función de la inclinación relativa de los anillos respecto a nosotros) y por qué a veces detectamos el hielo y a veces no. Respecto a la formación de los anillos de Cariclo, se cree que son los restos de una colisión que sucedió a muy baja velocidad entre Cariclo y tal vez otro asteroide. Sabemos que si esta colisión ocurrió, debió ser a velocidades bajas porque un choque con mayor fuerza hubiese lanzado a los restos de la colisión lo suficientemente lejos para escapar del campo gravitacional del centauro, pues aunque es el más grande de los centauros observados hasta ahora, es realmente pequeño: tan sólo el lago Ontario, el menor de los grandes lagos Norteamérica, mide 300 Km de largo.

Además, el descubrimiento de los anillos de Cariclo nos ofrece la posibilidad de conocer nuestros orígenes, pues nos otorga la posibilidad de estudiar a las etapas primigenias de nuestro sistema solar, en el cual la nube de polvo y materia estelar, similar a la composición de los anillos de Cariclo, fue condensándose hasta formar a los planetas,  incluido el nuestro.

Levanta los ojos al cielo nocturno, allá arriba, en un sitio lejano, los centauros siguen su rumbo errático y nos invitan a explorar misterios que esperan ser resueltos, ¿te animas a descubrirlos?

Acerca del autor:

Gustavo Rodríguez Alonso es estudiante del Doctorado en Ciencias Bioquímicas de la UNAM. Su proyecto está enfocado en el estudio de los genes que controlan el desarrollo de la raíz en las plantas cactáceas. Puedes encontrarlo en twitter como @RodAG_ o en su blog personal.

¿Y cómo se ve la superficie marciana?

Colaboración de nuestros amigos de Pedazos de Carbono

---

Esta ocasión vamos a compartir unas imágenes de la superficie marciana que se ven super espectaculares. Realmente nos hacen pensar cómo sería observar un amanecer en el planeta rojo, e incluso podemos ver como lucen algunas de sus montañas.
SuperficieMarciana1
SuperficieMarciana2

Pero antes de continuar, ¿te has preguntado cómo le hicieron para poderlas tomar? Pues realmente estas imágenes son producto de la mezcla de datos topográficos precisos obtenidos por la NASA y el arte del holandés Kees Veenenbos. Los mapas topográficos obtenidos por "The Mars Orbiter Laser Altimeter (MOLA)", que fue uno de los cinco instrumentos a bordo de la nave "Mars Global Surveyor (MGS)", fueron usados en el programa Terragen de gráficos por computadora como base para crear las imágenes llenas de realismo de la superficie marciana. Para Kees fue un gran reto, ya que lo que lo motivaba era hacer llegar a las masas la belleza lejana a nuestro planeta para que pudiéramos apreciar y entender lo maravilloso del planeta rojo.

SuperficieMarciana3 SuperficieMarciana4 SuperficieMarciana5 SuperficieMarciana6 SuperficieMarciana7 SuperficieMarciana8

Muchas de estas imágenes no sólo han ayudado a la NASA a identificar el mejor lugar para aterrizar algunas de las misiones que han llegado a Marte, sino que igual han servido para la difusión de la ciencia en los programas de la NASA, de "National Geographic" y de la serie científica estadounidense NOVA.

Espero que les hayan gustado, y que nos hagan saber si es que a primera vista les parecieron demasiado detalladas o que fueron tomadas 100% con una cámara.

Starignus

--

Escrito por Ariadna Blanca Romero y publicado originalmente en Pedazos de Carbono

El Arduo Camino Hacia el Lado Obscuro: Mitos, realidades y elucubraciones sobre la materia obscura

  “Es necesaria una gran madurez para entender que la opinión que defendemos no es más que nuestra hipótesis favorita, a la fuerza imperfecta, probablemente pasajera, que sólo los muy cortos de entendederas pueden tomar como una certeza o una verdad.”

Milán Kundera

 

No la podemos ver, no la podemos medir, podemos "sentir" sus efectos, pero no podemos asegurar que existe; es uno de los grandes dolores de cabeza para los astrofísicos y aunque realmente no la alcanzamos a comprender en su totalidad, cada vez se le imputan más y más responsabilidades de magnitudes astronómicas; nos referimos al presunto responsable de que el universo, los cúmulos de galaxias y nuestra propia Vía Láctea existan en la forma en que los conocemos. Con ustedes: La materia obscura.

 

¿Cómo se descubrió algo tan difícil de detectar?

Esta pregunta engloba la parte más interesante de este tema. En realidad, la materia obscura nunca ha sido "descubierta"; su concepto surge como una hipótesis para explicar el por qué ciertos cuerpos celestes no se comportan tal cual lo predice la teoría general de la relatividad de Einstein. Conforme se volvió más común el estudio de objetos distantes en el universo, derivado de los avances tecnológicos de principios del siglo XX, fue posible analizar el movimiento de las galaxias y estrellas con gran precisión; en este contexto, algunos científicos como Jan Oort y Fritz Zwicky notaron peculiaridades sumamente trascendentes en sus observaciones: la velocidad orbital de las estrellas en la Vía Láctea (Oort, 1932) y de las galaxias dentro de sus cúmulos (Zwicky, 1933), era mucho mayor a la esperada; esto implicaba que había algo allá afuera generando interacciones gravitacionales de gran magnitud.

El término “materia obscura” fue acuñado por Zwicky con el fin de explicar el desajuste entre la materia observable (estrellas, planetas, polvo, conejos, etc.) y las relaciones gravitacionales entre las galaxias. En un momento en que los supuestos eran tan divergentes como asumir que había materia incapaz de ser detectada por los telescopios de la época, o la necesidad de replantear la teoría de la relatividad para ajustarse a las nuevas observaciones, Zwicky, humano, apostó por el primero.

El tema quedó en el olvido por algunas décadas ya que, en realidad, nadie sabía mucho sobre el comportamiento de las galaxias ni se mostraba interesado en revivir la polémica de la materia perdida; sin embargo, a mediados de la década de los setentas, los avances tecnológicos de la época pusieron nuevamente el tema sobre la mesa. Vera Rubin descubrió que la velocidad de rotación de las galaxias sufre el mismo desajuste que las estrellas de Oort y las galaxias de Zwicky. Nueva evidencia se acumuló y la materia obscura regresó a las primeras planas.

 

¿Alguien tiene idea de qué es la materia obscura?

Las observaciones más recientes sobre radiación residual realizadas por el Satélite Planck de la Agencia Espacial Europea, apuntan a que 84.5% de la materia presente en el universo podría ser materia obscura. ¿En qué forma se presenta y dónde se esconde toda esa materia? Las primeras hipótesis sobre su naturaleza se enfocaron en objetos masivos indetectables (por su baja o nula emisión de radiación electromagnética): agujeros negros, estrellas de neutrones, algunas estrellas enanas y planetas no asociados a sistemas. Los telescopios del mundo y sus alrededores (en la actualidad hay muchísimos telescopios orbitando la Tierra) voltearon al cielo en busca de evidencia que sustentara esta teoría y, en efecto, existen evidencias, pero éstas no convencen al no ser suficientes. El 84.5% de la materia del universo no se esconde en forma de planetas errantes.

La hipótesis más aceptada es que la materia obscura se encuentra distribuida por todo nuestro universo, en forma de partículas masivas que interactúan débilmente (WIMPs, por sus siglas en inglés). Si las WIMPs fueran las responsables de la materia obscura en el universo, es posible que millones de estas partículas subatómicas estuvieran atravesando nuestros cuerpos a cada segundo. Sin embargo, las propiedades (hipotéticas) de las WIMPs impedirían que interactuaran de forma perceptible con la materia no obscura (exceptuando, obviamente, las interacciones gravitacionales).

La naturaleza de estas partículas subatómicas ha eludido a los científicos, a pesar de los grandes esfuerzos realizados para su detección directa o indirecta. En octubre de 2013 el equipo del Gran Detector Subterráneo de Xenón (LUX), localizado a kilómetro y medio por debajo de la superficie de Dakota del Sur, y considerado como la instalación más sensible para la detección de partículas de materia obscura, anunció lo que muchos ya imaginaban: no  han podido encontrar nada.

La frustración por la falta de resultados en la Tierra tiene su contraparte espacial; recientemente ha habido descubrimientos que ponen en duda los modelos vigentes relacionados a la materia obscura. Se han encontrado, por ejemplo, grandes grupos de estrellas, cuyas interacciones gravitacionales parecen estar dictadas exclusivamente por la materia visible, sin efectos perceptibles de materia obscura. También hay casos en los que la materia obscura no se comporta como lo esperamos: un caso sonado es el del cúmulo galáctico Abell 520, que presenta una distribución de materia obscura (hipotética, siempre hipotética) con un patrón inverso al esperado, como se puede observar en la siguiente figura.

 

 

Seguimos modelando con la materia obscura como andamio

A más de ochenta años de escuchar su voz en off, la materia obscura sigue siendo ese abominable misterio que sólo se conoce por las consecuencias gravitacionales que presuponen su existencia, pero esto no ha sido motivo para dejar de elaborar modelos basados en un universo que es, en su mayoría, obscuro. Recientemente Lisa Randall y Matthew Reece, de la universidad de Harvard, propusieron un modelo que asocia las extinciones masivas en la Tierra con la materia obscura. De acuerdo con este modelo, el Sol, en su transitar por la galaxia, podría atravesar de forma periódica una zona con alta densidad de materia obscura ubicada en el plano central de la Vía Láctea, esta interacción podría estar provocando desórdenes gravitacionales que alterarían el comportamiento de cometas y otros cuerpos en la nube de Oort (una nube de rocas congeladas que, en teoría, rodea nuestro sistema planetario) y provocar bombardeos periódicos en la Tierra. Si esta propuesta suena demasiado especulativa, es porque lo es. Aun así, los invito a que la comparen con el propio modelo que hipotetiza la existencia de la materia obscura; variables hipotéticas más, variables hipotéticas menos, la especulación sigue estando presente y la carencia de pruebas contundentes sigue siendo la norma.

 

¿Será posible que la materia obscura… no esté ahí afuera?

La posibilidad de que la materia obscura sea un artefacto de teorías físicas incompletas es real. Existen varios modelos gravitacionales que intentan explicar el comportamiento del universo sin recurrir (o prescindiendo de) a la materia obscura, pero las preguntas siguen aventajando en número a las respuestas .

En el momento actual, los centros de investigación están revestidos de alta tecnología y una gran capacidad de análisis, características que han favorecido que tanto los partidarios como los adversarios de la materia obscura se hayan multiplicado como jamás se había visto.

El tiempo decidirá si llega el momento de borrar la materia obscura de nuestros libros o de darle nombre a esas elusivas partículas que, en teoría, la conforman.

 

Explorando algunas superficies en nuestro sistema solar

Colaboración de nuestros amigos de Pedazos de Carbono ---

Tal vez la superficie de la Tierra se te haga muy conocida. Sobre todo si has disfrutado de una hermosa puesta de sol o de un hermoso amanecer—en particular a mí me gustan más los amaneceres. Pero, ¿cómo serán los amaneceres en otros planetas? Tal vez para las nuevas generaciones esto será tan cotidiano de saber, como lo es el jugar con una computadora para un niño de un año, o como lo es para la mayoría de los humanos pensar en la Tierra como el planeta azul—con su forma esferoide.

Pero esa imagen no fue cotidiana para nadie antes del 24 de Octubre de 1946—apenas hace 68 años, lo cual es poco si piensas que el humano moderno tiene 200 mil años sobre la faz del planeta. Las primeras imágenes de la Tierra tomadas desde el espacio las hizo el cohete Nazi V-2, pero no creas que eran a color ni tampoco que el cohete haya dejado la órbita de la Tierra—lo que se dice cuando un objeto logra escapar a la gravedad del planeta—pero al menos nos dio una visión que desconocíamos hasta ese momento de nuestro hogar.

No fue hasta la misión del Apollo 8 en Diciembre de 1968 que terminamos no sólo conociendo mejor a la Luna, sino a la Tierra misma. La primera foto tomada fuera de la órbita terrestre rebeló la forma esférica y el color azul de nuestra casa. Esto es como si jamás te hubieras visto reflejado en un espejo durante casi toda tu vida, y de repente ¡puum! puedes ver cómo eres. Creo que somos afortunados de poder conocer cómo luce nuestra casa, no sólo desde la Luna, sino hasta desde otros planetas—como Marte y Saturno (y Saturno de nuevo), gracias a las diferentes misiones que siguen explorando nuestro sistema solar.

Apollo

A poco más de 40 años de la misión Apollo 8, hemos podido explorar más a nuestro sistema solar.  Ahora podemos indagar en otros planetas para poder responder un poco a la pregunta de cómo serán los amaneceres vistos desde las superficies de otros planetas. Con los avances en la ciencia y tecnología cada vez somos más capaces de explorar nuestro sistema solar y sus fronteras, lo cual nos deja disfrutar de imágenes que jamás en nuestra vida habríamos imaginado conocer. La siguiente imagen, por ejemplo, fue creada por los usuarios del sitio reddit y nos muestra las superficies de Venus, la Tierra, la Luna, Marte y Titán.

ExplorandoSuperficiesTerrestres

La imagen de Venus fue tomada por una de las misiones del programa espacial Venera, enviadas por los rusos en los 70s. Ellos prefirieron dejar de competir con los estadounidenses por la conquista de Marte, después de algunas misiones fallidas, por lo cual su vista se giró hacia Venus. En particular esta foto fue tomada hace 30 años, y con las nuevas técnicas computacionales se pudo hacer que nos revelara una nueva vista de Venus. Dicha imagen está compuesta por proyecciones esféricas que sólo se pudieron obtener en blanco y negro. El color que se le puso imita al color de la foto original como se ve en la siguiente imagen. Yo no me imaginaba tantas piedras en el planeta gaseoso.

Venus

Para más detalles de las fotos y ver otras más puedes ir al sitio de Don P. Mitchell

En el caso de la superficie de Titán, una de las lunas de Saturno, las fotos las tomó la sonda Huygens en la misión Cassini-Huygens. En el descenso de la sonda, ésta fue tomando fotos de las diferentes regiones en su visión, las cuales luego se juntaron para reconstruir el panorama completo de la superficie de Titán en el descenso de Huygens. Aquí les dejamos un video, donde al final puedes ver la imagen que aparece también en el mosaico de las superficies de nuestro sistema solar.
Todo esto me hace recordar que falta aún mucho que explorar, tanto en nuestro planeta como en nuestro universo cercano, lo cual deja espacio para seguir recolectando conocimiento y poner a prueba el que ya poseemos.

Starignus

--

Escrito por Ariadna Blanca Romero y publicado originalmente en Pedazos de Carbono

¿Por qué somos polvo de estrellas?

Mirar al cielo en una noche oscura y no sentirte un poco sobrecogido por el espectáculo es difícil. Y es que la inmensidad de la bóveda celeste ha sido fuente de inspiración de innumerables mitos y leyendas desde que el hombre rondaba las sabanas africanas en busca de alimento y refugio. Las estrellas tienen esa rara capacidad de hacernos sentir acogidos e inseguros al mismo tiempo. Hoy en día, gracias a la ciencia, nuestro entendimiento del Universo ha avanzado muchísimo desde aquellos lejanos tiempos en los que éramos simples recolectores-cazadores y buena parte de ese conocimiento se explica de forma magistral en la muy recomendable serie de televisión “Cosmos”, narrada por el portentoso astrofísico y divulgador Carl Sagan. Con millones de espectadores alrededor del mundo, la serie es considerada el programa de divulgación científica más exitoso. Es por ello que la re-edición de la serie que se estrenó este 11 de marzo, a cargo del también astrofísico Neil deGrasse Tyson, era esperada por muchos fanáticos de la serie original, incluyéndome, con gran emoción.

Si la nueva serie será tan bien recibida como su predecesora está por verse; pero si Neil deGrasse se acerca un poco al nivel de profundidad de la narrativa de Carl Sagan, muy seguramente será todo un éxito. Y precisamente la frase “somos polvo de estrellas” es un ejemplo claro de esa profundidad de la cual les hablo. Pero ¿a qué se refería Sagan con eso de que somos polvo de estrellas? Para responder déjenme contarles una pequeña historia:

Hace miles de millones de años, unos trece aunque no estamos bien seguros de la fecha, el Universo comenzó a existir. En sus primeros inicios todo lo que hoy conocemos como materia estaba formada por los átomos más simples: los de hidrógeno, que sólo tienen un protón en el centro y un electrón dándole vueltas y que hoy en día conforman alrededor de tres cuartas partes de la materia observable. (En ocasiones, los átomos de hidrógeno pueden tener además uno o dos neutrones en su núcleo. A esos átomos con diferentes números de neutrones en su núcleo los llamamos isótopos y dependiendo del número de neutrones reciben nombres distintos, pero no se confundan, son esencialmente lo mismo).

Con el tiempo esa materia formada sólo por átomos de hidrógeno se condensó y formó nubes que eventualmente conformaron las estrellas. En los núcleos estelares los átomos de hidrógeno se fusionan para formar helio (el cual es un átomo que consiste en un par de protones y neutrones rodeados por dos electrones). Este proceso, conocido como fusión nuclear, (o como decía mi abuela, “el arrejunte de los átomos”) requiere de temperaturas y presiones formidables, pero cuando dos átomos se fusionan, liberan una gran cantidad de energía que podemos observar como el brillo de las estrellas en la noche y el de nuestro Sol durante el día. De esta forma, el universo fue poblándose de helio, el cual actualmente es el segundo elemento más abundante.

Fusión de dos átomos de hidrógeno para formar uno de helio. Los protones (rojo) se fusionan para formar nuevos átomos, con la liberación de neutrones (negro) y (mucha) energía. Los electrones no se muestran por simplicidad

 

Pero hablando de estrellas el tamaño sí importa, y mucho. Y es que las estrellas “grandes” (aquellas que tienen masas superiores a 8 o 9 veces la de nuestro Sol), suelen terminar sus días como supernovas. Una supernova es una estrella de gran tamaño que, una vez que ha convertido todo su hidrógeno en helio (es decir, una vez que se acabó su combustible), se condensa de forma repentina. Esta condensación genera una presión y una temperatura mucho mayor a las que existían en el núcleo estelar previamente, lo cual tiene como consecuencia algo muy curioso: los átomos de helio se fusionan entre sí, generando nuevos átomos. Estos átomos se fusionan a su vez entre sí, creando una reacción en cadena que tiene como consecuencia una explosión espectacular (recordemos que al unir átomos se libera una gran cantidad de energía). ¿Qué tan espectacular? Las estrellas pueden alcanzar hasta 100,000 veces su brillo inicial. Estas explosiones son tan fuertes que a veces son visibles a simple vista desde la Tierra. Sin embargo, esta reacción tan violenta consume velozmente los átomos disponibles y la supernova desaparece rápidamente.

Volviendo a nuestra historia, es aquí donde sucede la magia. Las explosiones de supernovas eran muy comunes durante las etapas tempranas del universo (había mucho hidrógeno disponible y las estrellas gigantescas no eran nada raro). Estas constantes explosiones expulsaron al espacio a los átomos recién creados que, eventualmente, formaron parte de otro tipo de cuerpos astronómicos: los planetas. Y fue en un planeta en particular, conocido como Tierra, en donde los nuevos elementos formaron los ladrillos constructores de las moléculas fundamentales de la vida. Estas moléculas se organizaron en células para formar organismos capaces de replicarse, los cuales evolucionaron en una gran diversidad de especies, incluyendo a la especie humana. Y esta especie en particular desarrolló una inteligencia capaz de recontar toda esta historia;  o dicho de otra forma más poética pero no menos exacta: todos los elementos que conforman nuestro mundo y  los seres vivos en él, incluyéndonos, fueron producidos en el núcleo de una estrella. Somos, por lo tanto, polvo de estrellas.

Remanente de la supernova de Kepler, la última supernova que ha sido observada en nuestra galaxia.

 

Ante tal perspectiva, no es difícil percibir cómo todo está íntimamente ligado en el Universo. Aunque el vínculo pueda no ser místico ni metafísico, no es menos sorprendente o inspirador. Si, en resumen somos el producto de una serie de reacciones complejas e incluso fortuitas que implican catástrofes estelares como las supernovas, ¿por qué no cuidar y estudiar algo tan impresionante como la vida? Si por azares evolutivos desarrollamos la capacidad de entender el mundo que nos rodea ¿acaso no vale la pena usar esa capacidad tanto como podamos? Y si somos, hasta donde sabemos, los únicos seres en el universo capaces de explorarlo, ¿no deberíamos estar haciéndolo? ¿No son acaso la capacidad de explorar y entender el Universo las características que nos hacen especiales, las que nos hacen humanos?

Finalmente, debo confesarles que la historia que les conté está incompleta. La materia (los átomos) y la energía observables (esa que sale de los átomos) de nuestra historia componen solamente alrededor del 5% de la masa del universo. El resto es materia oscura (alrededor del 25%) y la misteriosa energía oscura (el restante 70%) de las que sabemos muy poco. Tal vez en esta re-edición de Cosmos, Neil deGrasse nos explique más acerca de ellas. Así que si tienen oportunidad de verla, ¡no se la pierdan! Quién sabe, puede ser que no sólo estemos hechos de polvo de estrellas.

 

Posdata: Tuve el placer de asistir al pre-estreno de Cosmos, y ¡tienen que verla! les aseguro que no quedarán decepcionados. No se pierdan los próximos capítulos y las repeticiones por los canales de National Geographic y Fox.

Crónica de un mexicano en el festival mundial de la ciencia

Eran las 10 en punto de la mañana, las puertas del elevador se abrían y entré al recinto. El lugar era un collage impresionante: por aquí un taller de carpintería, más allá un mini-estudio de televisión, por allá una sala de conferencias. En el bullicio del lugar se podían escuchar todas las entonaciones imaginables del inglés. Diez minutos después se escuchó una voz por el micrófono: “Bienvenidos al primer hackatón del festival internacional de la ciencia”. Todos aplaudimos y nos emocionamos como si estuviéramos en un concierto de rock. Pero aquel día nadie iba a usar el escenario para cantar. En lugar de eso escuchamos atentos la presentación de una docena de proyectos: desde un collar para rastrear la actividad de tu perro, hasta un programa para ayudar a analizar los datos del Gran Colisionador de Hadrones. Me encontraba ni más ni menos que en el science hack day organizado por el “World Science Festival 2013 (Festival Mundial de la Ciencia 2013)” en la ciudad de Nueva York.  La idea del evento era bastante simple: personas de muy diversas áreas con interés en la ciencia nos reuniríamos un fin de semana con el objetivo de hacer hacks, es decir, proponer soluciones innovadoras (aunque no necesariamente elegantes o bien desarrolladas) a problemas concretos relacionados con diversos proyectos científicos, mejorar o extender sus aplicaciones, aportar ideas, construir dispositivos, probar programas o incluso comenzar proyectos nuevos. Todo en un tiempo récord y trabajando en equipos con personas que recién acababas de conocer y que podían ser desde estudiantes de preparatoria, hasta profesores retirados, pasando por ingenieros, artistas, científicos, diseñadores, escritores, periodistas, por mencionar algunos.

Una pantalla gigante con este logo era lo primero que recibía a los “hackers”

 

La diversidad de proyectos también fue impresionante: por un lado un físico cuántico de la Universidad de Zúrich que quiere crear un modelo estándar que sea fácil de entender para la gente común y los estudiantes de física que se empiezan a interesar en el campo; por el otro, un biólogo molecular de la Universidad de Nueva York que secuenció el ADN de las bacterias de un billete de un dólar; más allá un ecologista interesado en crear un dispositivo que rastree la basura.

Yo me interesé en el proyecto de un joven estudiante del Instituto Politécnico de Nueva York. Se trataba de una aplicación para iPad llamada “lewis dots”. Es un pequeño programa que muestra de forma interactiva el concepto de la formación de uniones entre los átomos y que a los niños les suele gustar bastante.

Acabó el hack day (que en realidad fueron dos: sábado y domingo) y terminé exhausto, pero me sentía muy satisfecho por la experiencia. Aunque no pudimos avanzar tanto como nos hubiera gustado con la aplicación (dos días es muy poco para todas las ideas que surgieron, incluso para una aplicación relativamente simple), salí con una gran sonrisa en el rostro, pues conocí un gran equipo de personas interesadas en hacer que la ciencia llegue a la gente y me enteré de algunas útiles herramientas para los que estamos interesados en la divulgación y la ciencia ciudadana.

Era temprano y todavía quedaba una hora para la conferencia-debate a la que asistiré, así que paseé un rato por la feria callejera que el festival instaló cerca del Washington Square. Me impresionaron las multitudes de niños que se acercaban a ver las demostraciones que los científicos de las principales universidades de la ciudad prepararon para ellos. El festival era enorme y muy interesante. El stand del Museo de Historia Natural me llamó particularmente la atención, pero no pude verlo porque se me estaba haciendo tarde y debía apresurarme para llegar a tiempo al debate.

Llegué a la hora exacta y a los pocos minutos las luces se apagaron y la conferencia comenzó. Destacados científicos y expertos del área de la epigenética (como el Dr. Jean-Pierre Issa, uno de los pioneros en el uso de una “terapia epigenética” para el tratamiento de algunos tipos de cáncer) discutieron sobre las implicaciones sociales de esta ciencia naciente que busca el vínculo entre los genes y el medio ambiente. Mi área de investigación es precisamente la epigenética, así que sobra decir que estaba bastante emocionado por ver a varios de mis ídolos discutiendo entre ellos en un ambiente completamente distinto a la formalidad de los congresos científicos. La discusión abarcó una gran cantidad de temas y el tiempo fue poco: se discutieron ideas básicas sobre lo que sabemos de epigenética y su implicación para la vieja pregunta de ¿qué es más importante los genes o el ambiente?. La plática continuó con el tema de la privacidad de los datos epigenéticos y su falta de regulación, así como las nuevas tecnologías para obtenerlos y analizarlos. El debate finalizó con las implicaciones de la epigenética en la salud pública. Una cosa me quedó clara: hay todavía mucho por discutir y aún más por explorar.

En la conferencia de epigenética y sociedad.

 

El día terminó y no podía estar más feliz. Al ver las sonrisas de los niños que les iban platicando a sus padres las cosas que vieron, me doy cuenta que no fui el único. No puedo evitar sino pensar en mi país y en lo increíble que sería tener un evento de este tamaño ahí. ¿Qué mejor forma de llevar la ciencia a la gente que mostrándola en la calle? ¿Qué mejor manera de inspirar a la próxima generación de investigadores y tecnólogos que mostrándoles las maravillas científicas cuando son niños? Ya para este punto mi deseo se transforma en convicción: algún día México tendrá un festival internacional de las ciencias, algún día tal vez no demasiado lejano...

 

Posdata: Si saben inglés y quieren ver algunas de las conferencias del festival, hagan clic en este link. No se las pierdan, están todas muy interesantes.

 

 

David Valle es co-fundador y ex-presidente de Más Ciencia por México. Estudia el Doctorado en Ciencias Biomédicas de la UNAM. Lo pueden encontrar en twitter (@dav7mx) y en www.david-valle.org