Archivos de la categoría FÍSICA

domi ¿La vida artificial ya está aquí?

Nuestro colaborador Carlos Briones resume los avances recientes en el campo de la biología sintética, y reflexiona sobre si con ellos ya podemos decir que se ha creado vida artificial.

Vida artificial_Fig-0
¿La vida artificial ya está aquí?

“Científicos norteamericanos crean vida artificial”. “Comienza la era de la vida artificial”. “La vida artificial ya está aquí”. Con titulares tan grandilocuentes como éstos, varios medios de comunicación de nuestro país sorprendían a la opinión pública el 27 de marzo de este año. En esta tentación cayeron tanto algunos periódicos de gran tirada como un buen número de canales de televisión, emisoras de radio y portales de internet.

No todos, afortunadamente, como fue el caso de Materia o de Next. Pero el incendio se había iniciado y tenía varios frentes. De hecho, la propia revista Science, en la que se había publicado el trabajo del que hablaban todos los medios, lo había calificado como “el monte Everest de la biología sintética”.

Lógicamente, una oleada de comentarios de todo tipo inundó los informativos y las redes sociales. En ellos se mezclaban la sorpresa, el miedo y la esperanza. Así, se estaba poniendo de manifiesto cómo suele funcionar en nuestro país el binomio de la comunicación científicaen ocasiones como ésta. Por un lado, somos parte de una ciudadanía que posee (nuestros gobernantes presentes y pasados sabrán por qué) una cultura científica muy escasa, lo que impide reaccionar con criterio propio ante la información que nos llega (y además prepara un excelente caldo de cultivo para la propagación de creencias irracionales y maguferías de toda índole, como es sabido). Por otro lado está la urgencia de algunos medios por generar titulares espectaculares… sin permitir que la realidad se los estropee, claro está. Ante el debate sobre lo que es o no es una noticia, parece claro que la creación de vida artificial (significara esto lo que significara, como veremos) sí era una noticia. O, quizá, la noticia.

Pasaron las horas, y tanto unos como otros fueron haciendo algo siempre aconsejable: leer el artículo original del que derivaban tales titulares, o al menos repasar los comentarios razonados de otros que sí lo habían leído, para ponerlo todo en el contexto adecuado. Con ello, la forma de enfocar esa información se fue matizando, relativizando, racionalizando. Empezaba a decirse que “se daba un paso de gigante hacia…”, o que “nos acercábamos a…”. Pero quizá, para el público general, con estos matices todo aquello dejaba de ser noticia. Ya ni siquiera daba miedo. De hecho, durante los días 28 y 29 de marzo este tema fue migrando de las primeras páginas a las secciones de ciencia. Y las emociones dieron paso a la reflexión. Como ejemplo, una semana después se utilizaba acertadamente como titular de una entrevista al último firmante del artículo su respuesta más realista y modesta: “Sólo estamos jugueteando con genomas”. Pero entonces, ¿qué era en realidad lo que se había publicado enScience?

Science, 27 de marzo de 2014

El artículo publicado en la versión electrónica de Science el 27 de marzo (y cinco días después en su edición impresa) estaba firmado por un equipo internacional liderado por Srinivasan Chandrasegaran (profesor de la Johns Hopkins University School of Public Health, Baltimore) yJef D. Boeke (director del New York University Langone Medical Center). En él se describía un logro extraordinario de esa disciplina relativamente nueva conocida como biología sintética: ensamblar en el laboratorio un cromosoma completo de un organismo eucariótico (es decir con núcleo definido, a diferencia de las bacterias y las arqueas), la levadura Saccharomyces cerevisiae.

Este hongo unicelular es una de las especies tipo utilizadas desde hace décadas por los investigadores de todo el mundo, debido entre otros factores a que posee uno de los genomas eucarióticos más pequeños, con 12 millones de pares de nucleótidos (abreviado como pb, por “pares de bases nucleotídicas”) repartidos en 16 cromosomas (el nuestro, por ejemplo, tiene unos 3.300 millones de pb y 23 pares de cromosomas). Por ello, este fue el primer genoma eucariótico secuenciado en su totalidad, en 1996. Se han desarrollado muchas técnicas experimentales para manipular genéticamente S. cerevisiae, y hay miles de laboratorios en todo el mundo utilizando esta levadura con fines biotecnológicos. De hecho, los humanos nos hemos beneficiado de las capacidades metabólicas de esta especie y de otras levaduras relacionadas desde la antigüedad, ya que permiten la fermentación de tres alimentos esenciales para un adulto con amigos: la cerveza, el vino y el pan.

El trabajo ha sido titulado “Total synthesis of a functional designer eukaryotic chromosome” (una forma más descriptiva y menos espectacular que otro artículo del que hablaremos posteriormente). Está centrado en el cromosoma III de S. cerevisiae, una molécula de ADN lineal, de 316.617 pb de longitud. En él, mediante herramientas bioinformáticas se habían diseñado 500 mutaciones que no deberían impedir su funcionalidad pero sí permitir distinguirlo claramente de su equivalente natural. Algunos de esos cambios servían para activar o silenciar a voluntad ciertos genes funcionales contenidos en dicho cromosoma, y otros lo dejaban preparado para futuros cambios de mayor calado. Además, se habían eliminado (o “delecionado”) varias regiones del material genético, con lo que el cromosoma sintético (denominado SynIII) quedaba reducido a una longitud de 272.871 pb.

Representación esquemática del cromosoma SynIII de Saccharomyces cerevisiae, mostrando en color marrón las regiones delecionadas con respecto al cromosoma III natural, y con marcas de colores los distintos tipos de mutaciones introducidas [adaptado del servidor de la Johns Hopkins University
Representación esquemática del cromosoma SynIII de Saccharomyces cerevisiae, mostrando en color marrón las regiones delecionadas con respecto al cromosoma III natural, y con marcas de colores los distintos tipos de mutaciones introducidas [adaptado del servidor de la Johns Hopkins University]

Una vez diseñado el cromosoma variante SynIII se procedió a sintetizarlo químicamente a partir de fragmentos cortos de ADN (denominados “oligonucleótidos”) con la secuencia correspondiente. En el ensamblaje de ese gigantesco puzzle participaron, a través del proyectoBuild-a-genome60 estudiantes universitarios que no sólo tuvieron la suerte de colaborar en una investigación puntera sino que varios de ellos fueron reconocidos como coautores del trabajo.

Uno de los puntos más relevantes de esta investigación tiene que ver con las plasticidad de los genomas, pues sus autores demuestran que las células en cuyo núcleo habían sustituido el cromosoma III por el SynIII (como se ha indicado, bastante diferente del original) se comportan de manera casi idéntica a las levaduras naturales, aunque poseen ciertas funciones nuevas como la capacidad para crecer en algunos medios de cultivo diferentes.

Tal como se ha planteado el trabajo, la posibilidad de ensamblar cromosomas modificados de levadura permitirá alcanzar uno de los fines de la biología sintética: alterar los genomas y/o capacidades metabólicas de ciertos organismos con el fin de producir nuevos fármacos, biocombustibles o materias primas para obtener alimentos. Con ello, los autores destacan los potenciales beneficios de un avance tan espectacular como éste, sin que en teoría nadie pueda sentirse amenazado por un ser artificial creado en un laboratorio de investigación. De hecho esto es sólo el principio, pues un gran consorcio internacional ya está trabajando en la modificación y ensamblaje de los otros 15 cromosomas de esta levadura, con intención de disponer en cinco años del genoma completo en versión sintética. Para realzar su vertiente tecnológica, el proyecto ha sido bautizado con el significativo nombre de “Sc 2.0”.

Logotipo del proyecto Sc 2.0, con las marcas de un puzzle superpuestas sobre la fotografía de una levadura en gemación [adaptado de Build-a-genome]
Logotipo del proyecto Sc 2.0, con las marcas de un puzzle superpuestas sobre la fotografía de una levadura en gemación [adaptado de Build-a-genome]

Con todo, realmente en marzo estábamos ante un gran logro de la biología sintética que merecía ser publicado en las mejores revistas científicas. Pero, ¿se había creado vida?; ¿la vida artificial ya estaba aquí? Si partimos de la información genética previamente conocida de un microorganismo, realizamos cambios que intuimos cómo van a funcionar porque tal organismo es el más conocido (junto con la bacteria Escherichia coli) de todos los que habitan en este planeta, ensamblamos (empleando herramientas moleculares proporcionados por otros microorganismos) uno de sus cromosomas a partir de los fragmentos que contienen la información deseada… ¿realmente estamos creando algo nuevo o artificial¿Diseñar una variante alternativa del dibujo en la banda de rodadura de un neumático quiere decir que hemos inventado la rueda?

Tal pretensión (en esta ocasión, más de la revista que de los propios autores del artículo) no es nueva, sino que se inició hace dos décadas. De hecho, Chandrasegaran ha comentado que lainspiración para iniciar este trabajo partió de los avances logrados durante los últimos años por alguien fundamental en la investigación sobre biología sintética… y que también ha protagonizado varios “pasos de gigante hacia la vida artificial”: J. Craig Venter.

La sombra de Venter es alargada

J. Craig Venter es un investigador y empresario de éxito, que con frecuencia ha sorprendido a la comunidad científica con logros extraordinarios. Su salto a la fama se inició en el año 1998, cuando comenzó a liderar una iniciativa fundamental (a la par que muy polémica) durante lasecuenciación del genoma humano. Han sido también importantes sus aportaciones a lametagenómica en los últimos años, y tiene el curioso honor de haber sido el primer individuo de nuestra especie cuyo genoma ha sido secuenciado por completo. ¿Casualidad? Realmente no, pues ese trabajo fue realizado precisamente en el J. Craig Venter Institute, fundado y dirigido por él en Rockville y La Jolla.

Pero lo que le dio un papel de pionero en la línea de investigación que estamos comentando fue la publicación en diciembre de 2003 del ensamblaje del genoma completo de un virus (el bacteriófago PhiX174) a partir de oligonucleótidos sintetizados en otro laboratorio, cuya secuencia correspondía a otros tantos fragmentos contiguos de la secuencia del genoma viral. Dicho genoma es una molécula de ADN de banda sencilla (en lugar de la habitual doble hélice) y circular, con 5.386 nucleótidos de longitud. La inserción de ese genoma ensamblado en células de E. coli, uno de sus hospedadores naturales, producía partículas virales infecciosas.

Empleando un método similar, en enero de 2008 el grupo de Venter logró otro éxito: sintetizar por primera vez un genoma celular. Se trataba del cromosoma de Mycoplasma genitalium, la bacteria de vida libre conocida que posee el genoma más corto: una molécula de ADN con unos 580.000 pb. Como en el caso anterior, estábamos ante un gran avance de la biotecnología y de la biología sintética, que también había sido posible gracias al conocimiento previo de la secuencia del genoma completo que se iba ensamblando in vitro.

El siguiente hito en este fructífero camino fue la publicación en Science, el 20 de mayo de 2010, de un artículo aún más impactante. La primera parte del trabajo consistió en la síntesis del genoma completo de la bacteria Mycoplasma mycoides, en esta ocasión realizando en levaduras el ensamblaje de los oligonucleótidos. En dicho genoma (una molécula circular de ADN de aproximadamente 1.080.000 pb) se insertaron algunas mutaciones que no afectaban a ninguno de los genes bacterianos, a modo de “código de barras” para distinguirlo del genoma natural. La segunda etapa del experimento supuso la inserción de ese genoma en una célula receptora de la especie Mycoplasma capricolum previamente desprovista de su material genético. La nueva célula quimérica era funcional, y estaba controlada por el único DNA presente en ella: el cromosoma sintético de M. mycoides. Con ello se demostraba que el genoma de una especie, previamente ensamblado fuera de ella, podía ser plenamente funcional en células de otra especie muy relacionada con la donante del material genético. En efecto, tras varias generaciones en la vida de estas bacterias quiméricas (a las que se denominó M. mycoides JCVI-syn1.0), el nuevo genoma había tomado el control y su expresión reemplazaba toda la maquinaria macromolecular que había estado previamente operando en el citoplasma de la célula receptora. Lo que por otra parte era esperable: el software manda.

Representación esquemática de la estrategia seguida para ensamblar el genoma de Mycoplasma mycoides, y fotografía de microscopía electrónica de barrido de células de M. mycoides JCVI-syn1.0 [adaptadas del JCVI]
Representación esquemática de la estrategia seguida para ensamblar el genoma de Mycoplasma mycoides, y fotografía de microscopía electrónica de barrido de células de M. mycoides JCVI-syn1.0 [adaptadas del JCVI]

Este artículo volvía a poner de manifiesto tanto la elegancia experimental de Venter como su enorme capacidad económica (se estima que el trabajo costó la asombrosa cifra de 40 millones de dólares). Su repercusión en los campos de la ingeniería genética y la biología sintética fue enorme, y distintas voces comenzaron a proponer a este científico pionero como un seriocandidato al Premio Nobel, un galardón que quizá acabe consiguiendo. En paralelo, corrieron ríos de tinta y de bits sobre la posibilidad de que, con sus últimos trabajos, Venter hubieracreado vida artificial. De hecho, el título elegido por él para este artículo (que había causado gran extrañeza en el ámbito científico) era: “Creation of a bacterial cell controlled by a chemically synthesized genome”. La realidad era que en absoluto se estaba creando vida: como mucho, se estaba copiando. Además, lo copiado no era la vida, ni un ser vivo, ni una célula, sinoun genoma. Y por otra parte no se puede denominar artificial a un proceso en el que (haciendo un símil con esos muebles suecos que nos rodean) tanto las piezas que hemos desembalado como el plano con las instrucciones de montaje y hasta los destornilladores… nos los ha proporcionado la naturaleza, son fruto de la evolución biológica. Dicho de otra forma, ¿por qué llamar creación de vida artificial al bricolaje, por muy habilidoso que sea quien lo practica?

Pero Venter mantiene que con este experimento “creó la primera especie auto-replicativa de este planeta cuyo progenitor no es otro ser vivo sino un ordenador”. Casi nada. Diciendo esto parece inapropiado lamentar después que el público tenga miedo a sus avances científicos. Como en esa época comentaba irónicamente Harold J. Morowitz (eminente biofísico de la Universidad George Mason en Virginia): “se ha sintetizado un genoma bacteriano y con ello se ha creado un miedo artificial”. En cualquier caso, los resultados publicados por Venter en la primera década del siglo (que han sido muchos más de los aquí reseñados) hacían presagiar que no tardaría mucho en lograrse el siguiente hito: ensamblar un cromosoma completo de un organismo eucariótico.

Y ese logro es el que ha publicado Science hace cuatro meses. Como hemos visto, elcromosoma SynIII de S. cerevisiae es tres veces más corto que el genoma de M. mycoides, pero a cambio la nueva aproximación ha incluido numerosos avances conceptuales y metodológicos respecto al trabajo previo con micoplasmas. Y también ha inaugurado una visión más humilde de la relación de los humanos con la biología, ya que Chandrasegaran ha comentado en varias ocasiones: “realmente estamos muy lejos de crear ninguna clase de vida artificial desde la nada”. De hecho, como ha subrayado Tom Ellis (del Imperial College de Londres), este último trabajo “ha servido para demostrar que puedes construir un cromosoma sin tener que ser alguien como Venter, con un instituto tuyo trabajando para ti”. Definitivamente, los dos líderes del consorcio que ha publicado sus resultados en marzo caen mejor en la comunidad científica que el primer humano que se secuenció su propio genoma.

Nature, 7 de mayo de 2014

El primer semestre de 2014 no sólo nos ha traído sobresaltos relacionados con el ensamblaje del primer cromosoma eucariótico. El 7 de mayo, la versión electrónica de la revista Naturepublicaba un artículo revolucionario del grupo de Floyd E. Romesberg, investigador delScripps Research Institute en La Jolla. En él se describe cómo dos nucleótidos diferentes de los cuatro que forman parte del ADN (abreviados, como ATP, CTP, GTP y TTP, por el símbolo de la base nucleotídica que contienen, junto con el azúcar desoxirribosa y tres grupos fosfato) pueden insertarse en los genomas y con ello ampliar el alfabeto de la vida de 4 a 6 letras. Esos dos nuevos nucleótidos se denominan abreviadamente dNaMTP y d5SICSTP, e incluyen dos bases nucleotídicas sintéticas (simbolizadas como X e Y) diferentes de las naturales. Ambas son complementarias entre sí, por lo que cuando una está frente a la otra en sendas cadenas del ADN, entre ellas se establece una interacción por puentes de hidrógeno (X-Y) como ocurre con las naturales (A-T y G-C). Este tercer par de letras se puede incorporar a una cadena de ADN, y en el artículo se demuestra insertándolo en un único punto dentro del plásmido pINF (una molécula de ADN circular de 2.686 pb) que fue posteriormente introducido en E. colimediante técnicas convencionales de biología molecular.

Estructura de los nucleótidos sintéticos que incluyen las bases nucleotídicas X e Y, y representación esquemática del plásmido en el que se ha insertado el par X-Y  [adaptado de la referencia original]
Estructura de los nucleótidos sintéticos que incluyen las bases nucleotídicas X e Y, y representación esquemática del plásmido en el que se ha insertado el par X-Y [adaptado de la referencia original]

Lo más interesante es que ese par X-Y no es reconocido como una anomalía genética por la propia “maquinaria de control” del ADN celular: por tanto no se corrige y se propaga de forma estable en la progenie de la bacteria. Eso sí, dado que las células no pueden sintetizar los dos nuevos nucleótidos, éstos siempre tienen que estar presentes en el medio de cultivo para que la bacteria los pueda tomar, gracias a la acción de una proteína transportadora específica que se ha insertado en su membrana. Tal aparente limitación se convierte en una ventaja desde el punto de vista de la bioseguridad, ya que estas “E. coli de seis letras” no pueden vivir fuera del laboratorio. Una vez que están en el interior celular tanto los nucleótidos como el molde ADN que contiene el par X-Y, éste no sólo puede replicarse sino también transcribirse a ARN(conteniendo únicamente sus cuatro ribonucleótidos naturales), y lógicamente los ribosomas pueden traducir dicho ARN a proteínas (utilizando los 20 aminoácidos naturales). Por el momento esta es la situación, pero quizá más adelante las modificaciones en la gramática de la vida puedan condicionar cambios en su semántica.

Este trabajo está basado en una tradición de tres décadas en el desarrollo de nucleótidos sintéticos que incorporan variantes de las bases nucleotídicas naturales. De hecho, el propio Romesberg ha dedicado los últimos 15 años a sintetizar y probar más de 300 nucleótidos artificiales. Pero el artículo de mayo va mucho más allá de la química sintética y plantea cuestiones básicas sobre cuáles son los límites en el número de nucleótidos que puede tener el ADN, por qué toda la vida está basada en sólo cuatro, y también sobre si serían viables moléculas de ARN o proteínas que incluyan versiones sintéticas de algunos de sus monómeros. Adicionalmente, es interesante investigar si (en un medio que contenga dNaMTP y d5SICSTP) las E. coli con alfabeto genético ampliado muestran mayor capacidad adaptativa frente a las naturales, o si por el contrario no sobrevivirían a una competición frente a ellas.

Por otro lado, este estudio abre la puerta a preguntas más “aplicadas” y de evidente relevancia económica. El propio Romesberg ha afirmado que a partir de lo ya publicado tienen previsto dirigir la evolución de las bacterias modificadas para obtener nuevos fármacos. En este sentido, un interrogante de gran calado es si se podrá patentar seres vivos cuyo genoma incluya estos u otros nucleótidos artificiales. El Tribunal Supremo de Estados Unidos sentenció en 2013 que “los productos de la naturaleza” no son patentables… pero ¿hasta qué punto es producto de la naturaleza una bacteria cuyo genoma incluye algún nucleótido sintético?

Por tanto, esta línea de investigación abre interesantes vías de investigación y de debate. Para lo que aquí nos ocupa, entre la mayoría de los investigadores una aproximación de este tipo resulta más cercana que el ensamblaje de genomas a algo parecido a la vida artificial. Pero, aun así, hasta ahora no se están proponiendo mecanismos radicalmente novedosos de almacenamiento de información genética en los seres vivos, sino un ajuste fino del sistema que la vida lleva utilizando desde su origen, y que se basa en el apareamiento por puentes de hidrógeno entre las bases nucleotídicas complementarias de los nucleótidos del ADN. Es decir,seguimos copiando… y no al compañero de al lado sino al maestro: la naturaleza.

La ampliación del alfabeto del ADN de 4 a 6 letras supone un gran avance en biología sintética, aunque se trata de una copia de la estrategia básica de los seres vivos en el almacenamiento de su información genética [adaptado de Synthorx]
La ampliación del alfabeto del ADN de 4 a 6 letras supone un gran avance en biología sintética, aunque se trata de una copia de la estrategia básica de los seres vivos en el almacenamiento de su información genética [adaptado de Synthorx]

¿Biología sintética o vida artificial?

El repaso de estos trabajos de investigación nos lleva a plantearnos si son equivalentes dos términos a veces usados indistintamente: biología sintética y creación de vida artificial. Una revisión reciente sobre la historia, motivación y variantes de la biología sintética ha sidopublicada en Nature Reviews Microbiology y en el resumen que hizo Francis Villatoro poco después de aparecer este artículo. También se repasa este campo en una reseña sobre el libro “Regenesis: how synthetic biology will reinvent nature and ourselves”, de George M. Church y Ed Regis (2012), publicada el año pasado. Para los lectores más interesados, es recomendable el número especial que la revista Nature Methods ha dedicado a este tema hace dos meses, haciendo hincapié en las metodologías experimentales que se utilizan en la actualidad.

Por su parte, la creación de vida artificial supondría algo de lo que ya hemos hablado: el diseño y construcción de sistemas biológicos diferentes de los naturales por medio de una química o bioquímica alternativas. Su planteamiento tiene mucho que ver con la famosa frase de Richard Feynman en 1988: “lo que no puedo crear me resulta incomprensible”. Existe otra línea de investigación muy interdisciplinar nacida a finales del siglo pasado y también denominada Vida Artificial (VA), que combina los avances en computación, teoría de sistemas y robótica para proponer aproximaciones a los sistemas vivos pero mediante “organismos digitales” que no requieren un soporte bioquímico: de ella no trataremos en este texto, centrado en la dimensión biológica del tema.

Centrémonos en la biología sintética. Una de sus principales aplicaciones, derivada de cuatro décadas de investigación en ingeniería genética y de la creciente aportación de la biología de sistemas, consiste en la modificación de los genomas de ciertas especies (generalmente microbianas, pero también de plantas y animales) para alterar su funcionalidad natural o lograr actividades metabólicas concretas con aplicación en biomedicina, alimentación o medio ambiente. Así, por ejemplo, se obtienen microorganismos modificados que bio-sintetizan un nuevo antibiótico, ven incrementada su capacidad para bio-capturar dióxido de carbono, o degradan un compuesto tóxico y por tanto ayudan a bio-remediar entornos contaminados.

Otra de las líneas de trabajo más exploradas actualmente se centra en el diseño de circuitos genéticos en bacterias (y también en eucariotas) que permiten activar o reprimir la expresión de genes (dispuestos en construcciones o módulos que se suelen denominar “bioladrillos”) como si se tratara de componentes en un circuito electrónico, y lograr con ello que el sistema realice actividades funcionales útiles. Existen también líneas de trabajo alternativas que buscan la construcción de protocélulas artificiales ensamblando los tres subsistemas que forman los seres vivos (membrana, genoma y metabolismo) bien de dos en dos o bien los tres simultáneamente, aunque siempre partiendo de componentes moleculares que se toman prestados de E. coli u otras especies. Con todo, la biología sintética y sus derivaciones son una de las puntas de lanza en la ciencia del siglo XXI y hay cientos de investigadores en el mundo (incluyendo varios grupos relevantes en España) explorando sus enormes posibilidades.

Algunos de los científicos que trabajan en estos campos prefieren decir (quizá para atraer más atención o más financiación) que en lugar de estar trabajando en biología sintética lo que hacen es sintetizar vida o (llevando más allá la supuesta plasticidad del lenguaje y tal vez buscando otras connotaciones) crear vida. Y dado que trabajan en laboratorios dicha vida es, lógicamente, artificial. Como hemos comentado, este es también el caso de algunos de quienes exploran otras variantes de la biología sintética: el ensamblaje de genomas o la síntesis nucleótidos alternativos para el ADN. Evidentemente, cada investigador puede defender elgrado de artificialidad de su sistema de trabajo con respecto a los organismos naturales, algo que podría llevarnos a una larga discusión a medio camino entre la ciencia, la historia (desde la revolución neolítica hasta hoy) y la filosofía. En cualquier caso, actualmente muchos de los avances en cualquier ámbito de la biología sintética son interpretados como lo que no son, y al ser amplificados por los medios producen el efecto contrario al deseado: el miedo de la población a un nuevo Frankenstein salido de los laboratorios, como ya ocurrió tras el primer experimento de química prebiótica de Stanley L. Miller y en otros avances de la biología molecular y la ingeniería genética desde la década de 1970.

La imaginación al poder: a un árbol filogenético universal mostrando los tres dominios de la vida se le ha añadido (marcado en color rosa) un supuesto cuarto dominio formado por genomas y organismos sintéticos [adaptado de la iniciativa artística de Alexandra Daisy Ginsberg “The synthetic kingdom: a natural history of the synthetic future”
La imaginación al poder: a un árbol filogenético universal mostrando los tres dominios de la vida se le ha añadido (marcado en color rosa) un supuesto cuarto dominio formado por genomas y organismos sintéticos [adaptado de la iniciativa artística de Alexandra Daisy Ginsberg “The synthetic kingdom: a natural history of the synthetic future”]

Pero todo ha de ser puesto en contexto. La auténtica creación de vida artificial (si alguna vez llega a lograrse) consistiría en ser capaces de construir una entidad auto-replicativa y metabólicamente viable dotada de un genoma (de ADN o de ARN) cuya secuencia fuera totalmente nueva. O, mejor aún, que albergara su información heredable no en un ácido nucleico natural sino en otra entidad molecular diferente (por ejemplo, alguno de los polímeros artificiales análogos a los ácidos nucleicos que ya se han sintetizado in vitro). Si alguien logra esto alguna vez, probablemente lo hará empleando una aproximación no “de arriba hacia abajo” o top-down como las comentadas aquí (que parten de la información biológica contenida en los organismos actuales) sino imaginando una estrategia bottom-upque busque construir un sistema vivo a partir de sus componentes moleculares por separado. Sólo eso permitiría pasar de lo no vivo a lo vivo.

En este sentido resulta relevante la aproximación que desde hace más de una década está llevando a cabo Jack W. Szostak en la Universidad de Harvard con protocélulas artificiales. En ellas combina dinámicas auto-replicativas de polímeros genéticos naturales o artificiales con procesos de auto-ensamblaje, crecimiento y división de las vesículas que los contienen. Precisamente aprovechar la capacidad natural de las moléculas para ensamblarse entre sí es una de las estrategias bottom-up más útiles cuando se pretende fabricar vida en el laboratorio. Quizá su grupo, u otros que están trabajando en líneas similares, nos sorprenda en el (todavía lejano) futuro con la noticia de que un proceso artificial ha logrado recrear esa transición clave producida hace algo más de 3.500 millones de años: el origen de la vida.

Planteamiento de J.W. Szostak para la síntesis, mediante una aproximación bottom-up, de protocélulas artificiales con capacidad para dividirse y evolucionar [adaptado de su artículo “Template-directed synthesis of a genetic polymer in a model protocell”]
Planteamiento de J.W. Szostak para la síntesis, mediante una aproximación bottom-up, de protocélulas artificiales con capacidad para dividirse y evolucionar [adaptado de su artículo “Template-directed synthesis of a genetic polymer in a model protocell”]

Dentro de este planteamiento de construcción ascendente que lleve de la química a la biología algunos autores han propuesto que, gracias a los avances de la nanotecnología para manipular moléculas individuales, llegará a ser posible ensamblar un ser vivo pieza a pieza a partir de sus constituyentes fundamentales. Sin embargo, a pesar de que la bionanotecnología ofrece un futuro lleno de posibilidades, el ensamblaje de un ser vivo como si se tratara de un puzzle resulta imposible debido a las limitaciones tecnológicas intrínsecas al proceso y a la extraordinaria complejidad molecular que poseen incluso bacterias tan aparentemente sencillas como las que hemos comentado anteriormente.

En particular, cada vez se sabe más sobre los componentes moleculares de las células de forma aislada (por ejemplo cómo es y cómo funciona una enzima, una proteína transmembrana, un plásmido o un ribosoma), pero el comportamiento conjunto de cualquier sistema vivo, con los millones de interacciones que se establecen y se rompen en cada fracción de segundo, es todavía un gran desconocido para la ciencia. Y es precisamente esa interdependencia mutua entre las partes del sistema lo que define a los seres vivos, que además van sintetizando y degradando constantemente sus componentes (con la excepción de su genoma) dentro del equilibrio cinético en el que viven. La biología y la química de sistemasinvestigan sobre ello pero, por el momento, aunque dispusiéramos de una cantidad ilimitada de tiempo, bio(nano)tecnólogos y dinero para manipular todas las moléculas que forman parte de un ser vivo, no sabríamos cómo construirlo. Y lógicamente tampoco podríamos ensamblar ningún ser vivo nuevo: necesitamos la foto para saber a qué debería parecerse el puzzle una vez terminado.

De hecho, quizá sea necesario encontrar otro ejemplo de vida fuera de la Tierra (y que además haya tenido un origen diferente del nuestro) para poder imaginarnos químicas diferentes y suficientemente complejas capaces de originar sistemas vivos alternativos. Porque recordemos que en nuestro planeta todas las formas de vida que habitan en todos los lugares conocidos (desde nuestro entorno hasta los ambientes más extremos) resultan idénticas desde el punto de vista químico, básicamente iguales en su la bioquímica, y son el fruto de la evolución del genoma que poseía LUCA, nuestro antepasado común. Ninguna especie escapa de esta uniformidad en la vida que conocemos, y evidentemente ni siquiera la supuesta “vida basada en arsénico” era tal. Los seres vivos que habitamos en este punto azul pálido, aunque parezcamos tan diferentes como Deinococcus radiodurans, una ameba o un bonobo… no somos sino variaciones de un mismo tema. Entre nosotros hay pocas pistas para imaginar las características que podría tener una química auto-replicativa diferente cuya viabilidad decidiéramos probar. De hecho, aunque no vamos a profundizar sobre ello en este artículo, lasconsideraciones éticas y ecológicas deberían tenerse muy en cuenta si la creación de algún tipo de vida artificial en el laboratorio fuera posible.

Por tanto, a pesar de que las ciencias adelantan que es una barbaridad… hemos de ser cautos ante los continuos “pasos de gigante” que se publiquen en este campo y además así evitaremos alarmismos: hasta ahora ni se ha creado vida, ni es artificial. Eso sí, merece la pena recorrer el largo y fascinante camino que tenemos ante nosotros. Entre otras cosas porque, en la línea de lo que sobre la inteligencia artificial ha dicho Douglas Hofstadter, quizá sea persiguiendo la vida artificial como descubramos las claves del funcionamiento de la vida.

Carlos Briones es investigador del Consejo Superior de Investigaciones Científicas (CSIC) en el Centro de Astrobiología (CAB), centro mixto del CSIC y del Instituto Nacional de Tecnología Aeroespacial (INTA), asociado al NASA Astrobiology Institute (NAI).

 http://naukas.com/2014/07/31/la-vida-artificial-ya-esta-aqui/

El agujero negro en el nacimiento del Universo

Traducción de google

A pesar de la traducción, he considerado interesante esta noticia.

Según esta teoría, nuestra burbuja sería un fractal multidimensional, originada por eventos en dimensiones superiores.

Es la respuesta a la eterna pregunta del Huevo o la gallina.

En este caso es un huevo de una dimensión superior.

Y la pregunta surgiría de nuevo para ese nivel.

Planos interdimensionales en forma de fractal, donde el todo está en cada una de las partes, donde cada una de las partes es el todo.

¡Cómo es arriba es abajo!

el universo conocido,la matrix, la caverna, …. son solo sombras de la auténtica realidad que somos nosotros,  ser(es) multidimensional(es) 

Antes del Big Bang.
Crédito: Imagen cortesía de Perimeter Institute

El Big Bang plantea un gran interrogante: si se trataba efectivamente del cataclismo que atacó nuestro universo a la existencia hace 13,7 millones de años, lo que provocó que?

Tres investigadores del Instituto Perimeter tienen una nueva idea acerca de lo que podría haber llegado antes del big bang. Es un poco desconcertante, pero que se basa en las matemáticas de sonido y es comprobable?

Lo que percibimos como el big bang, argumentan, podría ser el “espejismo” tridimensional de una estrella que colapsa en un universo profundamente diferente a la nuestra.

“El mayor desafío de la Cosmología es entender el propio Big Bang”, escriben miembro Instituto Perimeter profesor asociado Niayesh Afshordi, miembro de la Facultad del afiliado y de la Universidad de Waterloo profesor Robert Mann, y el estudiante de doctorado Razieh Pourhasan.

Comprensión convencional sostiene que el Big Bang comenzó con una singularidad – un fenómeno insondable caliente y denso del espacio-tiempo donde las leyes normales de la física se rompen. Las singularidades son extraños, y nuestra comprensión de ellos es limitada.

“Para todos los físicos saben, dragones podrían haber llegado volando fuera de la singularidad,” Afshordi dice en una entrevista con la naturaleza .

El problema, según los autores, es que la hipótesis del Big Bang tiene nuestra relativamente comprensible, uniforme y predecible universo que surge de la locura en la física de la destrucción de una singularidad. Parece poco probable.

Así que tal vez sucedió algo más. Quizás nuestro universo nunca fue singular en el primer lugar.

Su sugerencia: nuestro universo conocido podría ser el “envoltorio” tridimensional alrededor horizonte de sucesos de un agujero negro de cuatro dimensiones. En este escenario, nuestro universo se echó a ser cuando una estrella en un universo de cuatro dimensiones colapsó en un agujero negro.

En nuestro universo tridimensional, los agujeros negros tienen horizontes de sucesos de dos dimensiones – es decir, que están rodeados por un límite de dos dimensiones que marca el “punto de no retorno.” En el caso de un universo de cuatro dimensiones, un agujero negro tendría un horizonte de sucesos en tres dimensiones.

En su escenario propuesto, nuestro universo no estaba dentro de la singularidad; sino que llegó a existir fuera de un horizonte de sucesos, protegido de la singularidad. Se originó como – y sigue siendo – una sola función en el naufragio implosión de una estrella de cuatro dimensiones.

Los investigadores hacen hincapié en que esta idea, aunque puede sonar “absurdo”, se basa firmemente en las mejores matemáticas modernas que describen el espacio y el tiempo. En concreto, se han utilizado las herramientas de la holografía de “convertir el Big Bang en un espejismo cósmico.” En el camino, su modelo parece abordar de larga data rompecabezas cosmológicos y – especialmente – producir predicciones comprobables.

Por supuesto, nuestra intuición tiende a retroceder ante la idea de que todo y todos sabemos que salimos de el horizonte de sucesos de un solo agujero negro de cuatro dimensiones. No tenemos ni idea de lo que un universo de cuatro dimensiones podría ser similar. No sabemos cómo un “padre” universo de cuatro dimensiones en sí llegó a ser.

Pero nuestras intuiciones humanos falibles, los investigadores sostienen, evolucionaron en un mundo tridimensional que sólo puede revelar sombras de la realidad.

Dibujan un paralelo a la alegoría platónica de la caverna, en la que los presos pasan la vida viendo sólo las sombras parpadeantes emitidos por un incendio en una pared de la caverna.

“Sus esposas les han impedido percibir el mundo real, un reino con una dimensión adicional”, escriben. “Prisioneros de Platón no entendían los poderes detrás del sol, del mismo modo que no entendemos el universo mayor de cuatro dimensiones. Pero al menos ellos sabían dónde buscar las respuestas.”


Historia de Fuente:

La historia anterior se basa en los materiales proporcionados por el Perimeter Institute . Nota: Los materiales se puede editar el contenido y duración.


Diario de Referencia :

  1. Razieh Pourhasan, Niayesh Afshordi, Robert B. Mann. fuera del agujero negro: Una Origen holográfico para el Big Bang . arXiv , 2014 [ enlace ]

http://www.sciencedaily.com/releases/2014/08/140807145618.htm?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+sciencedaily+%28Latest+Science+News+–+ScienceDaily%29

domi Sucesión de Fibonacci

Leonardo de Pisa, más conocido como Fibonacci, construyó por primera vez la sucesión que lleva su nombre:

1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181, 6765…,

Propiedades

Cada término a partir del tercero, se obtiene sumando los dos anteriores.

El cociente entre dos términos consecutivos de la sucesión de Fibonacci se aproxima al número de oro (f = 1,618…).

Los números consecutivos de Fibonacci son primos entre si

Aplicaciones

Esta sucesión de números también aparece en la Naturaleza , en el Arte ( Arquitectura, Escultura, Pintura…)y  en la estructura de los mercados financieros de hoy día con numerosas aplicaciones prácticas.

  • Leonardo planteó el siguiente problema: Tenemos una pareja de conejos, si, en cada parto obtenemos una nueva pareja y cada nueva pareja tarda un mes en madurar sexualmente y el embarazo dura un mes, ¿Cuantas parejas tendremos en 12 meses?

La respuesta es:

Parejas: 1 sexto  21
primer mes   2 séptimo 34
segundo  3 octavo 55
tercero  5 noveno 89
cuarto  8 décimo 144
quinto  13 undécimo 233
  • En el reino vegetal  aparece en la implantación espiral de las semillas en ciertas variedades de girasol. Las escamas de una piña aparecen en espiral alrededor del vértice. En el  número de espirales encontramos la sucesión de Fibonacci
  • La sucesión puede utilizarse, de forma parecida, para contar el número de distintas rutas que puede seguir una abeja que va recorriendo las celdillas hexagonales de un panal.
  • Cuando un valor de la bolsa ha empezado a cambiar su tendencia después de unos días subiendo (o bajando) de forma clara, se puede prever que la corrección será del 61,8% (1:1618 = 0,618 inverso del número de oro), o del 38,2% (1- 0,618 = 0,382). Son las llamadas líneas de Fibonacci. Las líneas de tiempo de Fibonacci,  se utilizan para tratar de identificar cambios en las tendencias de mercado. Estas líneas son rectas verticales que se dibujan en períodos de tiempo proporcionales a 5, 8, 13, 21, … de la gráfica de un índice o un valor de bolsa.

http://cerezo.pntic.mec.es/~agarc170/paginas/fibonacci.htm

vania MODELO DE LAS CUERDAS Y TEORIA “M”

Resumen de la Teoría de Cuerdas

Hoy se cree que la materia del universo no está hechas de pequeñas  partículas, sino que está formada de pequeñísimas cuerdas, mambras ( branas). Las partículas de materia realmente son diminutas cuerdas. La teoría que justifica este hecho asombroso se llama teoría de las cuerdas que posteriormente fue desarrollada y unificada según la formulación de la teoría M.

La frecuencia que emite una cuerda musical, depende de la formas de golpear  la cuerda. Las notas emitidas por la cuerda varían dependiendo de la frecuencia de vibración y por lo tanto de la forma que tengamos de hacer vibrar la cuerda musical. Así, la materia estaría formada por la notas musicales que emiten las supercuerdas. Es como decir que el universo es una sinfonía y las leyes de la física que sigue el universo son la armonía de las cuerdas.

La idea es que la teoría de las cuerdas sirva como teoría única y unificadora de todas las teorías de la física del universo. Sería como la teoría definitiva, la teoría del todo. Pero para esto, la teoría de las cuerdas debía explicar el nacimiento del universo.

La teoría de las cuerdas proponen que  un electrón no es un “punto”, es un conjunto  de cuerdas minúsculas que vibran en un   de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría,   el electrón no es en realidad un punto, sino una cuerda en forma de  lazo que vibra y se desplaza de un sitio a otro. De pendiendo del modo de vibración de la cuerda, veríamos , a nivel macroscópico un electrón, un quark , o cualquier otra partícula del. Es decir lo que a nivel microscópico es lo mismo, una cuerda oscilando y desplazándose, a nivel macrocópico, percibimos la cuerda de modo diferente.  Esta teoría termina con el concepto clásico del  punto-partícula .

Casi todos sabemos que existen las moléculas, que éstas están formadas por átomos;  y que los átomos tienen electrones, protones y neutrones;  y que   los  protones y neutrones, están formados  por quarks y gluones, etc. ; y así seguiremos hasta el infinito ¿no?

Preguntas:

¿ De qué están hechas las cosas? Sigue leyendo

Rupert Sheldrake, el genio herético de la biología, habla sobre perros psíquicos, campos mórficos y otros misterios

EN UNA RARA ENTREVISTA EN UN MEDIO MAINSTREAM, RUPERT SHELDRAKE NOS HABLA EN SUS PROPIAS PALABRAS DE SU TEORÍA DE LA RESONANCIA MÓRFFICA, QUE DESAFÍA A LA CIENCIA ESTABLECIDA.

RupertB
Rupert Sheldrake es quizás uno de los pocos científicos que tiene la posibilidad de pasar a la historia junto a los grandes nombres de la ciencia moderna. Es considerado un “hereje de la ciencia”, incluso soliviantando al editor de la revista Nature, John Maddox, quien incluso dijo que sus libros eran buenos candidatos para quemarse y fue protagonista de una polémica por censura en un ciclo de TEDx. En esa estela del tiempo que agrupa a Bruno y a Galileo, Sheldrake ha construido una teoría de la transmisión de información a través de campos mórficos que podría explicar fenómenos como la telepatía, el incremento de aprendizaje y otro tipo de fenómenos biológicos.
Entrevistado por el escritor John Horgan de la revista Scientific American, Sheldrake, por primera vez en mucho tiempo, habla a las audiencias de la ciencia mainstream. Horgan introduce la entrevista diciéndonos que Sheldrake es un tipo agradable y brillante “que hace una excelente imitación de Terence Mckenna”. Lo notable de esta entrevista es cómo en sus propias palabras, con cristalina simpleza, Sheldake describe una de las teorías más polémicas y potencialmente revolucionarias de los últimos 50 años en la ciencia.
La resonancia mórfica explica algo muy sencillo de manera científica: por qué el pasado sigue ocurriendo, o cómo es que todo tiene memoria. En palabras del poeta Octavio Paz: “Todo es presencia, todos los siglos son este presente”. Sheldrake habla específicamente de la persistencia del pasado explicándolo en una teoría de campos, lo cual nos lleva a la idea fundamental de que la naturaleza es una cámara de ecos, un teatro vivo de la memoria.
Sheldrake:
La resonancia mórfica es la influencia de las estructuras previas de actividad en subsecuentes estructuras de actividad organizadas por campos mórficos. Permite que las memorias se transmiten a través del espacio y del tiempo desde el pasado. Entre más grande la semejanza, más grande la influencia de la resonancia mórfica. Lo que esto significa es que todos los sistemas que se autoorganizan, como las moléculas, las células, los cristales, las plantas y las sociedades animales, tienen una memoria colectiva de la cual los individuos se alimentan y a la cual contribuyen. En su sentido más general esta hipótesis implica que las llamadas leyes de la naturaleza son más como hábitos.
Horgan: ¿Cómo se te ocurrió esta idea de la resonancia mórfica, llegó en una epifanía, o fue parte de un proceso gradual?
Sheldrake: La idea de la resonancia mórfica me llegó cuando estaba haciendo investigaciones sobre el desarrollo de las plantas en Cambridge. Estaba interesado en el concepto de la morfogenética, o de la toma de forma y los campos, pero me dí cuenta que no podían ser heredadas a través de los genes. Tenían que ser heredadas de otra forma. La idea de la resonancia mórfica llegó como una revelación súbita. Esto ocurrió en 1973, pero era una idea radical, y pasé años pensando en ella antes de publicarla en mi primer libro, A New Science of Life, en 1981.
Horgan: ¿Cuál es la evidencia más poderosa de la resonancia mórfica?
Sheldrake: Existe mucha evidencia circunstancial de la resonancia mórfica. La más notable involucró una serie de experimentos sobre aprendizaje con ratas en Harvard en los 1920′s y continuó varias décadas. Las ratas aprendieron a escapar de un laberinto de agua y las siguientes generaciones aprendieron cada vez más rápido. En ese momento parecía un ejemplo de herencia de Lamarck, lo que era un tabú. Lo interesante fue que después de que las ratas aprendieron a escapar 10 veces más rápido en Harvard, cuando se probó con ratas en Edimburgo y en Melbourne éstas empezaron más o menos donde se habían quedado las ratas de Harvard. En Melbourne las ratas siguieron mejorando después de diferentes pruebas, y este efecto no se se limitó a la descendencia de las ratas entrenadas, sugiriendo una resonancia mórfica más que un efecto epigenético. Hablo más sobre este tema en mi libro A New Science of Life,
Horgan: ¿Es la telepatía animal una consecuencia de la resonancia mórfica?
Sheldrake: La telepatía animal es una consecuencia de la forma en la que los animales están organizados en lo que llamo campos mórficos. La resonancia mórfica tiene que ver primordialmente con la influencia del pasado, mientras que la telepatía ocurre en el presente y depende de los vínculos entre los miembros de un grupo. Por ejemplo, cuando un perro está íntimamente vinculado con su dueño, este vínculo persiste aunque el dueño se encuentre lejos y, creo, es la base de la comunicación telepática. Veo la telepatía como una forma de comunicación normal, no paranormal, entre miembros de grupos animales. Por ejemplo, los perros saben que sus dueños están por regresar y los esperan cerca de una ventana o una puerta. Mis experimentos en este tema son descritos en mi libro Dogs That Know When Their Owners Are Coming Home. Los perros incluso saben cuando las personas regresan según tiempos elegidos al azar por el experimentador y viajan en vehículos no conocidos. Uno de estos experimentos puede verse aquí : http://www.sheldrake.org/videos/jaytee-a-dog-who-knew-when-his-owner-was-coming-home-the-orf-experiment
Horgan: ¿Crees que la teoría de la resonancia mórfica algún día tendrá aplicaciones prácticas?
Sheldrake: La resonancia mórfica involucra transferencia de información a través del espacio-tiempo. Puede ser posible desarrollar sistemas de transferencia de información, con una memoria global, que podrían funcionar sin la parafernalia usual de satélites, cables o estaciones de poder. He diseñado algunos experimentos en los que un código pin puede transmitirse de Londres a Nueva York sin un método convencional de comunicación.
Para complementar, al otro lado del espectro, presentamos también esta entrevista de Rupert Sheldrake con Deepak Chopra, un poco más desenfadada, en busca de la ruptura de los paradigmas.

http://pijamasurf.com/2014/07/el-genio-heretico-de-la-biologia-rupert-sheldrake-sobre-perros-psiquicos-campos-morficos-y-otros-misterios/

Descubren cómo convertir la luz en materia después de 80 años de búsqueda -

Una colaboración de Francisco Guanipa
por Gail Wilson

Los físicos del Imperial College de Londres han descubierto la forma de crear la materia de la luz, una hazaña que parecía imposible cuando tal idea fue teorizada por primera vez hace 80 años. En un solo día y durante varias tazas de café en una pequeña oficina del Laboratorio de Física Blackett Imperial, los tres físicos fueron calculando una forma relativamente sencilla de probar físicamente una teoría, ideada por primera vez por los científicos Breit y Wheeler en 1934.


Breit y Wheeler sugirieron que debería ser posible convertir la luz en materia rompiendo únicamente dos partículas de luz (fotones), para crear un electrón y un positrón, el método más simple jamás predicho de convertir la luz en materia. El cálculo era teóricamente bueno, aunque tanto Breit como Wheeler ya señalaron que nunca esperarían que nadie pudiese demostrar físicamente su predicción. Nunca se había observado en el laboratorio, y los experimentos anteriores para probarlo requerían la adición masiva de partículas de alta energía .

La nueva investigación, publicada en la revista Nature Photonics, muestra por primera vez cómo la teoría de Breit y Wheeler se podía probar en la práctica. Este “colisionador fotón-fotón’ que convertiría la luz directamente en materia, mediante una tecnología que ya está disponible, sería un nuevo tipo de experimento de física de alta energía. Dicho experimento podría recrear un proceso que fue muy importante en los primeros 100 segundos del universo y que también se ve en los estallidos de rayos gamma, que son las mayores explosiones del universo y uno de los misterios sin resolver más grandes de la física.

Los científicos habían estado investigando los problemas no relacionados con la energía de fusión, cuando se dieron cuenta que aquello con lo que trabajaban podría aplicarse por la teoría Breit -Wheeler. El avance se logró en colaboración con su compañero y físico teórico del Instituto Max Planck de Física Nuclear, que estaba de visita en el Imperial College

Demostrar la teoría de Breit -Wheeler proporcionaría la pieza definitiva del rompecabezas de la física que describe las maneras más simples en las que la luz y la materia interactúan. Las otras seis piezas de este rompecabezas, incluyendo la de 1930 por la teoría de Dirac, sobre la aniquilación de electrones y positrones, y la de 1905 con la teoría de Einstein sobre el efecto fotoeléctrico, están asociadas con la investigación del ganador del Premio Nobel (ver imagen).


El profesor Steve Rose, del Departamento de Física del Imperial College de Londres, explicaba: “A pesar de que todos los físicos aceptan esta teoría como verdadera, cuando Breit y Wheeler propusieron por primera vez la teoría, dijeron que no esperaban que se pudiera demostrar en el laboratorio. En la actualidad, casi 80 años más tarde, demostramos que estaban equivocados. Lo que fue tan sorprendente para nosotros,fue el descubrimiento de que podemos crearla directamente de la luz utilizando la tecnología hoy presente en el Reino Unido. Como somos teóricos, ahora estamos hablando con otras personas que puedan utilizar nuestras ideas para llevar a cabo este experimento histórico.”

El experimento colisionador que han propuesto implica dos pasos principales . En primer lugar, los científicos usarían un láser de alta intensidad, extremadamente potente, para acelerar los electrones hasta justo debajo de la velocidad de la luz. Entonces dispararán estos electrones en un bloque de oro, a fin de crear un haz de fotones mil miillones de veces más energéticos que la luz visible.

La siguiente etapa del experimento que incolucra una poco de oro se llama hohlraum (palabra alemana para “cuarto vacío’). Los científicos podrían dispararán el láser de alta energía hacia la superficie interna de este bloque de oro, y así crear un campo de radiación térmica, lo que genera una luz similar a la luz emitida por las estrellas.

Entonces, dirigirán el haz de fotones de la primera etapa del experimento a través del centro del bloque, haciendo que los fotones de las dos fuentes choquen y formen electrones y positrones. Así sería posible detectar la formación de los electrones y positrones cuando salieran del bloque.

El investigador principal, Oliver Pike, que actualmente está completando su doctorado en física de plasma, dijo: “Pese a que la teoría es conceptualmente simple, es muy difícil de verificarlo experimentalmente. Pudimos desarrollar la idea para el colisionador rápidamente, y en el diseño experimental proponemos que puede llevarse a cabo con relativa facilidad con la tecnología existente. Al cabo de mirar unas cuantas horas las aplicaciones del hohlraums fuera de su papel tradicional en la investigación de la energía de fusión, nos quedamos asombrados al descubrir que proporcionaba las condiciones perfectas para la creación de un colisionador de fotones. La carrera para necesaria para completar el experimento está en marcha.”


- La investigación fue financiada por el Engineering and Physical Sciences Research Council (EPSRC), the John Adams Institute for Accelerator Science, and the Atomic Weapons Establishment (AWE), and was carried out in collaboration with Max-Planck-Institut für Kernphysik.
- Imagen.1. Ilustración de colisión fotónica. Web Imperial College.  
- Imagen: Muestra la teoría que describe la interacción materia-luz. Oliver Pike, Imperial College London - See more at: http://bitnavegante.blogspot.com.es/2014/05/descubren-como-convertir-luz-en-materia.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed:+bitnavegante+(BitNavegantes)&utm_term=Google+Reader#sthash.k7F0BK0Z.dpuf

http://bitnavegante.blogspot.com.es/2014/05/descubren-como-convertir-luz-en-materia.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed:+bitnavegante+(BitNavegantes)&utm_term=Google+Reader

domi Conoce tus elementos – El kriptón

Hablemos de este elemento inerte de treinta y seis protones.

Como hemos visto a lo largo de la serie, es difícil que la existencia de un elemento químico se nos escape durante mucho tiempo. Para que un elemento sea descubierto muy tarde en la historia de la ciencia hace falta que se combinen varios factores: que no exista en gran cantidad, que no tenga efectos notables, que se presente siempre en compuestos que oculten su presencia… o, como en este caso, que no forme compuestos pero que su propia estabilidad lo haga casi indetectable.

El kriptón es tan escurridizo que su propio nombre viene del griego kryptos (oculto). Escapó a los descubrimientos casuales de la Antigüedad, a los más ingenuos intentos previos a la química moderna e incluso a la fiebre de descubrimientos de los siglos XVIII y XIX.

Hubo que esperar hasta el cambio de siglo XIX-XX, ya que fue entonces cuando los avances en Termodinámica nos permitieron atacar el problema de la composición del aire atmosférico de manera sistemática. Hemos hablado ya en la serie de los Premios Nobel sobre este asunto, ya que Sir William Ramsay obtuvo el Nobel de Química de 1904 por este asunto. Aunque hablásemos de ello en aquella serie, permite que te recuerde cómo sucedió la cosa y por qué el kriptón es tan difícil de detectar.

William Ramsay y Lord Rayleigh
Sir William Ramsay (izq.) y Lord Rayleigh (der.), en 1894 [dominio público].

A finales del XIX John William Strutt, Lord Rayleigh –ganador también de un Nobel por estas cosas, por cierto– se dio cuenta de algo muy raro: al medir la densidad del nitrógeno atmosférico y la de nitrógeno obtenido mediante reacciones químicas se obtenían valores diferentes. No muy diferentes, pero sí lo suficiente para que Rayleigh se diera cuenta de que pasaba algo raro.

La razón era simple: el “nitrógeno” atmosférico no lo era en realidad. Se trataba en su mayor parte de nitrógeno molecular, N2, pero mezclado con otros gases que, al medir la densidad de la mezcla, modificaban muy ligeramente el resultado. Como la modificación era ligera, sólo había dos opciones: o bien estos otros gases existían en concentraciones minúsculas o sus masas eran muy similares a las del nitrógeno.

En 1894 William Ramsay asistió a una conferencia de Strutt en la que el otro explicaba este problema y la probable razón: la existencia de algo más mezclado con el nitrógeno atmosférico. Ramsay se puso a trabajar en el asunto del modo termodinámicamente obvio: tomando una muestra de aire líquido comprimido y realizando la destilación parcial, es decir, haciendo que los componentes del aire se fueran volviendo gaseosos uno a uno y poco a poco, de los más volátiles a los menos volátiles.

William Ramsay
Sir William Ramsay [dominio público].

Así, Ramsay descubrió el argón, y en los meses y años siguientes hizo lo mismo con otros tres gases inertes casi de un tirón: neón, kriptón y xenón, trabajando con su ayudante Morris Travers. Resultó que no había un solo acompañante “secreto” del nitrógeno atmosférico, sino un buen puñado de ellos en cantidades minúsculas –y masas, algunas de ellas, muy diferentes de la del nitrógeno– y sin apenas efecto sobre nada más, dado su carácter inerte. Antiguamente se los llamaba gases nobles, aunque hoy tiende a llamárselos más bien gases inertes.

Como todos ellos, el kriptón es un gas transparente, de modo que no puedo mostrarte lo que Ramsay vio al aislarlo. Sin embargo, como todos los otros gases inertes, el kriptón puede brillar cuando se introduce en un tubo de descarga, de manera que aquí tienes su apariencia en este caso –y aquí sí es diferente de los otros, como veremos en un momento–:

Brillo del kriptón
Kriptón brillando en un tubo de descarga [Jurii / CC Attribution-Sharealike 3.0 License].

Este gas constituye tan sólo alrededor de una parte por millón de la atmósfera en masa, es decir, únicamente el 0,000 1%. Por otro lado, recuerda que la atmósfera tiene una masa gigantesca: 5·1018kg. Esto significa que hay unos 5·1012 kg de kriptón en ella, es decir, unos cinco mil millones de toneladas. Ya no parece tan poco, ¿verdad?

¿De dónde viene todo este kriptón? No estamos completamente seguros, y probablemente no tiene un único origen. Por una parte, el kriptón es uno de los productos de la fisión del uranio, tanto espontánea como provocada. Dado que el interior de la Tierra contiene mucho uranio que ha estado ahí desde el principio, es inevitable que según parte del uranio se ha ido desintegrando y formando átomos más ligeros haya ido liberando kriptón.

Es un proceso muy lento, por supuesto, pero hay una diferencia esencial entre el kriptón y otros gases formados como productos de desintegraciones nucleares, como el helio: el kriptón es bastante pesado. La densidad del helio en condiciones normales es de unos 0,18 kg/m3, lo que significa que gran parte del helio formado en el interior de la Tierra a lo largo del tiempo ha escapado a la gravedad terrestre y ha salido de la atmósfera. Sin embargo, la densidad del kriptón en las mismas condiciones es de 3,7 kg/m3, unas veinte veces más que el helio y más de tres veces la densidad media del aire al nivel del suelo.

Por tanto, prácticamente todo el kriptón producido en la Tierra desde su formación sigue aún aquí: o bien encerrado en bolsas subterráneas cercanas a depósitos de uranio, o bien en la atmósfera, en una concentración minúscula dada la enorme cantidad de gas que contiene, por supuesto.

Pero, por otra parte, utilizando la espectroscopía hemos detectado bastante kriptón en el espacio: en asteroides, en la Luna, en otras estrellas… Esto significa que es posible que parte del kriptón terrestre haya llegado hasta aquí desde el exterior. Muy probablemente esto también ha sucedido muy poco a poco, pero otra vez pasa lo mismo: por lenta que sea la ganancia de kriptón, la masa atómica de este elemento es tan grande que nunca escapa de nuevo, con lo que poco a poco vamos ganando más.

Desde luego, esto no es alarmante: con la excepción de algunos isótopos inestables de minúscula proporción, el kriptón no es peligroso en pequeñas concentraciones. La razón sigue siendo la de siempre: al ser estable y no reaccionar con nada, no es un veneno. Su único peligro, de haber una concentración considerable, es que podría desplazar al oxígeno. Dicho de otro modo, de aumentar mucho la concentración de Kr en una habitación podrías asfixiarte, pero no porque el kriptón sea peligroso en sí mismo, sino por la ausencia de O2.

Esto de que no reacciona con nada, por cierto, no es rigurosamente cierto. En 1963 se logró formar una molécula con kriptón, empleando por supuesto un elemento extraordinariamente reactivo, el flúor (el más electronegativo de todos):

Kr + F2 → KrF2

Pero esto se consiguió en minúscula concentración y condiciones extremas, lo mismo que algunas otras moléculas formadas desde la década de los 60. En general, y en la práctica, el kriptón siempre se encuentra en forma atómica y no se digna a reaccionar con nadie.

¿Para qué sirve entonces este asocial elemento? Su uso más común es el mismo que en el caso de otros gases inertes, como el argón, el neón o el xenón: en iluminación. Y el gas que nos ocupa hoy es especial en este aspecto.

El kriptón tiene varias líneas de emisión diferentes, que se corresponden con varias transiciones electrónicas distintas. Dado que las longitudes de onda de estas líneas barren una buena parte del espectro visible, la luz de descarga del kriptón es prácticamente blanca, y eso lo hace útil. Es común emplearlo en tubos de iluminación y bombillas de bajo consumo, ya sea para obtener luz blanca o pintando el tubo para darle algún otro color. Hemos hablado sobre tubos de este tipo al hacerlo del neón, por cierto, de modo que no voy a repetirme aquí.

Gases inertes
Luz de descarga de los gases inertes [Jurii / CC Attribution-Sharealike 3.0 License].

A pesar de que el kriptón tiene ese color blanco que lo hace muy útil, es mucho más caro que algunos otros gases que se usan con el mismo propósito, como el argón, porque es menos común. Por eso también es relativamente frecuente encontrarlo en tubos fluorescentes mezclado con gases más baratos en vez de puro.

Cuando sí se usa puro es cuando se quiere una luz muy blanca y muy brillante y el precio no es un problema. Por ejemplo, algunos flashes de cámaras fotográficas lo utilizan. El gas inerte “pata negra”, sin embargo, no es normalmente el kriptón sino el xenón, como veremos cuando lleguemos a él.

Finalmente, el kriptón también se utiliza en láseres de mayor potencia que los de helio-neón. El más famoso de éstos es el de kriptón-flúor, que es uno de los empleados en los intentos de lograr fusión nuclear mediante confinamiento por láser. Este láser de kriptón-flúor tiene, como te puedes imaginar, poco que ver con los rojos de helio-neón que suelen verse por ahí: para empezar no es rojo, ni mucho menos… tiene una longitud de onda de unos 250 nanómetros, con lo que se encuentra en el ultravioleta y ni siquiera podemos verlo.

En la próxima entrega pasaremos, como siempre sucede al terminar un período, de un elemento extraordinariamente estable a uno que es justamente lo contrario: conoceremos el elemento de treinta y siete protones, el rubidio.

http://eltamiz.com/2014/06/19/conoce-tus-elementos-kripton/

domi El poder de atravesar cuerpos opacos: Los Rayos X

Suele decirse que el descubrimiento de los rayos X, como otros muchos avances de la ciencia se produjeron de manera casual, y en cierto modo es así.

RayosX

Hace algo más de un siglo, en 1895 WILHELM CONRAD ROENTGEN (1845-1923),científico alemán de la Universidad de Würzburg (Alemania),estudiaba el comportamiento de los electrones emitidos por un tubo de crookes,(llamado así en honor a su inventor,el químico y físico británico WILLIAM CROOKES especie de ampolla de cristal  cerrada casi totalmente al vacío que produce una serie de relámpagos violáceos. Un día, descubrió que estos destellos eran capaces de iluminar unos frascos  de sales de bario colocados en el mismo laboratorio , lo extraordinario era que el tubo estaba envuelto en papel negro y entre el y los frascos había varias planchas  de madera y unos gruesos libros.

 

       Aquellas radiaciones tenía la propiedad de penetrar los cuerpos opacos.  Así decidió llamarles “LOS RAYOS X“. Eligió éste nombre porque no tenía idea  de la naturaleza exacta de lo que acaba de descubrir.

Gracias a su descubrimiento fue galardonado con el primer Premio Nobel de Física en 1901.

 El premio se concedió oficialmente: “en reconocimiento de los extraordinarios servicios que ha brindado para el descubrimiento de los notables rayos que llevan su nombre.”

Röntgen donó la recompensa monetaria a su universidad. De la misma forma que Pierre Curie haría varios años más tarde, rechazó registrar cualquier patente relacionada a su descubrmiento por razones éticas.

En su honor recibe tal nombre la unidad de medida de la exposición a la radiación, establecida en 1928: Unidad Roentgen .

Los rayos X son invisibles a nuestros ojos, pero producen imágenes visibles cuando usamos placas fotográficas o detectores especiales para ello.

 http://www.enlabuhardilla.com/Sabiasque/tabid/866/articleType/ArticleView/articleId/23/categoryId/156/El-poder-de-atravesar-cuerpos-opacos-Los-Rayos-X.aspx

 

vania ¿Mini agujeros negros que atraviesan la Tierra a diario?

Fotografía cortesía de Claudia Marcelloni, CERN

¿Mini agujeros negros que atraviesan la Tierra a diario?

Como si de fantasmas cósmicos se tratase, es posible que agujeros negrosen miniatura atraviesen la Tierra diariamente sin crear ningún peligro, como sugiere un estudio reciente.

Esta nueva teoría pone fin al temor de que poderosas máquinas como el Gran Colisionador de Hadronespuedan crear agujeros negros capaces de tragarse el planeta.

 

 

Los autores del estudio creen que estos minúsculos agujeros negros tienen un comportamiento completamente distinto al de sus hermanos mayores, llamados agujeros negros astrofísicos o de masa estelar.

A pesar de tener la masa de aproximadamente mil coches, un mini agujero negro es más pequeño que un átomo. Con ese tamaño un agujero negro no podría atraer mucha materia y en su lugar atraparía átomos y algunas moléculas más grandes a órbitas circulares, al igual que los protones atraen a los electrones en los átomos.

Así, los autores del estudio llaman a los mini agujeros negros que atraen materia a las órbitas «equivalentes gravitatorios de los átomos».

«Estos equivalentes no pueden causar ningún daño», afirma el coautor del estudio Aaron VanDevender, investigador de la empresa de biotecnologíaHalcyon Molecularde Redwood City (California). «Un átomo asociado a un equivalente gravitatorio podría desprenderse e impactar contigo, pero ni te darías cuenta. Se trata de una cantidad de energía muy pequeña».

Un universo lleno de mini agujeros negros

Se cree que los agujeros negros astrofísicos se forman al chocar enormes estrellas moribundas, dejando cuerpos tan densos que ni siquiera la luz puede escapar de su empuje gravitacional.

Los científicos creen que varios agujeros negros astrofísicos  pueden unirse y formar agujeros negros supermasivos que se encuentran en el centro de grandes galaxias, incluida nuestra Vía Láctea.

Aunque no podemos ver el agujero negro en sí mismo, los científicos pueden ver la luz del material extremadamente caliente que cae en el agujero negro, formando lo que se conoce como disco de acrecimiento.

Entretanto, las teorías afirman que se crearon muchos mini agujeros negros poco después del comienzo del universo, a medida que la materia densa se iba enfriando y expandiendo.

Según VanDevender, esa materia originaria no estaba distribuida de forma uniforme en el cosmos, por lo que algunas regiones del espacio eran más densas que otras.

«Debido a las variaciones aleatorias de la densidad [de la materia], algunos trozos formaron al principio agujeros negros», afirmó.

De acuerdo con el físico Stephen Hawking, los agujeros negros más pequeños deberían perder masa en forma de radiación y evaporarse en última instancia.

Sin embargo, la radiación descrita por Hawking nunca ha sido observada, por lo que el nuevo estudio supone que los mini agujeros originarios siguen existiendo en el universo.

Basándose en sus cálculos, VanDevender y su padre, J. Pace VanDevender, deSandia National Laboratoriesen Albuquerque (Nuevo México), creen que uno o dos de estos mini agujeros atraviesan la tierra cada día.

Los mini agujeros negros son demasiado pequeños como para absorber mucha materia. Sigue leyendo

vania Hallan evidencia de la Partícula de Dios

En medio de vítores y ovaciones, científicos del mayor colisionador de átomos en el mundo anunciaron el descubrimiento de una nueva partícula subatómica, la cual “concuerda” con el largamente buscado bosón de Higgs 

En medio de vítores y ovaciones, los científicos del mayor colisionador de átomos en el mundo dijeron este miércoles haber descubierto una nueva partícula subatómica, la cual “concuerda” con el largamente buscado bosón de Higgs -conocido popularmente como la ‘Partícula de Dios’- que ayuda a explicar qué le da forma y tamaño a toda la materia en el universo.

“Hemos hallado ahora la piedra angular que le faltaba a la física de las partículas”, dijo Rolf Heuer, director de la Organización Europea para la Investigación Nuclear (CERN, por las siglas en francés de su nombre provisional), a otros científicos.

Indicó que la partícula subatómica recién descubierta es un bosón, pero no quiso afirmar que sea el mismísimo bosón de Higgs, una distinción fundamental.

“Como lego, creo que lo logramos”, declaró ante la feliz multitud.

“Tenemos un descubrimiento. Hemos observado una nueva partícula que concuerda con un bosón de Higgs”.

El bosón de Higgs, que hasta ahora ha sido una partícula teórica, es considerado clave para comprender por qué la materia tiene masa, que se combina con la gravedad para darle peso a un objeto.

Sigue leyendo