domingo, 31 de marzo de 2013

Fabricando Tinta Simpática o Invisible de Limón.

Se denomina tinta simpática o tinta invisible a aquella que no se deja ver en el papel en el que se ha escrito hasta que no se aplica el reactivo conveniente, calor o agentes químicos.
Todos los jugos vegetales que contienen goma, mucílagoalbúmina o azúcar -- como el zumo de cebolla, de pera, de limón, de naranja, de manzana, etc. -- pueden servir como tintas simpáticas. La huella incolora que dejan al principio, se revela cuando se calienta el papel. La solución extensa de cloruro de cobalto, invisible en frío, reaparece con su color verde o azul en cuanto se calienta el papel. En cuanto se enfría, vuelve a desaparecer.
Una tinta simpática muy fácil de preparar es la solución de prusiato amarillo, pero basta tocar el papel escrito con un segundo papel impregnado de vitriolo verde para ver reaparecer el punto en el primero de los caracteres en azul. Esta tinta es indeleble. Es muy comun la de el jugo de limón o leche que al aplicar un poco de calor con una vela se torna de color.
Pero  nosotros lo vamos a realizar de la manera más sencilla: con jugo de limón, o vinagre blanco. Necesitaremo s uno de los dos ingredientes, una vela o caja de cerillas y un palillo para escribir.

Escribir el mensaje secreto



Primero elaboramos la tinta invisible.
Para ello, cogemos los limones y los exprimimos con el exprimidor sacándoles todo el zumo.
Vertemos el zumo de limón en el vasito de chupitos.



Escribimos el mensaje secreto.
Cogemos un palito limpia oídos, lo introducimos dentro del zumo de limón del vasito de chupitos. Ahora escribimos en la hoja de papel el mensaje usando el palito como si fuera un lápiz.
Cuando el zumo se seque desaparecerá completamente de la hoja de papel.






Para no levantar sospechas, escribimos en el otro lado de la hoja la lista de la compra con un lápiz normal.
Ya podemos entregarle el papel a nuestro confidente como si le estuviésemos pidiendo que nos hiciera la compra.
Acabamos la transacción haciendo el guiño de espía para que nuestro confidente sepa que la lista de la compra esconde un mensaje secreto.


Leer el mensaje secreto



Para poder leer el mensaje secreto, primero, encendemos la vela con una cerilla. Tener cuidado con el fuego.
A continuación, pasar la hoja de papel con el mensaje oculto por encima de la vela de manera que la llama caliente el zumo de limón y lo amarillee.




La tinta invisible volverá a aparecer y podremos leer el mensaje.
¡Recuerda que esta tinta invisible tiene mucha vitamina C!


Nacho Padró

El ENIGMA del Pájaro y el Agua


Imagínate que un pájaro vuela por el desierto en busca de agua. En un momento dado descubre una botella de cristal que contiene un poco de este valioso líquido en el fondo, pero no alcanza a beberla con su pico. ¿Cómo crees que el pobre pájaro conseguirá beber el agua sin volcar la botella con el consecuente peligro de derramarla por la arena?

Nacho

Clasificación en Abril 2013!!!

Aqui la teneis

Nom
Partícula de Déu
Shambala
Ragazza
JuLa
YMCA
Los Zombis Científicos
J2A
Locoroco
Qk
Perezoso
Nitroglicerina
Nariz
La Raya de la Gracia
Huracán
Experimento Enigmas  Blog  Noticias  TOTAL
246 200 40 340 826
25 90 0 445 560
100 0 0 0 100
30 20 0 30 80
15 50 0 0 65
55 0 0 10 65
15 50 0 0 65
15 0 0 10 25
5 0 0 0 5
5 0 0 0 5
5 0 0 0 5
5 0 0 0 5
5 0 0 0 5
5 0 0 0 5



0 5


Nacho

miércoles, 27 de marzo de 2013

Imágenes en 3D revelan antiguos canales inundados en Marte


Nuestro trabajo presenta por primera vez visualizaciones de canales enterrados en Marte”, destaca a SINC Gareth Morgan, científico planetario del Instituto Smithsonian (EEUU) y coautor de una investigación que aparece ahora en Science.
El científico destaca la novedad del trabajo: “Hemos podido comprobar que las inundaciones que esculpieron los canales de Marte Vallis –un valle marciano de unos 1.000 km de longitud– son al menos dos veces más profundas de lo que se pensaba”.
Las imágenes bajo la cubierta de lava las ha facilitado el radar italiano SHARAD que lleva la sonda Mars Reconnaissance Orbiter de la NASA.
Además hemos descubierto que estos complejos canales se tallaron a lo largo de dos fases de erosión, hace entre 10 y 500 millones de años de edad”, añade. “Y son ‘jóvenes’, teniendo en cuenta que Marte se enfrió hace 2,5 mil millones años”.
Según el estudio, un sistema geológico de fractura conocido como Fosa Cerberus fue el origen de las megainundaciones. “Esto sugiere que el agua ascendió desde varios kilómetros de profundidad en relativamente poco tiempo”, comenta Morgan.
Imagen 3D de los Canales marcianos
Marte Vallis forma parte de la región volcánica de Elysium Planitia, que también es la más joven de Marte y podría estar activa todavía. “Puede que en época reciente el agua subterránea haya podido interactuar con la actividad volcánica, y esto científicamente es muy interesante”, apunta el investigador.
Morgan explica que la escala de lo que ocurrió en Marte Vallis es similar a las inundaciones del lago prehistórico Missoula, que talló canales en rocas de lava sólida similar a la marciana en lo que hoy es el estado de Washington (EEUU). Se trata de las inundaciones conocidas más grandes de la historia de la Tierra.
Los canales terrestres ofrecen una idea aproximada de la magnitud de las inundaciones de Marte. 
Shambala

domingo, 17 de marzo de 2013

Identifican cuatro especies de huevos de dinosaurios en Lleida


El yacimiento de huevos de dinosaurio Coll de Nargó se encuentra a unos ocho kilómetros al oeste de la localidad que lleva el mismo nombre, en la provincia de Lleida. En esta área existen formaciones geológicas entre las que se encuentran la de Areniscas de Aren y la de Tremp, que han proporcionado un rico y variado registro fósil de dinosaurios a lo largo de todos los Pirineos. Ahora, allí, un grupo de investigadores españoles ha identificado cuatro especies de huevos de dinosaurios. 
“Se han encontrado de forma abundante restos de cáscaras, huevos y nidos atribuidos a dinosaurios, y más concretamente a los saurópodos. Hasta la fecha, solo se había reconocido un tipo de huevo de dinosaurio en esta zona: Megaloolithus siruguei. Después de analizar más de 25 estratos a lo largo de la formación Tremp,  se ha podido identificar un mínimo de cuatro tipos distintos: Cairanoolithus roussetensis, Megaloolithus aureliensis, Megaloolithus siruguei y Megaloolithus baghensis”, declara a SINC Albert García Sellés, del Instituto Catalán de Paleontología Miquel Crusafont, autor principal de un estudio que publica la revistaCretaceous Research.
Uno de los principales problemas que se encuentran los paleontólogos al estudiar los restos fósiles es determinar la edad que los sedimentos que los contiene. Existen fósiles, conocidos como fósiles guía, que por sus características permiten inferir la edad de las rocas. Estos fósiles son frecuentes en los sedimentos marinos, pero los terrestres son más escasos y difíciles de encontrar.
Se ha demostrado que los distintos tipos de huevos (ooespecies) se localizan en intervalos de tiempo muy concretos, lo que permite crear escalas biocronológicas con capacidad de datación precisa. En resumen, gracias a la asociación de ooespecies encontradas en Coll de Nargó se ha podido establecer que este yacimiento tiene una edad comprendida entre 71 y 67 millones de años”, asegura el experto.
Los yacimientos paleontológicos con restos de dinosaurios del sur de Europa tienen un importante valor científico ya que permiten entender y reconstruir los ecosistemas de finales de la era Mesozoica.
Las últimas investigaciones científicas demuestran que las faunas de dinosaurios del continente europeo que vivieron poco tiempo antes de la gran extinción de hace 66 millones de años se encuentran precisamente en el flanco sur de los Pirineos.
Los dinosaurios franceses y españoles estaban conectados
El hecho de que se hayan encontrado restos fósiles de Cairanoolithus en esta zona es un hallazgo relevante. Serían los primeros restos de este tipo localizados en la península ibérica, ya que es un huevo que solo se conocía en el sur de Francia.
Según García Sellés, este descubrimiento constituye una nueva prueba de la conexión entre las faunas de dinosaurios de Francia y la península ibérica hace unos 70 millones de años.
Por otro lado, el hecho de encontrar más de 25 niveles estratigráficos con huevos y nidos de dinosaurios es una clara evidencia de que estos saurópodos utilizaron la zona de Coll de Nargó como área de nidificación durante varios millones de años.
Tal recurrencia de nidos no se había encontrado nunca. Es más, la presencia de varias ooespecies en un mismo nivel indica que distintos tipos de dinosaurios compartieron esta misma zona de nidificación”, concluye el científico.
La Partícula de Déu.

Los últimos datos del CERN indican que la nueva partícula es un bosón de Higgs


Las colaboraciones ATLAS y CMS del Gran Colisionador de Hadrones (LHC) han presentado hoy en la conferencia Moriond (La Thuile, Italia) los últimos datos sobre la partícula descubierta en el CERN el año pasado.
Una vez analizados dos veces y media más datos que los disponibles durante el anuncio de su descubrimiento en julio de 2012, los resultados indican que la partícula es un bosón de Higgs, la partícula asociada al mecanismo que da masa al resto.
Sigue siendo una pregunta abierta, sin embargo, si este es el higss del modelo estándar de la física de partículas o, posiblemente, el más ligero de los bosones de los varios previstos en otras teorías que van más allá de ese modelo.
Encontrar la respuesta a esta pregunta  llevará tiempo, como explicó a SINC, Rolf Heuer, durante su visita a la Universidad de Oviedo hace un par de semanas.
Si es o no un bosón de Higgs se demuestra por la forma en que interactúa con otras partículas, y sus propiedades cuánticas. Por ejemplo, un bosón de Higgs no tiene espín o momento de rotación intrínseco, y en el modelo estándar su paridad –una medida de cómo se comporta su imagen especular– debe ser positiva.
CMS y ATLAS han analizado diversas opciones para paridad-espín de esta partícula, y, efectivamente, reflejan un valor 0 para el espín y paridad positiva. Esto, junto con las interacciones que se han medido de la nueva partícula con otras, indica “con fuerza” que es un bosón Higgs.
"Los resultados preliminares con el conjunto de datos completo de 2012 son magníficas y para mí está claro que se trata de un bosón de Higgs, aunque todavía nos queda un largo camino por delante para saber de qué tipo es", dice el portavoz de CMS, Joe Incandela.
"Los nuevos y ‘hermosos’ resultados representan un esfuerzo enorme aportado por muchas personas. Apuntan a que la nueva partícula tiene una paridad-espín de un bosón de Higgs como el del modelo estándar. Empezamos bien el programa de medición en el sector de Higgs", señala el portavoz de ATLAS, Dave Charlton.
Para determinar si este es o no el higgs del modelo estándar, las colaboraciones tienen, por ejemplo, que medir con precisión la tasa con la que el bosón se desintegra en otras partículas y comparar los resultados con las predicciones.
La detección del bosón es un evento muy raro, ya que se requiere alrededor de 1 billón (1012) de colisiones protón-protón por cada evento observado. Para caracterizar todas las formas de desintegración se necesitará tiempo y se necesitarán muchos más datos del LHC.
Localización: Europa
Fuente: CERN
La Partícula de Déu.

Detectan agua en la atmósfera de un lejano exoplaneta

Un equipo de astrofísicos de la Universidad de Toronto (Canadá), el Observatorio Lowell (EE UU) y otros centros norteamericanos ha obtenido el análisis más detallado hasta la fecha de la atmósfera de un exoplaneta del tamaño de Júpiter. Se trata de HR 8799c, uno de los cuatro gigantes gaseosos que orbitan la estrella HR 8799, situada a 130 años luz de la Tierra. Los resultados del estudio, que publicará el 21 de marzo la revistaScience, revelan la presencia de una atmósfera nebulosa con vapor de agua y monóxido de carbono, según delatan sus líneas espectrales. Estas moléculas se han podido identificar gracias al “espectro más nítido jamás obtenido de un planeta extrasolar", según destaca Bruce Macintosh, coautor y astrónomo del Laboratorio Nacional Lawrence Livermore. Las observaciones se han efectuado desde el telescopio Keck II (Hawái, EE UU). 
La Partícula de Déu

jueves, 14 de marzo de 2013

2 + 2 no sempre són 4



El que es pretén demostrar en aquest experiment és que no sempre la suma de dues quantitats dóna el resultat que esperem. 
L’experiment consisteix en preparar una mesura de 50 ml d’alcohol i un altra de 50 ml d’aigua. Si barregem les dues substàncies,  el resultat esperat seria que la suma de les dues quantitats fos de 100 ml, però no és així.  De fet, la barreja ocupa 96 mil·lilitres... aparentment en falten 4!...
On es troben aquest 4 desapareguts???. Que ha passat? Evidentment la matèria no ha desaparegut.  El que succeeix es que les molècules d’alcohol ocupen espais buits que queden entre les molècules d’aigua. I per això hi ha una pèrdua de volum.
Nacho

sábado, 9 de marzo de 2013

La sofisticada locomoción de algunas bacterias

La bacteria Myxococcus xanthus es un microorganismo estudiado frecuentemente, y conocido por tener una organización social compleja, en la que grupos de estas bacterias "cazan" juntas como manadas de lobos. A veces, decenas de miles de estas bacterias pueden coordinar sus movimientos, organizándose en una sola entidad llamada "cuerpo fructificante", que ayuda a asegurar su supervivencia. A pesar de toda esa capacidad de maniobra, el ritmo de su movimiento es muy lento. De hecho, es tan lento que la mayoría de los científicos se valen de la técnica fotográfica conocida como "time-lapse" para observarlas.

En un nuevo estudio, un equipo de investigadores dirigido desde la Escuela Henry Samueli de Ingeniería y Ciencias Aplicadas, de la Universidad de California en Los Ángeles (UCLA), ha ido en la dirección opuesta. Gerard Wong y sus colegas usaron fotografía de alta velocidad para captar los movimientos más sutiles de las Myxococcus y encontraron que las bacterias individuales no se mueven de forma homogénea y suave, sino discontinua, usando apéndices parecidos a tentáculos, que actúan a modo de cuerdas con garfio, permitiendo a las bacterias afianzarse en una superficie y arrastrarse por ella. De este modo, los microorganismos avanzan.

Además, un "pegamento" molecular producido por las bacterias para ayudarlas a adherirse a las superficies, también actúa como una especie de lubricante para su locomoción, que las ayuda a moverse al permitirles desplazarse de un modo más parecido al patinaje que al mero arrastre por un suelo áspero. Esto facilita que puedan organizarse en estructuras sociales rudimentarias, ya que el sendero de lubricante dejado por una bacteria puede ser aprovechado por otras, que procuran avanzar siguiendo a la primera.

Wenyuan Shi, del equipo de investigación, considera que la Myxococcus probablemente es la bacteria más compleja de la Tierra, debido en buena parte a sus conductas sociales y su singular habilidad para desplazarse. En muchos aspectos, esta bacteria es el mejor modelo de organismo para estudiar cómo en la historia de la evolución surgió la vida pluricelular a partir de la unicelular.

Conocer cómo las bacterias se mueven sobre una superficie y forman colonias puede ayudar a largo plazo a los investigadores a descubrir nuevas formas de combatir microbios perjudiciales.

En la investigación también han trabajado Wei Hu de la UCLA, y Karin A. Dahmen de la Universidad de Illinois en Urbana-Champaign, Estados Unidos.

Partícula de Deu

Hallan el talón de Aquiles de una proteína crucial para la reproducción del virus del SIDA

Unos investigadores pueden haber encontrado un "talón de Aquiles" en una proteína clave del VIH. Ellos han llegado a la conclusión de que actuar sobre este punto vulnerable podría impedir que el virus se replique, lo que podría obstaculizar que una infección por VIH progrese hasta desarrollar SIDA.

Investigaciones anteriores demostraron que una pequeña proteína del VIH llamada Nef interactúa con muchas otras proteínas en las células infectadas para ayudar al virus a multiplicarse y a esconderse del sistema inmunitario. Los autores de este nuevo estudio desarrollaron un método para vigilar la actividad de la Nef en ciertas situaciones. El método se basa en enlazar la Nef a una enzima llamada Hck, que la Nef activa en las células infectadas por VIH.

El equipo de Thomas E. Smithgall, de la Escuela de Medicina de la Universidad de Pittsburgh en Pensilvania, Estados Unidos, ha llegado a la conclusión de que los agentes que impiden las interacciones habituales de la Nef con otras proteínas podían ser capaces de evitar que el VIH se replicara e infectara a otras células.

Para este estudio, los investigadores diseñaron un procedimiento de análisis automatizado, y probaron casi 250.000 compuestos para encontrar los que podían bloquear la actividad de la Nef.


Uno de los compuestos que descubrieron, llamado B9, parecía particularmente potente para bloquear la Nef.

En experimentos posteriores, el equipo de investigación examinó cómo el B9 lograba esto, y encontró que esta sustancia es capaz de impedir que dos moléculas de Nef interactúen para formar dímeros, de modo tan eficaz como una mutación en un área crítica de la superficie de la proteína. La incapacidad de la Nef para formar dímeros perjudica por tanto su función en el proceso de replicación viral.

El sitio donde el B9 se une a la Nef y donde la Nef forma un dímero indica que es un talón de Aquiles que podría representar un nuevo objetivo de ataque para fármacos contra el VIH. Los experimentos efectuados por el equipo del Dr. Smithgall muestran que bloquear este sitio detiene la replicación del VIH.

La Partícula de Déu

Nuevo método para enfriar antihidrógeno, ¿avance clave en el manejo de antimateria?

El manejo de la antimateria, tema exclusivo de la ciencia-ficción durante mucho tiempo, sigue progresando en capacidad de control. Aunque todavía falta mucho para que veamos motores de antimateria, cada vez se la puede fabricar, conservar y manipular con mayor destreza.

Ahora se ha diseñado un nuevo método para enfriar antihidrógeno después de haber sido atrapado y aislado. La técnica podría constituir un avance clave para controlar la antimateria, y permitir explorar un área de la física repleta de enigmas: la de las propiedades de la antimateria.

En el universo actual, la antimateria sólo existe de manera natural durante instantes fugaces, en el marco de fenómenos físicos de alta energía. Cuando materia y antimateria entran en contacto se aniquilan mutuamente, liberando una cantidad colosal de energía.

Cada partícula tiene una antipartícula. Por ejemplo, la antipartícula de un electrón es un positrón (o antielectrón) y la de un protón es un antiprotón. Una antipartícula es exactamente igual que su partícula correspondiente pero con la carga eléctrica opuesta. De igual modo, las antipartículas se pueden agrupar para formar un átomo de antihidrógeno, de antihelio, y así sucesivamente.

La combinación de un positrón y un antiprotón crea un átomo de antihidrógeno.

Diversas teorías sugieren que tras el Big Bang (el gran estallido con el que se cree que se creó el universo), deberían haberse formado cantidades iguales de materia y de antimateria. Como el universo actual está compuesto casi en su totalidad de materia, sigue siendo un gran misterio por qué no existe esta simetría.


El nuevo método para enfriar antihidrógeno, desarrollado por un grupo de investigadores de Estados Unidos y Canadá, podría enfriar átomos atrapados de antihidrógeno hasta temperaturas 25 veces más bajas que las logradas anteriormente, haciendo que éste sea mucho más estable y que sea mucho más fácil experimentar con él.

En el método propuesto, se utiliza un láser que se dirige hacia átomos de antihidrógeno para "sacudirlos" de tal modo que pierdan energía y se enfríen. Las técnicas de enfriamiento por láser han sido decisivas en muchos experimentos importantes de la física de bajas temperaturas en años recientes.

Los átomos de antihidrógeno se forman en una trampa de vacío muy alto, inyectando antiprotones a un plasma de positrones. Un proceso atómico hace que el antiprotón capture un positrón, lo cual genera un átomo de antihidrógeno excitado electrónicamente.

Por regla general, los átomos de antihidrógeno tienen mucha más energía de lo que resultaría ideal para estudiarlos. Ese exceso de energía puede alterar las mediciones de sus propiedades. El método principal para reducir las altas energías de estos átomos es enfriarlos mediante láser hasta temperaturas muy bajas.

El método ideado por el equipo de Francis Robicheaux, de la Universidad de Auburn en Alabama, Estados Unidos, podría reducir la energía media del antihidrógeno atrapado lo suficiente como para hacer posible realizar mediciones más precisas de todos de sus parámetros.

El objetivo final de los experimentos con antihidrógeno es comparar sus propiedades con las del hidrógeno. Enfriar más el antihidrógeno será un paso importante para lograr esto.

A través de una serie de simulaciones por ordenador, el equipo de Robicheaux ha mostrado que los átomos de antihidrógeno podrían ser enfriados hasta cerca de 20 milésimas de 1 grado Kelvin. Hasta ahora, los átomos de antihidrógeno atrapados tienen energías de hasta 500 milésimas de 1 grado Kelvin.

La temperatura de cero grados Kelvin es el Cero Absoluto, o sea la temperatura más baja permitida por las leyes de la física tal como las entendemos, y equivale a 273,15 grados centígrados bajo cero, ó 459,67 grados Fahrenheit bajo cero.

Disponiendo de átomos de antihidrógeno más fríos de lo que ha sido posible hasta ahora, también se podría intentar medir en ellos la propiedad gravitatoria de la antimateria. En realidad, nadie ha visto a la antimateria ser atraída por un campo gravitacional, tal como acota Makoto Fujiwara, del equipo de investigación y miembro del TRIUMF, el Laboratorio Nacional canadiense de Física Nuclear y de Partículas. Por tanto, no se puede asegurar que la antimateria se comporte ante la gravedad del mismo modo en que lo hace la materia. Incluso existen hipótesis que asocian la antimateria con una hipotética antigravedad.

La Partícula de Déu

Los viajes de los microbios que viven en el estiércol

Estudios por científicos del Servicio de Investigación Agrícola (ARS) están revelando nueva información sobre los microbios que viven en el estiércol.
Estos estudios realizados en la Unidad de Investigación del Manejo de Agroecosistemas mantenida por el ARS en Lincoln, Nebraska, apoyan la prioridad del Departamento de Agricultura de EE.UU. (USDA por sus siglas en inglés) de asegurar la seguridad alimentaria. ARS es la agencia principal de investigaciones científicas del USDA.

En un proyecto, la microbióloga Lisa Durso usó muestras del estiércol de seis ejemplares de ganado vacuno para identificar un juego clave de grupos de bacterias gastrointestinales que son comunes tanto en el ganado vacuno como en el ganado lechero. Ella también observó algunas bacterias en el estiércol del ganado vacuno que no han sido observadas previamente en el ganado lechero, e identificó un surtido diverso de bacterias de los seis animales, aunque todos consumieron la misma dieta, eran de la misma raza, tenían el mismo sexo y la misma edad.

En otro estudio, Durso colaboró con el ingeniero agrícola John Gilley, también con el ARS, y otros investigadores para estudiar cómo la dieta del ganado afecta al transporte de patógenos en el escurrimiento de campos agrícolas enmendados con el estiércol. Los científicos agregaron dos tipos de estiércol a los campos experimentales con labranza convencional o labranza cero en tres diferentes tasas: una cantidad suficiente para satisfacer las necesidades de nutrientes para los cultivos por un año; una cantidad suficiente para proveer los nutrientes por dos años; o una cantidad suficiente para proveer los nutrientes por cuatro años. El estiércol se recolectó del ganado alimentado con maíz o pienso que contenía granos de destilería húmedos.

Después de una serie de episodios de lluvia simulada, el grupo recogió y analizó muestras del escurrimiento de los campos, y descubrió que ni la dieta ni el tipo de labranza afectaron significativamente al transporte de las bacterias del estiércol. Pero el grupo sí notó que la dieta afectó al transporte de los bacteriófagos, los cuales son virus que invaden a las bacterias, en el escurrimiento
Los resultados de estos estudios han sido publicados en las revistas 'Foodborne Pathogens and Disease' (Patógenos Alimentarios y las Enfermedades), 'Applied and Environmental Microbiology' (Microbiología Aplicada y Ambiental), y 'Transactions of the ASABE' (Actas de la ASABE). (Fuente: USDA)



LA PARTÍCULA DE DÉU

Encontrado un exoplaneta más pequeño que Mercurio

Gracias a la gran precisión del telescopio espacial Kepler se ha podido detectar, por primera vez, un exoplaneta más pequeño que Mercurio.
Durante 978 días, Kepler obtuvo señales de tránsito indicadoras de la existencia de tres planetas en las series temporales de datos fotométricos de una estrella parecida a nuestro Sol, aunque más fría, denominada Kepler-37. También se la conoce como KIC 8478994 y KOI-245, y se estima que su tamaño es de un 70 % el de nuestro Sol.

El planeta descubierto es el más interior de este sistema de tres. Según David Barrado, Director del Centro Astronómico Hispano-Alemán, Observatorio de Calar Alto (Almería, España), miembro de AstroMadrid e investigador del CAB: “Debido a su tamaño extremadamente pequeño, similar al de la Luna, y a su superficie altamente irradiada, Kepler-37b es, muy probablemente, un planeta rocoso sin atmósfera ni agua, similar a Mercurio”.

Pese a la poca luminosidad y a las oscilaciones de baja amplitud asociadas a estrellas frías de secuencia principal, el equipo pudo detectar oscilaciones como las de nuestro Sol en la serie temporal de flujo de Kepler-37.

Se trata de la estrella más densa en la que se han detectado oscilaciones de tipo solar y un análisis asterosismológico de estas oscilaciones permitió medir con precisión los parámetros estelares –radio, masa, gravedad, densidad–
Además, se utilizó otra técnica observacional usando datos obtenidos con el instrumento Astralux, instalado en el telescopio de 2,2 metros del Observatorio de Calar Alto (Almería) obteniendo imágenes de muy alta resolución de esta estrella, de calidad similar a las que se pueden obtener con el telescopio espacial Hubble.

En palabras de Jorge Lillo-Box, investigador del CAB y miembro de AstroMadrid que también ha participado en este trabajo, “con la técnica utilizada, denominada lucky imaging, hemos logrado descartar un gran número de falsos positivos, es decir, hemos eliminado configuraciones como la presencia de otras estrellas o las manchas estelares”.

Estos fenómenos –prosigue– pueden confundirse con la presencia de un planeta, ya que causan efectos similares en los datos recibidos, por lo que sólo con una observación precisa es posible descartar que se trate de objetos estelares en lugar de planetas”.

Parte de las imágenes se obtuvieron durante el tiempo garantizado español del Centro Astronómico Hispano-Alemán, observatorio de Calar Alto –dependiente del CSIC y de su homólogo alemán, la sociedad Max-Planck–, tiempo que gestiona el Instituto de Astrofísica de Andalucía (CSIC).

Este trabajo es fruto de una gran colaboración internacional, dedicada a la explotación de los extraordinarios datos que proporciona el satélite Kepler, pero también de datos recabados por telescopios en tierra.

Según Barrado, “sin las observaciones adicionales de los telescopios terrestres, no hubiera sido posible interpretar adecuadamente la información de Kepler. Es el binomio observatorio espacial más terrestre el que produce las sinergias requeridas para producir este tipo de impresionantes descubrimientos, que hace unos pocos años estaban más allá de la imaginación más osada. Nuevamente, muestran la necesidad de mantener una adecuada financiación a los observatorios terrestres”.

El telescopio Kepler fue lanzado en el año 2009 con el objetivo de determinar la abundancia de planetas rocosos en zonas de habitabilidad alrededor de estrellas similares a nuestro Sol en nuestra galaxia. Kepler monitoriza de manera constante unas 150.000 estrellas para detectar los tránsitos de sus cuerpos planetarios. (Fuente: AstroMadrid) 

LA PARTÍCULA DE DÉU

Resuelto el problema de la fiesta de cóctel


Está usted en una fiesta. La música suena a todo volumen, los hielos titilan en sus copas, se oyen risas y voces de decenas de invitados; sin embargo, usted solo tiene oídos para esa persona con quien está hablando. Desde la década de 1950, los científicos tratan de explicar cómo el cerebro filtra las señales sonoras que le importan. De hecho, en neurociencias se conoce como ‘el problema de la fiesta de cóctel’.
Ahora, investigadores estadounidenses han desvelado los mecanismos por los que el cerebro, sin que seamos conscientes de haber realizado un esfuerzo excesivo, consigue reducir todo el barullo que nos rodea y quedarse solo con lo que le interesa, una capacidad cognitiva de gran importancia social.
Los resultados han sido publicados hoy en la revistaNeuron y desvelan que el proceso de filtrado de la información se produce en dos etapas. En la corteza auditiva primaria se modulan las señales –es decir, se sube el volumen de lo que interesa y se baja lo demás, pero todo está presente–. Al mismo tiempo, áreas destinadas a funciones superiores hacen una selección y eliminan ya totalmente lo que se quiere ignorar.
Los científicos registraron la actividad eléctrica del cerebro de seis personas con electrodos sobre la corteza cerebral 
El estudio requería el registro de la actividad eléctrica directamente sobre la corteza cerebral. Por eso se realizó, previo consentimiento, en seis pacientes con epilepsia aprovechando que, para identificar las zonas donde se originaban los ataques de epilepsia, se les iba a realizar una electrocorticografía. En esta intervención se aplican electrodos sobre la superficie expuesta del cerebro.
Los participantes observaron un vídeo con dos personas hablando simultáneamente y se les dio instrucciones de prestar atención solamente a uno de los discursos, ignorando el otro. Durante el experimento se midieron sus ondas cerebrales con electrodos. Observar la cara y gestos del hablante contribuye al procesamiento del discurso, lo que da lugar a pensar que algunos de los efectos observados en el estudio estén influenciados no solo con lo escuchado sino también con estímulos visuales.
En la corteza auditiva primaria se percibieron tanto las señales del discurso principal, como las que no interesaban; algo esperable, puesto que, como dice Charles Schroeder, científico de la Universidad de Columbia y uno de los autores principales del estudio, “no podemos cerrar los oídos”. Sin embargo, ya en este momento la señal correspondiente al discurso de interés se detectaba con una amplitud mayor que las demás.
Por otro lado y simultáneamente, se analizaron las ondas cerebrales de áreas dedicadas a funciones superiores, como el lenguaje o el control de la atención. Es en este punto cuando el cerebro selecciona específicamente lo que le interesa. La señal del discurso de interés era muy clara, pero las demás conversaciones no fueron detectadas.
Esta es la primera evidencia clara de que hay zonas del cerebro donde solo se tiene en cuenta la conversación a la que se atiende, mientras las ignoradas se filtran y eliminan” declara Schroeder.
El cerebro predice los giros del discurso
Pero, además, a medida que la frase toma forma y significado, la señal se hace cada vez más definida. Esto parece ocurrir porque la forma en la que se estructura el discurso permite al cerebro predecir cuándo van a tener lugar ciertos eventos clave y así las propias neuronas se predisponen para encenderse con mayor facilidad en estos momentos.
Otras investigaciones para revelar las zonas del cerebro implicadas en focalizar la atención habían utilizado estímulos simples, como pitidos breves o frases cortas. Esta vez, se ha utilizado un discurso natural y completo, lo cual proporciona herramientas para alcanzar los objetivos del proyecto mundial de mapeo de la actividad cerebral –Brain Activity Map Project–.
Hasta ahora este tipo de estudios solamente se habían realizado en animales. Schroeder y sus colegas han demostrado que es posible aprovechar operaciones en pacientes con epilepsia para el estudio de capacidades puramente humanas, como el lenguaje o la música.
Shambala

Descubren un mecanismo biológico capaz de optimizar el tratamiento del párkinson


La función normal del gen dardarina –llamada así por la palabra vasca “dardara”, temblor– o cómo sus mutaciones provocan la enfermedad de Parkinson hace mucho tiempo que intriga a los científicos.
Hace mucho tiempo que intriga a los científicos cómo las mutaciones del gen dardarina provocan párkinson
Ángel Raya, investigador del Instituto de Bioingeniería de Cataluña (IBEC), en colaboración con expertos italianos y estadounidenses, han estudiado este gen cuyas mutaciones se han identificado como la causa más común del párkinson familiar.
En un artículo publicado hoy en Nature Neuroscience, los investigadores revelan su descubrimiento de que la dardarina se degrada mediante un proceso de limpieza llamado autofagia, que permite el reciclado de aminoácidos de proteínas y elimina las que presentan anomalías o daños.
Pero la dardarina emplea un tipo de autofagia muy específico, de forma que sus mutaciones también pueden afectar a la propia autofagia y reducir su eficiencia.
Por si eso no fuera suficiente, este mecanismo afecta también a otro proceso crucial que puede causar párkinson: la acumulación de una proteína llamada α-sinucleína. Habitualmente, la α-sinucleína también se degrada por autofagia; pero cuando la autofagia se ve afectada por la dardarina, la α-sinucleína puede acumularse.
Este “doble ataque” que inhibe la autofagia podría ser la base de la toxicidad en la enfermedad de Parkinson. “En otras palabras, dos rasgos dominantes que causan el párkinson convergen en el mismo punto”, explica Raya.
Este nuevo descubrimiento –posible gracias al uso de células madre pluripotentes inducidas provenientes de pacientes, lo que ya prueba que es aplicable a los humanos– puede ayudar a descubrir estrategias específicas para tratar o incluso prevenir esta enfermedad degenerativa.
Como resultado, las intervenciones dirigidas a aumentar la actividad autofágica o prevenir su disminución causada por algunas patologías o por la edad pueden acabar resultando de gran valor”, afirma el investigador. “Esto no solo es aplicable al tratamiento, sino que también puede ser relevante para otras enfermedades relacionadas con el envejecimiento causadas por las alteraciones en la autorregulación celular”.
Shambala

El grafeno convierte la luz en electricidad


Un equipo del Instituto de Ciencias Fotónicas (ICFO), en colaboración con el Massachussets Institute of Techology de Estados Unidos, el Max Planck Institute for Polymer Research de Alemania y Graphenea S.L. de Donostia-San Sebastián, muestran en Nature Physics que el grafeno es capaz de convertir un fotón absorbido en múltiples electrones que pueden conducir corriente eléctrica.
Este prometedor descubrimiento convierte el grafeno en una importante alternativa para la tecnología de energía solar, actualmente basada en semiconductores convencionales como el silicio.
“En la mayoría de los materiales, un fotón absorbido genera un solo electrón, pero en el caso del grafeno hemos visto que un fotón absorbido es capaz de producir muchos electrones excitados, y por lo tanto una señal eléctrica mayor” explica Frank Koppens, líder del grupo de la investigación en ICFO.
Esta característica hace del grafeno el ladrillo ideal para la construcción de cualquier dispositivo que quiera convertir la luz en electricidad. En particular, permite la producción de potenciales células solares y detectores de luz que absorban la energía del sol con pérdidas mucho menores.
El experimento ha consistido en mandar un número conocido de fotones a diferentes energías sobre una capa fina de grafeno.  “Hemos visto que los fotones de alta energía –por ejemplo, los de color violeta– inducen un mayor número de electrones excitados que los fotones de baja energía –por ejemplo, los infrarrojos–”, explica Klass-Jan Tielrooij, investigador del ICFO que ha realizado el experimento.    
En ambos casos siempre era igual o superior al número de fotones mandado –prosigue–. Esta relación nos muestra que el grafeno convierte la luz en electricidad con una eficiencia muy alta. Hasta ahora se especulaba que el grafeno tenía un gran potencial para convertir luz en electricidad, pero ahora hemos visto que es incluso mejor de lo esperado”.    
Aunque aún hay algunos aspectos que los científicos están tratando de mejorar, como la baja absorción del número de fotones, el grafeno tiene el potencial de provocar cambios radicales en muchas tecnologías actualmente basadas en semiconductores convencionales. 
El próximo reto
"Se sabía que el grafeno es capaz de absorber un espectro muy grande de colores de la luz. Sin embargo, ahora sabemos que una vez el material ha absorbido esta luz, la eficiencia de conversión de energía es muy alta. Nuestro próximo reto será encontrar formas para extraer la corriente eléctrica y mejorar la absorción del grafeno. Entonces seremos capaces de diseñar dispositivos de grafeno que detectan la luz de manera más eficiente, dando paso a células solares más eficientes ", concluye Koppens.
Todo parece indicar que en las próximas décadas se va a vivir un cambio de paradigma con el grafeno similar al que ocurrió con el plástico el siglo pasado. Móviles que se pliegan, placas solares trasparentes y flexibles, ordenadores muy delgados… se podrán desarrollar con grafeno.
Las industrias y autoridades están convencidos de su gran potencial para revolucionar la economía mundial. Tal es así que la Unión Europea acaba de comprometer una inyección de 1.000 millones de euros para su desarrollo.
Shambala

La dinámica de la población española sigue el principio de máxima entropía


Científicos españoles y argentinos han investigado la forma en que nos agrupamos las personas a gran escala para ver si hay alguna ley o patrón que explique cómo lo hacemos, y lo han encontrado: el principio de máxima entropía. Al menos así ocurre en la distribución por provincias de la población española.
Hemos comprobado que dadas las características de una provincia –que concretamos en un valor denominado ‘q’–, la distribución de su población a lo largo del tiempo no va a producirse de cualquier manera, sino de un forma determinada que se ajusta al principio de máxima entropía”, explica a SINC Alberto Hernando, investigador de la Escuela Politécnica Federal de Lausana (Suiza) y coautor del trabajo.
Ese principio establece que, una vez que se conocen estas condiciones –en este caso la evolución de la población de todos los municipios–, la distribución de equilibrio del sistema para cada una de las provincias es aquella que maximiza la cantidad de información o entropía, una magnitud física que describe lo irreversible que es el sistema.
De esta forma, observando cómo se distribuye la población de cada provincia en cada una de sus ciudades o pueblos, hemos encontrado que a nivel colectivo obedecemos a patrones que se pueden predecir matemáticamente”, comenta Hernando.
Para realizar el estudio, que publica el Journal of the Royal Society Interface, se han utilizado los datos de población facilitados por el INE de los 8.116 municipios españoles repartidos en 50 provincias y recogidos entre 1996 y 2010. En este último año ya había más de 47 millones de personas en nuestro país.
El valor ‘q’ que han usado los investigadores les ha servido, además de para resumir las características socioeconómicas de cada provincia, para cuantificar cómo crecen los núcleos de población grandes respecto a los pequeños. Su valor típico es 1, y refleja que el aumento de población en un municipio durante el último año es proporcional a su número de habitantes en el año anterior.
Sin embargo, cuando q es mayor que 1 significa que los municipios grandes o ciudades de una provincia crecen a un ritmo mayor que sus municipios pequeños o pueblos. Así lo reflejan los datos para el caso de León, por ejemplo, o los de Las Palmas de Gran Canaria y Huesca.
Esta es la tendencia general en la mayoría de las provincias, lo que refleja el abandono progresivo del campo para vivir en las ciudades. De hecho, el valor medio de ‘q’ en el territorio español es de 1,2.
Por el contrario, cuando q es menor de 1, la interpretación es más compleja. Puede reflejar que los pueblos de una provincia han crecido en mayor proporción que sus ciudades, como sucede en el caso de Guipúzcoa, pero también interviene la forma particular en que se agrupan municipios con tendencias diferentes.
Según los datos, en Madrid y Barcelona se está produciendo una mezcla de dos fenómenos. Por una parte, los pueblos muy pequeños se abandonan, pero, por otra, la ciudad se está saturando. De esta forma son los núcleos de tamaño medio los que, relativamente, están creciendo a un ritmo superior.
“Por supuesto, hablamos de promedios, y puede ocurrir que un pueblo o ciudad en particular no cumpla con la regla de su provincia, pero esto no altera las propiedades estadísticas”, dice Hernando, que desarrolló este trabajo durante su estancia en la Universidad Paul Sabatier de Toulouse, en Francia.
Junto a otros colegas de la Universidad de Granada, el Instituto de Física Interdisciplinar y Sistemas Complejos (CSIC-Universidad de las Islas Baleares) y la Universidad Nacional de La Plata, en Argentina, han empleado estos resultados para formular una teoría denominada ‘sociotermodinámica’, parecida a la termodinámica con la que se describen los estados de equilibrio de gases, sólidos y líquidos.
Segundo principio de la termodinámica
El principio de máxima entropía es una formulación del segundo principio de la termodinámica, que establece que la cantidad de entropía del universo tiende a incrementarse con el tiempo. Es decir, un estado con cierto orden tiende siempre a un estado menos ordenado, y el proceso inverso es imposible de forma espontánea.
La aplicación de esto a las sociedades humanas se podría entender –según los investigadores– como que el orden social siempre tiende a degradarse si no se evita de forma activa. “Sin duda, esto da pie a muchas especulaciones e interpretaciones, pero solo una investigación basada en observaciones y datos objetivos podrá darnos una respuesta clara”, concluye el investigador.
En cualquier caso, los autores consideran que la predictibilidad que aporta esta teoría puede ser útil para estimar aspectos como los flujos migratorios, el crecimiento futuro de las ciudades, la popularidad de productos de gran consumo, o incluso los resultados de unas elecciones.
Shambala