About Author: Kike Silva

Website
http://www.buhardillapodcast.es

Posts by Kike Silva

3

La Buhardilla 2.0 Pograma 179:Ignobel 2016

Especial Ignobel 2016. En 24 horas el post completo.

Tags:
7

El Big Bang cíclico

La mayoría de los astrónomos y astrofísicos datan el nacimiento del universo hace unos 13,7 billones de años (billón de años arriba, billón de años abajo), coincidiendo con lo que conocemos como Big Bang. Hablamos de billones americanos, es decir, 13700 millones de años.

Pero un último estudio en el que se analiza la radiación residual del universo, y más concretamente el fondo de microondas, parece indicarnos que el universo es muchísimo más antiguo, y cuando digo muchísimo es muchos millones de años antes. Este estudio concluye que lo que conocemos como Big Bang es sólo la última “explosión” de ese tipo que ha tenido lugar en el universo.

No es la primera vez que se dice que el Big Bang no es un acontecimiento singular, ya que mucho físicos teóricos que investigan acerca de la teoría de cuerdas y la teoría de branas han dicho muchas veces que el Big Bang es algo que como dirían en una serie de ciencia ficción, “ha ocurrido siempre y va a seguir ocurriendo”.

Lo singular de este estudio realizado por Roger Penrose de la Universidad de Oxford (UK) y Vahe Gurzadyan de la Universidad Estatal de Ereván (Armenia), es que aportan una prueba gráfica para realizar tal afirmación, la cual os pongo a continuación:

Esta imagen que veis muestra un patrón bastante claro en el fondo de microondas del universo, ya que estos círculo concéntricos mostrarían variaciones en el fondo del microondas, que según estos dos investigadores solo se puede explicar por el hecho de que el Universo es mucho más antiguo, y que lo conocemos como Big Bang ha sido sólo la última de estas explosiones, que se correspondería con el último círculo concéntrico.

El problema es que según otros investigadores, que probablemente sean defensores de la teoría de un único Big Bang, en el artículo original de estos investigadores no se da suficiente información acerca de cómo se ha realizado la medición del fondo de microondas en este estudio, y lo que es más importante, en ningún momento se realiza una investigación adecuada de a qué pueden deberse estos patrones, pudiendo incluso ser simples artefactos (cosas raras por decirlo del alguna manera) que se produjeron durante la medición.

Dónde sí se mete Penrose es en explicar cómo cree él que se producen estos Big Bangs, ya que teoriza acerca de la posibilidad de que sean choques de agujeros negros supermasivos que se producen en nuestro universo, y además concluye que la crítica acerca de que lo que se ve en este patrón no sean más que artefactos es infundada, ya que tanto Penrose como Gurzadyan realizaron los estudios por separado y con aparatos distintos.

Lo cierto y verdad es que cada día surgen más y más teorías acerca del inicio del Universo, de la Materia y Energía Oscura, etc…algo que personalmente me parece lógico ya que cuando entramos en el terreno de la Física Teórica, ya hemos dicho muchas veces en el podcast de La Buhardilla 2.0 que parece que nos adentramos más en el mundo de la filosofía y la metafísica, y lamentablemente esto es así actualmente, ya que en estos campos es extremadamente complicado demostrar empíricamente algo, y sólo se puede teorizar con afirmaciones, dogmas, etc, que den validez a nuestras investigaciones.

Quizas salgamos de dudas dentro de poco cuando la Agencia Europea Espacial, con su misión Planck consiga darnos una visión más detallada de este fondo de microondas, y quizás entonces más de uno tenga que pedirle perdón a Penrose y Gurzadyan.

Fuente consultada para el artículo:

Cosmic Rebirth

PD: Si echais un vistazo a los comentarios que hay en el artículo que he usado como fuente, vereis un comentario que nos da otra teoría que además explicaría la existencia de la Materia y Energía Oscura. Esta persona dice que nuestro Big Bang fue el resultado de la colisión entre “nuestro” universo y “otro ” universo, y que lo que conocemos como Materia Oscura y Energía Oscura no es más que los restos de ese otro Universo que chocó con el nuestro.

10

El lado oscuro del Genoma

Hace algo más de un mes, The Wistar Institute publicó un artículo dónde se ponía en entredicho algo que siempre se ha tomado como un dogma central en genética. Este Dogma consiste en que el DNA se transcribe en RNA, y éste se traduce a proteínas. Eso es algo de lo que hemos hablado en más de una ocasión en el podcast de La Buhardilla 2.0. Pues ahora esto parece estar un poco en entredicho, ya que a pesar de los grandes avances en genómica que se han hecho en los últimos años, se estima que aproximadamente un 95% ( que no es tonteria) del DNA tiene una función algo oscura, ya que no se traduce a proteinas. Es decir, aunque parece que todo el DNA cromosómico se transcribe a RNA, no todo este RNA es traducido en forma de proteínas. A estas cadenas de RNA que no se traduce se las conoce como RNA no codificable (ncRNA).

Pues un reciente estudio del instituto Wistar, publicado en la revista Cell, han descubierto la “habilidad” de estas largas cadenas de ncRNA para promover la expresión de genes, lo que significa que aunque ellos no son capaces (o directamente no deben) de traducirse a proteinas, sus transcripción como ncRNA actua como un potenciador de la expresión de proteínas por parte de un organismo vivo. De hecho estos estudios han demostrado algo que se sospechaba desde hace un tiempo, y es que no todo el DNA que se transcribe a RNA para dar como resultado una proteína.

La existencia de estos potenciadores de la traducción genética se conocía desde hace mucho tiempo, pero se había pensado que estos potenciadores eran tambien proteinas, de forma que este estudio demuestra que no hace falta que estos ncRNA se traduzcan para que ejerzan su función, y esta puede ser la respuesta a las grandes regiones de DNA de las cuales no se conoce que proteína codifican.

En este reciente estudio, los investigadores del instituto Wistar ha localizado unas 3000 cadenas largas de ncRNA, peor estiman que el número de estos ncRNA debe estar entre 10000 y 12000 cadenas, un número que es comparable con el número de genes que codifican proteinas, que se sitúa en torno a 20000. Además han descubierto que estas cadenas de ncRNA se encuentran situadas en su mayoría en regiones relacionadas con las células madre y con las células tumorales, de manera que abre una puerta interesante para la investigación futura, ya que la activación o desactivación de estos ncRNA puede ser util tanto para el estudio de celulas madres como en la lucha contra el cancer.

El doctor Ramin Shiekhattar, responsable de la investigación afirma: “Estamos muy emocionados con estos descubrimientos acerca de la verdadera naturaleza del DNA humano, primero porque una nueva clase de entidades genéticas han sido descubiertos, una nueva capa de regulación genética, y segundo porque el descubrimiento permite conocer más acerca de estos potenciadores genéticos de los cuales se suponía su existencia pero no se conocía su naturaleza”

Además, el doctor Shiekhattar está convencido de que no sólo actúan como potenciadores, sino también como silenciadores, evitando la expresión de ciertos tipos de proteinas.

Una de las pruebas realizadas por el equipo del instituto Wistar fue eliminar una de estas cadenas, llamada ncRNA-a7 en células madres, y descubrieron que tenía el mismo efecto que si eliminaban la expresión de la proteina Snai1, la cual está involucrada en la migración de las células marde.

Otro de los experimentos fue insertar una de estas cadenas largas de ncRNA al lado del gen que codifica la luciferasa, que es la proteína responsable de la luz que emiten las luciérnagas, y vieron que la cantidad de luciferasa codificada era mucho mayor que en una célula normal.

De todas formas, aunque parezca que todo induce a la activación, no todas estas cadenas actúan de la misma manera aunque la mayoría sí lo hacen.

El siguiente paso del equipo de investigación del doctor Shiekhattar es descubrir el mecanismo por el que estas ncRNA actúan, lo cual revelará las aplicaciones que se podrán hacer de este lado oscuro del genoma.

Fuente del artículo: The Wistar Institute

Tags: ,
2

El Negocio de la Antimateria

Durante estos días saltó la noticia de que en el LHC (Gran Colisionador de Hadrones) se habían conseguido “congelar” 38 átomos de antihidrógeno, el que si se siguen las normas de la materia, debe ser el elemento químico más sencillo de la antimateria, formado por un antiprotón y una positrón.

El problema de la antimateria es que es extremadamente caro producirla, de hecho el CERN, dónde se encuentra el LHC, ha gastado unos 50 billones de euros para producir a lo largo de los años un mísero gramo de antihidrógeno.

Pero aparte de su costo de producción otro gran problema es su manera de almacenarlo, ya que al entrar en contacto con la materia bariónica (la de toda la vida) se produce la aniquilación materia-antimateria, que dá como resultado la destrucción de ambas de manera automática. Pero lo interesante es que esta aniquilación libera una cantidad bastante considerable de energía, y es aquí dónde está una de las aplicaciones prácticas que puede ser más interesante para el común de los mortales.

¿Qué es la Antimateria?

Como su propio nombre indica es la matería invertida, es decir, está formada por una serie de partículas que tienes su homóloga en la materia bariónica, con la misma masa, la misma carga (en el caso de parículas cargadas),y en el caso del spin tienen el mismo spin, pero. en el caso de la carga y del spin el signo es el contrario, es decir, un positrón tiene al electrón como homólogo, y tiene la misma masa, la misma carga, pero el signo de esa carga es contrario. En el caso de un antineutrino, la masa y el spin es el mismo que el del neutrino, pero el sentido del spin es justo el contrario.

Toda partícula de la materia bariónica tiene su antipartícula en la antimateria, ya sean electrones, protones, neutrinos, quarks o lo que sea.

¿Qué es la aniquilación materia-antimateria?

Cuando una partícula de materia bariónica entre en contacto con su antipartícula correspondiente se produce la aniqulación total de ambas partículas, pero se consigue la emisión de dos fotones gamma de alta energía, que sigue al pie de la letra la famosa ecuación E=mc2, de manera que la cantidad de energía que se puede consumir supera muy mucho cualquier método de obtención de energía que podamos pensar. Si por ejemplo hablamos de fusión nuclear, fusionando hidrógeno para conseguir helio, la cantidad de energía liberada se corresponde aproximadamente a un 0.7% de la matería en juego según la fórmula de Einstein, siendo el 99.3% restante desperdicios y residuos de la fusión. Si ya nos metemos en la energía obtenida a partir de combustibles, el mejor cohete con la mayor eficiencia energética sólo obtiene como energía un 0.1% de la materia que se pone en juego, y el 99.9% restante son desperdición de la combustión en este caso.

¿Cuál es el negocio de la antimateria?

Si fuésemos capaces de diseñar un dispositivo que creara antimateria en la “cámara de combustión” por llamarlo de alguna manera, instantáneamente al entrar en contacto con la materia (que está siempre ahí), produciría una cantidad de energía equivalente al 100% de la materia que entra en juego, sin ningún despercidio. Toda la materia-antimateria aniquilada es convertida completamente en energía, una cantidad de energía que sería resultante de aplicar la fórmula de Einstein. Por ejemplo, si ponemos en contacto 0,5 gramos de antihidrógeno con 0.5 gramos de hidrógeno, la aniquilación daría como resultado una energia de 89.876 gigajulios, que en términos de energía utilizable viene a ser unos 25 gigawatios-hora, que equivale a más del doble de lo que la central nuclear de Santa María de Garoña es capaz de producir en un día de trabajo. Es decir, con un solo gramo de materia-antimateria, conseguiríamos una cantidad de energía descomunal, repito sólo con un gramo.

El problema es que con la tecnología actual eso nos hubiese costado unos 25 billones de euros, y además necesitaríamos unas instalaciones como las del CERN, y eso va a ser complicado implementarlo en un vehículo o dispositivo, a no ser que éste tenga el tamaño de Suiza.

Pero lo realmente importante de esto es que sabemos que esto es así, y el progreso y el paso de los años estoy seguro de que hará posible el uso de este tipo de energía, aunque esto ocurrirá dentro de muchos muchos años.

Fuentes consultadas para este artículo:

Starts with a Bang! y La Pizarra de Yuri

360

Top 7: Bacterias Mortales

Dando una vuelta por varios blog de ciencia en el idioma de Shakespeare, he encontrado un interesantísimo artículo, tanto por el contenido como por las espectaculares fotos que lo ilustran, y aunque en un principio había pensado en traducirlo directamente, al final he decidido aportar mi granito de arena al texto, ya que entre otras cosas parece que el autor confunde enfermedad con agente infeccioso, y tratando el artículo sobre bacterios, creo que era justo hablar de estos pequeños seres.

Las Bacterias son los patógenos que más enfermedades mortales causan en sus huéspedes humanos. Millones de personas mueren anualmente a casusa de estos pequeños seres vivos que se reproducen en nuestro organismo y aprovechan cualquier debilidad que encuentran para hacer daño. Aún así, definirlas como Bacterias Mortales puede ser un poco engañoso, ya que deben de darse muchos factores a la hora de que una bacteria de este tipo cause la muerte, incluso el simple tratamiento adecuado de la infección puede hacer que no pase de unas simples molestias.

Empecemos con el top.

7. Salmonella


La Salmonella puede ser mortal en sus dos formas, bien sea como Salmonella Entérica o como Salmonella Tifoidea. Esta última es responsable de la muerte de unas 216.000 personas al año en zonas endémicas. Se propaga a través de las heces y la orina. Es curioso que haya personas que son totalmente asintomáticas ante esta infección, de hecho, es famoso el caso de Mary Mallon, la primera portadora norteamericana que en 1907 fue responsable de la muerte por infección de Salmonella de 53 personas. Era cocinera, y viendo la forma en la que se propaga esta bacteria creo que su restaurante no era un sitio muy recomendable para ir.

6. Clostridium Tetani


La bacteria responsable del tétanos, tiene como peor enemigo la vacuna que existe contra ella. Realmente el tétanos es producido por una neurotoxina que segrega esta bacteria, la exotoxina, tambien conocida como tetanospamina. La infección por parte de esta bacteria ocurre cuando esporas de este Clostridium penetran en el organismo a través de heridas infectadas. Los síntomas más claros son los espasmos, de hecho se puede decir que una persona que muere de tétanos lo hace de cansancio, al no poder parar de producir esos espasmos. Incluso estos espasmos pueden romper huesos del propio individuo.

En ciudades modernas está casi controlada, pero alrededor de 58.000 bebés mueren en el mundo anualmente a casusa de esta bacteria.

5. Staphylococcus Aureus

Los estafilococos son un grupo de bacterias que está compuesto por al menos 40 subespecies. Usualmente se encuentran sobre nuestra propia piel en cantidades considerables, pero un sistema inmune normal puede combatirla continuamente, y si se produce la infección del organismo, los antibióticos son muy efectivos frente a estos seres.

En los últimos tiempos ha aparecido lo que se conoce como MRSA, que son las siglas de Multidrug Resistant Staphylococcus Aureus, es decir, es una cepa de esta bacteria que es resistente a los tratamientos con antibióticos, y sólo  la Meticilina es efectiva. Aún así, ya se están haciendo resistentes a este antibiótico, pero afortunadamente un grupo de investigación italiano a descubierto un Bacteriófago que es muy efectivo ante esta bacteria.

Es responsable de la Fascitis Necrotizante, o tambien conocida como la enfermedad de la carne fresca, ya que literalmente se va comiendo nuestra carne, produciendo una gangrena y necrosis fulminante. Curiosamente esta resistencia la hemos provocado nosotros al “atacar” continuamente a esta bacteria con antibióticos, y ha desarrollado mecanismos para poder resistirlos. Y aunque parezca irónico (y ciertamente asqueroso), uno de los tratamientos actuales que se usa frente a esta necrosis es el uso de larvas que se comen literalmente toda la carne muerta, dejando solo la carne en buen estado. De todas maneras lo más habitual es que una infección de este tipo acabe con la amputación del miembro afectado.

4. Treponema Pallidum

Esta bacteria espiroqueta, lo cual signifiga que tiene formas alargadas de hasta 500 micras, es la responsable de la sífilis, que históricamente ha sido una de las enfermedades más letales debido a la dificultad de su tratamiento, ya que era muy difícil de diagnosticar. De hecho, a la sífilis se le conoce como “El Gran Imitador”, ya que sus síntomas se parecen a tantas enfermedades que es difícil saber que realmente estamos luchando frente a Treponema Pallidum.

La sífilis tiene tres fases, y si aplicamos el tratamiento durante las dos primeras no hay problema. El verdadero problema lo tenemos cuando estamos ya en la tercera fase, en la cual la bacteria ha invadido el cerebro, y empieza a aparecer la paresia, que es la pérdida de movimientos voluntarios, entre los que se encuentran entre otros la respiración. No me refiero a la respiración habitual, ya que esa es involuntaria, y si no fuera así moriríamos todas las noches, o al menos la primera, pero si por ejemplo nos estamos asfixiando, la respiración en ese momento es voluntaria, y una paresis podría impedirla.

La sífilis también puede afectar al corazón, causando paros cardiácos y a las arterias, pudiendo provocar aneurismas, que dependiendo de la arteria afectada puede ser fulminante.

Aparte de estos efectos graves, puede tener otros efectos realmente desagradables a la vista, y como no es el fin de este artículo, no voy a ponerlo.

Por último recordar que esta Treponema Pallidum se transmite a través de fluidos corporales, siendo una de las más importantes enfermedades de transmisión sexual que existen.

3. Streptococcus Pneumoniae

Se le conoce también como Neumococo, y como su nombre indica es la responsable de muchas de las neumonías que se producen diariamente, pero además de eso, es también la responsable de la meningitis bacteriana. La meningitis no es más que la inflamación de las meninges, tres membranas que recubren el cerebro, a saber: Piamadre, Duramadre y Aracnoides. Pues bien, la inflamación de las meninges puede tener un origen vírico, bacteriano, o incluso una simple infección por alguna toxina.

Lo más curiosos es que un número apreciable de Straptococcus Pneumoniae está presente en nuestro organismos, tal y como pasaba con el Staphylococcus Aureus, y el sistema inmune puede controlarlos, pero cuando se produce algún tipo de inmunodepresión, esta bacteria se convierte en una de las más letales que existen.

2. Mycobacterium Tuberculosis

También conocida como Bacilo de Koch debido a que fue descubierta por Robert Koch, recibiendo el premio Nobel en 1905.

Tal y como podemos deducir por su nombre, es responsable de la mayoría de casos de Tuberculosis, sin duda una de las enfermedades con más “historia”, y a la que podemos encontrar también con el nombre de Tisis. En cualquier caso, todas las tuberculosis están producidas por micobacterias de distinto tipo.

Como curiosidad se puede reseñar que en las espinas dorsales de momias del antiguo Egipto se han encontrado Mycobacterium Turberculosis, de manera que parece ser un compañero de viaje del ser humano desde hace mucho tiempo.

En 2007, la OMS estimó que existían mas de 13 millones de casos crónicos, más de 9 millones de casos nuevos ese año, y casi 2 millones de muertes relacionadas con esta enfermedad. Lo más curioso es que estos datos hacían referencia a paises desarrollados o en vías de desarrollo, así que habrá que imaginarse qué pasa en los paises del tercer mundo. De hecho, la OMS empezó un programa que va desde 2006 hasta 2015 para salvar 14 millones de vidas que pueden irse por culpa de esta bacteria, para la cual no existe vacuna, y que además tiene la “habilidad” de permanecer duránte un larguísimo periodo en estado latente en los pulmones, para activarse en el momento menos pensado.

1. Escherichia Coli

Esta bacteria es sin duda el organismo procariota más estudiado por el hombre, y cualquiera que haya hecho algunas prácticas de biología relacionada con microorganismos la ha manipulado sin ningún temor.

De hecho es una bacteria que está presente en el intestino de la mayoría de los mamíferos, includo el ser humano, y por tanto, también está muy presente en aguas fecales.

Su función “habitual” en el organismo es actuar como bacteria comensal, formándo parte de la famosa flora intestinal, pero aparte de su función “buena”, puede ser responsable de gastroenteritis, infecciones intestinales, mastitis, septicemia, neumonía, cistitis, peritonitis o síndrome hemolítico-urémico. Vamos, que cuando se pone de malas puede ser una bacteria realmente malvada.

Este cambio se puede deber a la colonización del intestino por otra cepa distinta a la habitual, alimentos en mal estado, beber agua no potable, etc… Podemos decir que cada uno tiene su Escherichia coli y que no se la toquen. Cuando aparece una de estas cepas virulentas los efectos son catrastróficos, y por la gran presencia de esta bacteria en todo el mundo, es sin duda la más letal. Aunque suele ser muy efectivo el uso de antibióticos, ya están apareciendo cepas resistentes. En paises dónde no existe el tratamiento con antibióticos (que son muchísimos) esta bacteria es responsable de un grandísimo porcentaje de muertes.

En definitiva, estamos rodeados de millones de millones de bacterias, las cuales en condiciones normales no deben se suponer un problema, pero ya hemos visto que como se desnivele un poco esta balanza, este planeta pertenece a estos pequeños seres y no a nosotros.

Fuente del artículo: 7 Deadliest Bacteria on Earth
Autor: Michelle Collet
182

Podcast, Podcasting y Podcaster

En las recientes V Jornadas de Podcasting de Barcelona 2010, uno de los temas que más comentarios e incluso discusiones ha creado es el de Radio Vs Podcast, o la mesa redonda de si un programa de radio es un podcast.

Todo lo que he oido en estas charlas, he de decir que me ha hecho replantearme muchas de mis opiniones al respecto, ya que antes de estas jornadasyo era de los que rotundamente pensaba que un programa de radio NO era un podcast. Por todo esto, he decidido crear esta entrada en el blo dónde expondré lo que actualmente pienso de todo este tema.

Vamos a empezar definiendo que es un podcast. Buscando definiciones, veo que la definición más habitual (y casi la única) de podcast es la siguiente:

Es un archivo multimedia, bien sea audio o video, que se distribuye periódicamente a través de sindicación web

Vamos a ir por partes con esta definición:

  1. No se diferencia entre audio o video, es decir, un podcast es ambas cosas, y no se habla de videocast o podcast por separado. De hecho en este punto creo que lo más sensato es tomar la propia clasificación que hace iTunes, diferenciando entre Podcast de Audio y Podcast de Video.
  2. Con esta definición, creo que queda claro que un programa de radio (o televisión), como por ejemplo La Rosa de Los Vientos, Milenio 3, Redes, Gomaespuma, etc, toda vez que es posible recibir estos formatos multimedia a través de una suscripción via RSS, es un podcast. Es decir, debemos admitir que este tipo de programas distribuidos de esta manera SI son un podcast.

Si ahora intentamos encontrar una definición de Podcasting, lo que nos encontramos es que al final, en cualquier sitio que mireis, se acaba confundiendo con la propia definición de Podcast, de manera que yo, por el poder que yo mismo me otorgo, he decidido dar una definición de Podcasting partiendo del hecho de que por simple etimología de la palabra debería referirse a la acción de hacer Podcast. Aquí os dejo mi definición:

Podcasting es la creación de contenidos multimedia, bien sean de audio o video, para ser distribuidos mediante sindicación.

Vayamos de nuevo por partes con esta definición:

  1. Esta definición alude al hecho de crear contenidos multimedia, para ser distribuidos por sindicación. Quizás debería haber incluido un “principalmente” delante de “mediante sindicación”, pero he decidido dejarlo así.
  2. Con esta definición, lo que hacen Podcast como La Rosa de Los Vientos, Milenio 3, Redes o Gomaespuma no puede (o debe) considerarse podcasting, ya que sus contenidos no se hacen para ser distribuidos mediante sindicación, sino que es a posteriori cuando se distribuyen como Podcast, pero la creación de contenidos en estos podcast se hace para ser emitidos por ondas hertzianas, por TDT o por lo que sea, pero su objetivo no es difundirse mediante sindicación.
  3. Si metería en la definición de podcasting a aquellas personas que tienen un podcast que empezó siendo distribuido por sindicación, y que más tarde alguna emisora local o nacional decidió meterlo en su parrilla, pero su creación de contenidos sigue haciéndose pensando en la sindicación.

Para terminar con estas definiciones vamos con el más difícil todavia, la definición de Podcaster, cuya definición oficial es muy difícil de encontrar, de manera que he decidido volver a dar mi propia definición:

Podcaster es la persona que se dedica al podcasting.

Sencilla pero creo que clara. Y de esta definición también puedo sacar las siguientes conclusiones:

  1. Un locutor de radio, como por ejemplo Iker Jiménez, no es un Podcaster, ni hace podcasting, pero sin embargo Milenio 3 SI es un podcast.
  2. Algunos programas de radio, tienen personas ajenas al propio programa que se encargan de quitarle publicidad, pasarlo a mp3 y ponerlo a disposición de todos mediante sindicación. Podríamos pensar que esta persona SI es podcaster, y lleva a cabo podcasting pero adaptando un contenido y no creándolo.

En definitiva, como veis, no es fácil este debate tan manido de radio, podcast y tal, pero yo personalmente he llegado a la siguiente conclusión:

Todo podcaster realiza podcasting para crear un podcast, pero no todo podcast nace como consecuencia de la realización de podcasting por parte de un podcaster.

Toma ya, ahí lo dejo.

Tags:
9

Sombra aquí y sombra allá Pt.1 (Los Ojos)

Este artículo, aunque por el título pueda parecer que trata sobre una canción de Mecano, no es así, Dios me libre, trata sobre el maquillaje, y la ciencia que se esconde detrás de él.
Todo lo que se comenta aquí, está extraido del artículo “The Science of Makeup”, escrito por Christie Wilcox en el blog Observations of a Nerd.

Aunque no nos demos cuenta, el maquillaje ha estado a nuestro alrededor desde hace muchos siglos. Lo primero que se nos puede venir a la cabeza es la civilización egipcia, allá por el año 3000 A.C, pero la realidad es que el maquillaje lleva muchísimo más tiempo entre nosotros. Se sabe que nuestros amigos los Neandertales ya usaban pigmentos para colorearse la piel hace unos 50000 años, y que usaban esos pigmentos para otros menesteres desde hace unos 75000 años. Es muy posible incluso que llevaran estos pigmentos sobre su piel mucho antes de usar ropa (vamos, lo que los neandertales podían considerar ropa y hoy no te pondrías ni muerto).

La opinión general es que el maquillaje hace a la mujer parecer mas joven y hermosa (yo soy de los que opinan lo contrario, prefiero naturalidad, que después te despiertas y te llevas el susto), pero la razón es por qué ocurre esto, por qué esa apariencia de juventud y hermosura cuando están maquilladas. La respuesta está como casi todo en esta vida en el sexo.

El maquillaje ocurre de forma natural, por decirlo de alguna manera, en el reino animal. Por lo general, aunque hay algunas excepciones, las hembras de muchas especies durante su época de celo tienen sus señales características mucho más marcadas. Por ejemplo, si hablamos de aves, lo usual es que la hembra tenga unos colores mucho más atrayentes, mas vistosos, colores que cuando llega el ritual de apareamiento se ven mucho más fortalecidos. Es como si la hembra le estuviera diciendo al macho, “eh, que estoy receptiva”.

Dentro de los humanos, estas señales que se ven en muchos animales son casi imperceptibles para el hombre (claro, es que no nos fijamos en ellas), y necesitan de algo más para llamar la atención, y ahí es dónde entra el maquillaje. Basicamente es una manera que hemos tenido los humanos de adaptarnos a la pérdida de nuestros instintos animales. Estoy seguro de que hace miles de años, esa percepción de la receptividad de la mujer era mucho más agudizada, pero la civilización ha hecho que no podamos verla, y hemos buscado una manera de sustituirla. Por lo general, aunque hay excepciones, es muy difícil saber si la mujer está ovulando.

Aún así, hay muchos estudios que demuestran que el rostro de una mujer es más bello a los ojos de un hombre y/o una mujer durante la ovulación. Si a esto se añade el maquillaje, hace que de verdad, tanto los individuos de un sexo u otro vean a la mujer mucho más atractiva y atrayente.

Hemos hablado antes de los egipcios, que como todos sabemos, o hemos visto alguna vez, eran mucho de usar “lapiz de ojos”. Pues bien hay estudios que demuestran (esto siempre de una manera general, no significa que todos seamos así) que cuando una mujer oscurece sus ojos en relación al resto de la cara, la percepción del hombre hace que la vea muchísimo más guapa y atractiva. De la misma forma, hay estudios que demuestran que si el lapiz de ojos es usado por un hombre, el efecto no es el mismo en la mujer, ya que hace que subconscientemente no asociemos ese rostro con un hombre y si con uan mujer. Es más, podría darse el caso de que un hombre sintiese atracción por otro hombre que tiene los ojos pintados.

Para que veais esto de forma gráfica, os pongo a continuación dos fotografías del mismo hombre, una de ellas maquillado y otra no, para que veais la diferencia:

¿No os parece más femenino el rostro de la izquierda, dónde el contraste entre ojos y piel es mucho mayor que en el rostro de la derecha?¿Incluso no parece más joven el de la izquierda que el de la derecha?

De momento os dejo con esta parte del artículo. En su segunda parte hablaremos de otras partes del cuerpo afectadas por estos efectos como pueden ser los labios.

3

WiTricity o el fin de los enchufes

Revisando algunos blogs de ciencia en el idioma de Shakespeare, me he topado con un artículo escrito en “Blog of Science”, en el cual se habla de Witricity, que es una empresa privada creada por un grupo de investigadores del MIT (Massachusetts Institute of Technology), ese sitio dónde estudian y/o trabajan todos los listos de este mundo, o al menos un porcentaje muy elevado de ellos. Pues bien este grupo investigaba sobre la posibilidad de llavar a cabo algo que hace poco más de 100 años ya rondaba la cabeza de una de las mentes más iluminadas que han existido en este planeta, Nikola Tesla. Tesla, llegó a construir la Wardenclyffe Tower, también conocida como Torre de Tesla, con la cual quería demostrar que se podía mandar información sin el uso de cables (lo que hoy llamamos WiFi), y que también se podía mandar electricidad sin el uso de cables. Esta torre no contó con el apoyo finaciero en la época, ya que nadie quería fomentar la utilización gratuíta de la energía. De todos modos, aunque Tesla la consiguió hacer funcionar alguna que otra vez, fué destruída durante la Primera Guerra Mundial ya que dificultaba el despegue globos de vigilancia.

Pues este grupo de investigación del MIT hace dos años consiguió demostrar que podía enviarse electricidad sin el uso de cables, y viendo el filón, montaron su propia empresa, WiTricity.

El fundamento a grandes rasgos de hallazgo es transmitir ondas magnéticas desde una bobina fuente, con una alta frecuencia, de manera que una bobina receptora que esté en resonacia con la bobina fuente  pueda captar ese campo magnético y  transformarlo en electricidad. Afirman estos señores que no supone un riesgo para la salud, ya que el fundamento es casi el mismo que la transmisión de radio, no son más que ondas magnéticas con una resonancia dada, algo que no tiene porqué afectar a nada, a no ser que tengas la mala suerte de que tu frecuencia de resonancia sea la misma que la de la fuente, si no que se lo digan al Puente Tacoma, aunque esta resonacia era de otro origen.

Pero para que os quede más claro como funciona este invento, y la verdadera de revolución que puede suponer, a no ser que las eléctricas actuales le ponga la zancadilla, os dejo con un video de TED. Podreis ver como enciende un Televisor LCD, un iPhone y lo que creo que es un Nexus One.

Para los que no esteis acostumbrados al uso de TED, en el propio video podeis elegir los subtítulos que quereis que aparezcan. Espero que lo disfruteis y que dejeis vuestros comentarios.

2

El Premio es luchar por ello

Si tomamos el año “natural” podcastférico como el periodo que va desde unos premios bitácoras a los siguientes, está claro que debemos de estar muy orgulloso por lo conseguido.

Hace mas o menos un año, cuando se publicarón las clasificaciones finales de los premios bitácoras 2009 cuya ceremonia de entrega fue en el EBE09 celebrado en Sevilla, aparecíamos en la Clasificación a Mejor Podcast en el puesto 44, y en aquel entonces no exixtía la categoría de mejor Blog de Ciencia, categoría que debe su creación en gran medida a la aparición de muchos blogs científicos en la clasificación de Mejor Blog Cultural.

Hoy se han publicado los finalistas en todas las categorías de los premios bitácoras, y finalmente no hemos conseguido ser finalistas en ninguna de las categorías dónde teníamos posibilidades. En blog de Ciencia quizás nunca debimos de estar tan arriba, pero pasaban las semanas y no había forma de bajarnos de ahí. Aunque fuesemos conscientes de la dificultad, manteníamos la ilusión, peor siendo realistas, ayer mismo mientras grababamos el Pograma 25 de La Buhardilla 2.0, le comentaba a mis compañeros que no ibamos a estar entre los finalistas, que el tercer puesto tenía/iba a ser para Genciencia, ya que por su labor de divulgación de la ciencia se lo merecía más que nosotros. Finalmente a ocurrido lo que tenía que pasar, y son finalistas Amazings.es, Física en la Ciencia Ficción y Genciencia. Cualquiera de los tres se lo merece, y nosotros solo podemos estar agradecidos no solo a ellos tres sino a TODOS los blogs de ciencia, los cuales no sirven de fuente a la hora de encontrar el matería necesario para nuestro podcast.

Por otro lado, la clasificación del mejor podcast nos llena mucho más de orgullo, ya que hemos logrado estar siempre entre los 10 primeros, y teniendo en cuenta que aquí no se lucha solo con contenido científico, creo que tiene mucho más valor. Finalmente hemos sido sextos, y consideramos esto un auténtico triunfo personal, y por supuesto nos gustaría dar la enhorabuena a Gravina82, Ohhh!TV Podcast y el Podcast de La Aldea Irreductible, y deseamos que gane el mejor, aunque yo personalmente tenga mi favorito.

Solo me queda decir que a todo esto hay que añadir que hemos conseguido ser finalistas en los I Premios de la Asociación de Podcasting que tendrán lugar durante la celebración de las V Jornadas de Podcasting de Barcelona del 29 al 31 de octubre. Vernos rodeados como finalistas a Mejor Podcast de Ciencia por gente como el propio Podcast de La Aldea Irreductible y dos de los innumeables buenos podcast que hacen desde cienciaes.com es algo que da vértigo. Por supuesto nos gustaría ganar, lo contrario sería mentir, pero solo estar ahí, rodeado de esos grandes cracks, ya es de nuevo un triunfo personal de los integrantes de La Buhardilla 2.0.

En definitiva, podemos decir que este año 2009-2010 ha sido un muy buen año para nosotros, dónde hemos podido empezar a ser visbles y a codearnos con gente muy más grande e importante que nosotros, y todo esto se lo debemos a nuestros oyentes.

MUCHAS GRACIAS A TODOS

Tags:
3

Demostración sensacionalista y espectacular de un superconductor

Los superconductores son materiales que por debajo de una cierta temperatura (Temperatura Crítica) experimentan unos cambios en sus propiedades eléctricas y magnéticas realmente asombrosa.

Lo normal era que esta temparatura crítica sea tan baja, que había que llegar a temperaturas cercanas al cero absoluto, es decir, cercanas a unos -273ºC. AFortunadamente hace unos años se descubrieron lo que se llaman Superconductores de Alta Temperatura, los cuales manifiestan estas propiedades a temperaraturas que eran superiores a 90 K, que traducido a la escala centígrada equivaldría a unos 183ºC bajo cero, que aunque no parezca que haya mucha diferencia, esta diferencia es esencial a la hora de poder buscarle aplicaciones reales a estos materiales, ya que para manifestar las propiedades superconductoras de este tipo de materiales, nos serviría usar para enfriarlo simple nitrógeno líquido, que tiene un punto de ebullición de unos 77 K (196 ºC).

Para resumir un poco estas propiedades de los superconductores, digamos que tienen dos propiedades fundamentales:

  • Por debajo de su temperatura crítica, su resistencia eléctrica es cero, es decir, podría ser un conductor infinito, es decir, transmiritían energía sin conllevar ningún gasto energético. En la realidad esto no es completamente así, ya que el número de electrones superconductores es finito, y llega un momento en el que empiezan a disipar la corriente eléctrica.
  • De la misma forma, por debajo de su temperatura crítica, no permiten la entrada del flujo magnético en su interior. De manera gráfica, lo que ocurre con el campo magnético es lo siguiente:

Vemos como por debajo de la Temperatura Crítica (Tc), el campo magnético no es capaz de penetrar por el cuerpo del material.

Pues bien, sin querer ahondar mucho más en los materiales superconductores, porque ya sería meternos en física cuántica y hablar de los condensados de Bose-Einstein y otros lios varios, he encontrado en Naked Scientist el siguiente video dónde se nos muestra de una manera muy espectacular (y sensacionalista por qué no decirlo) uno de los efectos más increibles de este tipo de materiales, el denominado Efecto Meissner.

Pinchad en este enlace, y podreís ver in situ el Efecto Meissner en toda su plenitud. Esperemos que lo disfruteis.