Cuéntame un cuento...

...o una historia, o una anécdota... Simplemente algo que me haga reir, pensar, soñar o todo a la vez, si cabe ..Si quereis mandarme alguna de estas, hacedlo a pues80@hotmail.com..

sábado, marzo 21

Venenos animales con poderes curativos

(Un texto de Miguel Barral leído el 22 de enero de 2021 en bbvaopenmind.com)

A primera vista resulta chocante la noticia de que el veneno de una tarántula podría ser una alternativa a potentes analgésicos como la morfina. Pero aunque esa no sea una vía muy conocida —y tampoco aún muy explotada—, ya hace décadas que la ciencia estudia los venenos animales como una potencial fuente de nuevos medicamentos. El primero aprobado para su uso en humanos, en 1981, fue el captopril: un compuesto para el tratamiento de la hipertensión, desarrollado a partir de una molécula identificada en el veneno de la serpiente Bothrops jararaca. 

Para que la naturaleza siga asombrándonos con estas nuevas ideas para luchar contra el dolor y la enfermedad, es imprescindible proteger la biodiversidad. La sostenibilidad del planeta y la de la industria farmacéutica —dispuesta a aprovechar esta nueva fuente de inspiración e innovación— confluyen con la curiosidad científica por conocer mejor a estas temidas (y muchas veces delicadas) especies. 

De la serpiente a la farmacia

Hasta ahora solo se han aprobado 11 compuestos derivados de venenos animales para su uso como medicamentos en humanos. Uno de ellos es la batroxobina (también conocida como reptilasa), una enzima proteasa presente en el veneno de la serpiente Bothrops moojeni y otras especies del género Bothrops. Esta toxina es la base de tratamientos para la trombosis y el infarto de miocardio, y su uso como medicamento fue aprobado en Japón en 1989. 

El veneno de estas serpientes produce hemorragias letales en sus presas, normalmente roedores y otros pequeños mamíferos y pájaros, además de ranas, lagartos o tarántulas. Por purificación y aislamiento, a partir del veneno de serpientes vivas, se empezó a obtener la batroxobina como principio activo para uso médico. Esto es poco habitual en la industria farmacéutica; lo normal es que los fármacos sean análogos sintéticos (debido a que la fuente animal es limitada). Y este proceso suele finalizar con el uso de moléculas derivadas del compuesto original, en las que se han introducido algunas modificaciones para optimizar su efectividad o selectividad, para eliminar su posible toxicidad y para facilitar su administración y entrada en el cuerpo humano. En el caso de la batroxobina, un avance importante para su producción fue recurrir a la síntesis biológica: mediante ingeniería genética se logra que microorganismos como las levaduras fabriquen esa enzima.

Arañas, bacterias y tratamientos cosméticos

Aparte de como medicamentos, los compuestos farmacológicamente activos identificados en los venenos animales tienen otras importantes aplicaciones clínicas: como modelos para sintetizar nuevas moléculas, como herramientas de diagnóstico y también como tratamientos cosméticos. De hecho, en el momento actual la cosmética es el sector que más rédito obtiene de las toxinas animales. El ejemplo más evidente es la toxina botulínica o botox, aislada de la bacteria Clostridium botulinum y cuyas ventas superan los 3.000 millones de dólares anuales

Otro ejemplo menos conocido de aplicación cosmética es la argiotoxina-636, aislada del veneno de la araña Argiope lobata y que inhibe la formación de melanina. Por ello se aplica en el blanqueamiento de la piel y en tratamientos de despigmentación.

Monstruo de Gila, una promesa de gran tamaño

La exenatida es un fármaco sintético derivado de un compuesto identificado en el veneno del monstruo de Gila (Heloderma suspectum), un lento y pesado lagarto de hasta 60 centímetros de longitud que se cree que envenena para defenderse en lugar de para cazar. La exenatida fue aprobada en el año 2005 por la FDA (la agencia de medicamentos y alimentos de EEUU) y en 2009 por la EMA (la Agencia Europea del Medicamento) para el tratamiento de la diabetes tipo 2. En la actualidad, este mismo compuesto está siendo estudiado para su posible aplicación en el tratamiento de pacientes con Parkinson. 

Hasta hace relativamente poco, la mayoría de las toxinas animales estudiadas procedían de los venenos de serpientes o lagartos. El principal motivo —además de que estos venenos son los más conocidos, por su gran letalidad— es que, debido a su tamaño, estos animales producen una mayor cantidad de veneno por ejemplar que otros animales como insectos, artrópodos o arañas. Sin embargo, el relativamente reciente desarrollo de técnicas e instrumentos analíticos cada vez más sensibles ha permitido a los investigadores de este campo volver sus ojos a seres cada vez más pequeños, ampliando con ello en gran medida el catálogo de potenciales candidatos.

Una nueva farmacia en el fondo del mar

El predominio de los reptiles como fuente de medicamentos también es debido a que son animales terrestres, mucho más accesibles que los organismos marinos. Si el estudio farmacológico de los venenos animales es una disciplina muy joven, podríamos decir que está todavía dando sus primeros pasos en el caso de las toxinas procedentes de los innumerables seres venenosos que habitan en los océanos. El ziconotida es el único fármaco derivado de un organismo marino aprobado por las agencias del medicamento para su uso en humanos; recibió luz verde de la FDA en 2004 como tratamiento para el dolor crónico

En concreto se trata de un análogo sintético de una molécula aislada a partir de veneno del caracol marino Conus magus que inhibe el impulso nervioso y la liberación de neurotransmisores en el tálamo, donde se aloja el centro responsable del dolor. La ziconotida está considerado un analgésico muchísimo más potente que la morfina; y su principal ventaja frente a esta y otras sustancias opiáceas es que no genera dependencia ni tolerancia.

La potencia neurotóxica de los venenos de estos caracoles marinos con concha cónica ya era conocida por los naturalistas. La mayor parte de estas especies no representan un gran riesgo para los humanos —son pequeñas y se alimentan sobre todo de gusanos—; pero sí son peligrosas las de mayor tamaño, que se alimentan de peces —a los que paralizan instantáneamente con su veneno— y que pueden llegar a matar a humanos. Una de ellas, Conus geographus, se conoce popularmente como caracol cigarrillo, debido al dicho de que tras recibir su arponazo “la víctima solo tiene tiempo para fumar un cigarrillo antes de morir”. Al margen del humor negro y de la exageración, sí que hay que advertir del riesgo letal que conlleva recolectar sus tremendamente atractivas conchas, al alcance de la mano en playas y arrecifes tropicales.

Tarántulas como nuevo icono de la biodiversidad

En abril de 2020, investigadores australianos anunciaron que habían diseñado un fármaco analgésico a partir de una molécula aislada del veneno de la tarántula Cyriopagopus schmidti. A falta de superar los ensayos clínicos, es otra prometedora alternativa a los tratamientos opioides para el dolor crónico, al no provocar ni la dependencia ni los habituales efectos secundarios asociados a aquellos, como las náuseas. 

Es uno de los últimos ejemplos de posibles medicamentos encontrados en venenos animales. Un campo de investigación que apenas ha comenzado a dar sus primeros frutos y cuyo mayor valor no es que encuentre nuevos compuestos con actividad farmacológica, sino que en muchos casos son novedosos. Es decir, con un mecanismo de acción distinto al de los medicamentos habituales. Los venenos son mezclas ricas en proteínas, péptidos y neurotransmisores que atacan a las presas o enemigos interfiriendo en rutas metabólicas de su organismo o en reacciones bioquímicas de sus células. En el caso de esta tarántula, los investigadores han descubierto en su veneno “una mini-proteína, la huwentoxina-IV, que bloquea los receptores de dolor en el cuerpo humano”.

Y estos ejemplos son una poderosa razón más para preocuparnos y proteger el medioambiente y garantizar la sostenibilidad de los frágiles ecosistemas que conviven con nosotros en el planeta. Quién sabe si en ellos, y en alguno de sus venenosos habitantes, se encuentra el remedio para dolencias actualmente irreversibles; o incluso, para próximas pandemias.

Etiquetas:

viernes, marzo 20

Siete fármacos que sorprendieron a sus creadores

(Un texto de Beatriz Guillén y Javier Yanes leído en bbvaopenmind.com el 22 de diciembre de 2021)

En el regulado mundo de los medicamentos, la inversión de tiempo y dinero necesaria para sacar un nuevo fármaco al mercado se ha multiplicado, rondando los 10 años y los casi 1.200 millones de euros. Esta limitación ha llevado a los investigadores a pensar en métodos alternativos para encontrar nuevos usos a viejos fármacos, lo que se conoce como reposicionamiento. Uno de esos caminos es revisar los efectos adversos o secundarios.

Así, el compuesto presente en los inhaladores Ventolín (salbutamol o albuterol), un tratamiento contra el asma, se ha aplicado en forma inyectable para prevenir los partos prematuros, aunque hoy se prefieren otros fármacos más seguros. El arsénico, el famoso veneno, se utiliza como tratamiento contra la leucemia. Hacemos un repaso a los casos en los que el efecto encontrado por casualidad ha dado más repercusión al medicamento que el propósito original.

La casualidad de uno de los fármacos más vendidos del mundo: Sildenafil (Viagra)

El reciclaje de viejos fármacos para nuevos usos llega incluso a uno de los más vendidos de todos los tiempos. La viagra no fue concebida como el tratamiento para la disfunción eréctil que logró facturar mil millones de dólares anuales en sus dos primeros años de comercialización, sino como un medicamento para tratar la hipertensión. A mediados de los noventa, en Reino Unido, la farmacéutica Pfizer comenzó los ensayos clínicos para probar la eficacia del sildenafilo frente a la angina de pecho y la hipertensión pulmonar. Buscaban un fármaco que pudiera relajar los vasos sanguíneos, ya que la angina de pecho estrechaba los vasos que debían llevar la sangre al corazón.

Los resultados fueron decepcionantes. El laboratorio estaba a punto de abandonar los ensayos, cuando algunos voluntarios volvieron para informar de un inusual efecto secundario: el medicamento les ayudaba a tener erecciones más fuertes. En 1996, Pfizer decidió patentar el fármaco. Antes de su lanzamiento comercial en 1998 no había ningún tratamiento oral para la disfunción eréctil, que debía ser tratada mediante una inyección o con un implante protésico. Así, gracias a un tratamiento fallido para la angina de pecho, se descubrió uno de los medicamentos más prescritos del mundo.

De fármaco ‘maldito’ a tratamiento para el cáncer: Talidomida

Si la viagra es un ejemplo del potencial comercial del reposicionamiento, el de la talidomida muestra un caso todavía más radical: el primer y brutal efecto secundario encontrado a este fármaco lo llevó al desastre y, sin embargo, nuevas investigaciones le encontraron otros usos como tratamiento para el cáncer o la lepra. La talidomida fue comercializada por el laboratorio alemán Chemie Grünenthal entre 1957 y 1963 como sedante para calmar la ansiedad, el insomnio, las náuseas y los vómitos en mujeres embarazadas. Se vendió en casi 50 países y solo en Estados Unidos se impidió su distribución, cuando la revisora encargada en la agencia del medicamento (FDA), Frances Oldham Kelsey, desconfió de la información aportada por la compañía, que no incluía resultados sobre su seguridad, y por seis veces se negó a darle el visto bueno a la espera de tener más datos.

En 1962, los médicos pediatras Claus Knapp y Widukind Lenz publicaron un artículo en el que alertaban de la relación entre la ingesta de talidomida durante los primeros meses de embarazo y graves malformaciones en los fetos. Los bebés nacían sin piernas ni brazos y, en ocasiones, también con problemas en órganos internos. Se estima que alrededor de 10.000 niños fueron afectados por este fármaco. Este caso endureció los controles de seguridad necesarios para sacar un fármaco al mercado y es posible que, en parte, el desarrollo de un nuevo medicamento sea hoy tan difícil por lo que sucedió entonces. En EEUU, Oldham Kelsey recibió en 1962 de manos del presidente John F. Kennedy el premio presidencial al servicio civil federal distinguido, el máximo galardón del gobierno para un civil, por haber impedido la comercialización del fármaco.

Sin embargo, medio siglo después, la talidomida . En 1979, se empezó a usar para el tratamiento del síndrome de Behçet (una enfermedad reumática crónica). También se han descrito sus propiedades antiangiogénicas —impedir la formación de nuevos vasos sanguíneos, como los que alimentan los tumores— y se han comprobado resultados favorables en el mieloma múltiple. Eso sí, con nuevas precauciones para evitar que ninguna embarazada vuelva a tomar el medicamento.

Loción sorpresa para la calvicie: Minoxidil (Rogaine)

La búsqueda de tratamientos contra la caída del cabello se remonta al antiguo Egipto, hace 3.500 años. En tiempos de Hipócrates, uno de los padres de la medicina, una receta recomendaba para la pérdida de pelo en las mujeres una fórmula que incluía excrementos de paloma. Desde entonces no ha cesado la aparición de remedios tanto caseros como científicos. Alguno de ellos incluso ha aparecido por casualidad. Es el caso del minoxidil, comercializado como Rogaine para tratar la calvicie.

El minoxidil es un vasodilatador que, en principio, se usaba como un tratamiento para la hipertensión bajo el nombre de Loniten. Durante los ensayos clínicos, se descubrió que algunos pacientes que estaban tomando el fármaco presentaban un aumento del vello corporal, tanto en el cuero cabelludo como en otras zonas del cuerpo. Los doctores etiquetaron esta condición como hipertricosis. Los investigadores de la compañía farmacéutica Upjohn tomaron este efecto secundario y desarrollaron una loción para aplicar directamente sobre el cuero cabelludo para luchar contra la alopecia. En 1988 el Rogaine empezaba a comercializarse por separado.

Un mismo fármaco para la próstata y la alopecia: Finasterida (Propecia, Proscar)

Aunque la finasterida hoy suele estar asociada a los tratamientos contra la calvicie, originalmente fue comercializada como un fármaco contra la hiperplasia benigna de próstata, bajo el nombre de Proscar. En 1992 la agencia estadounidense de medicamentos aprobó su utilización para este propósito y no fue hasta seis años más tarde que el fármaco se reposicionó, con el nombre de Propecia, como un tratamiento para la alopecia. Los investigadores descubrieron que una menor dosis de finasterida (de 5 miligramos en el Proscar a 1) podía pasar de un uso médico a otro cosmético.

En ese momento no había muchos tratamientos orales, ya que la mayoría —como el minoxidil— eran lociones y champús.  Pronto se convirtió en el nuevo fármaco estrella y permitió a Merck, la compañía farmacéutica que fabricaba ambos medicamentos, rentabilizar su inversión con el Proscar, que nunca consiguió el éxito esperado. En 2017 el médico personal del entonces recién elegido presidente de EEUU, Donald Trump, reveló a los medios que este tomaba finasterida, lo que dio un empujón de popularidad al medicamento debido a los muchos comentarios sobre el estilo capilar del político republicano.

El antiviral que cura cuatro tipos de cáncer: Gemcitabine (Gemzar):

La gemcitabina comenzó siendo un posible antiviral contra la hepatitis E para .  Este medicamento fue sintetizado en un laboratorio de la farmacéutica Eli Lilly a principios de la década de 1980. Diez años después los ensayos preclínicos de laboratorio mostraron que podía acabar con las células de leucemia in vitro. Reino Unido fue el primer país donde se empezó a comercializar, en 1995.

En la actualidad la gemcitabina se utiliza como agente quimioterápico para el tratamiento de distintos tipos de cáncer, incluyendo de pulmón, páncreas, vejiga, mama, ovario y testículo. También se está investigando su utilidad para otros tumores como el cáncer de esófago y los linfomas.

Cuando llegó el sida, ya existía el tratamiento: Zidovudina o AZT (Retrovir)

Durante la mayor parte de la década de 1980 el sida era una sentencia de muerte, ya que el recién descubierto virus VIH era letal en casi el 100% de los casos. No fue hasta 1987 cuando se aprobó el primer tratamiento capaz de convertir el sida en una enfermedad crónica y salvar vidas, la zidovudina o azidotimidina (AZT). Pero una vez más, este fármaco no fue el producto de las investigaciones destinadas a crear un tratamiento contra la entonces nueva enfermedad, sino un exitoso ejemplo de reposicionamiento.

En los años 60 se investigaban distintos compuestos para inhibir la síntesis de ácidos nucleicos, ADN y ARN. Dado que tanto los virus como los cánceres necesitan replicar su material genético para reproducirse, estos fármacos tenían usos potenciales como tratamientos contra el cáncer y las enfermedades infecciosas. Uno de estos compuestos estudiados fue el AZT, creado en 1964 por Jerome Horwitz en el Instituto Karmanos de Detroit.

Inicialmente el AZT fue desechado cuando se observó que no servía contra el cáncer en ratones. En 1974 se descubrió que el fármaco actuaba contra el retrovirus de la leucemia murina, pero esto despertó poco interés, ya que aún no se conocían retrovirus humanos. Todo cambió con la llegada del sida: en 1985 el AZT fue uno de los compuestos ensayados contra el primer retrovirus humano. Los magníficos resultados de laboratorio impulsaron un ensayo clínico que finalmente llevó a la aprobación del medicamento solo 25 meses después de las primeras observaciones in vitro. Hoy el AZT continúa utilizándose contra el sida en combinación con otros antirretrovirales.

Nuevos usos para el medicamento más viejo: Ácido acetilsalicílico (aspirina)

No puede decirse que la popularidad de la aspirina haya necesitado otros usos distintos al original. Pero sí que la aparición de nuevos compuestos con propiedades similares la hizo caer en declive, hasta que el descubrimiento de nuevas indicaciones ha llegado a convertirla casi en un comodín para la medicina.

Los orígenes de la aspirina se remontan a hace casi 4.000 años. En Sumeria y el antiguo Egipto se utilizaba la corteza del sauce (género Salix) para calmar el dolor. Basándose en este conocimiento tradicional, en 1763 Edward Stone investigó su uso contra la fiebre, y en 1828 Johann Buchner extrajo de la corteza un principio activo, salicina. De él se obtuvo el ácido salicílico, que a su vez en 1853 Charles Frédéric Gerhardt transformó en ácido acetilsalicílico. En 1897 la compañía Bayer comenzó a investigar sus propiedades, y al filo del cambio de siglo había nacido la aspirina. El resto, como suele decirse, es historia.

Sin embargo, con el descubrimiento del paracetamol y el ibuprofeno a mediados del siglo XX la aspirina comenzó a perder popularidad. Hasta que de los años 60 a los 80 se descubrió su capacidad anticoagulante. Actualmente se prescribe de forma habitual para prevenir el riesgo cardiovascular en personas propensas, pero también se ha observado que reduce la incidencia y la mortalidad de cánceres esofágicos, gástricos y colorrectales, y posiblemente también de mama, pulmón y próstata. Además se utiliza en el tratamiento de la fiebre reumática, la artritis reumatoide, la pericarditis y la enfermedad de Kasawaki en niños. Se ha estudiado su posible uso en ciertos trastornos mentales, aunque en este caso aún no hay pruebas concluyentes.

Etiquetas:

jueves, marzo 19

Stephen Hawking y la ciencia de los agujeros negros

(Un texto de Javier Yanes en bbvaopenmind.com leído el 12 de marzo de 2021)

Fue el último físico cuyo singular perfil traspasó las barreras de la ciencia para llegar a convertirse, como Einstein, en icono de la cultura popular. Su imagen ha quedado vinculada al campo que captó el grueso de su trabajo, los agujeros negros. Los descubrimientos de Stephen Hawking (8 enero 1942–14 marzo 2018) proyectaron luz en la oscuridad de estos misteriosos objetos astronómicos, pero al mismo tiempo abrieron preguntas que continuarán dando trabajo a los científicos durante décadas.

En la mente del público, los agujeros negros se imaginan como inmensas aspiradoras cósmicas que absorben todo lo que encuentran en su camino, incluso la luz. Una idea evocadora, pero incorrecta: el agujero negro no es ni crea un vacío, sino todo lo contrario; atrae por efecto de la gravedad, al ser tan descomunal la densidad de su masa. Se entiende así que nada deberíamos temer si el Sol quedara sustituido por un agujero negro de su misma masa: aunque nuestro mundo fuera mucho más oscuro, los planetas continuarían orbitando sin inmutarse, precisamente porque la masa del agujero negro sería equivalente a la del Sol.

La existencia de los agujeros negros nace de la relatividad general publicada por Albert Einstein en 1915, y del trabajo posterior de Robert Oppenheimer, Karl Schwarzschild, Subrahmanyan Chandrasekhar y otros. El espacio y el tiempo forman un tejido que se curva con la masa, como una cama elástica. Un agujero negro es una bola tan pesada que tiene en su centro una singularidad, una región tan infinitamente densa que hunde la cama elástica sin fondo. Cualquier objeto que depositemos cerca tenderá a caer hacia la bola, por lo que el efecto gravitatorio del agujero negro se deja notar en su entorno. Así, los astrofísicos han podido identificar muchos de ellos al descubrirse objetos cósmicos orbitando en torno a una aparente nada; ese tirón gravitatorio revela la presencia de algo que por otra parte es del todo invisible.

Estos agujeros negros suelen ser los llamados estelares; se originan tras la muerte de una estrella que ya no puede seguir compensando su enorme gravedad con el flujo que expulsa hacia el exterior, lo que comprime la materia que aún le queda hasta que colapsa formando un agujero negro, de un par de decenas de veces la masa del Sol. Estos son minúsculos en comparación con los que pueden acumular hasta millones de masas solares, los supermasivos que ocupan el centro de muchas galaxias. En el extremo opuesto, existen otros más diminutos que los estelares, microagujeros negros formados en el universo temprano.

El punto de no retorno

Con independencia de su tamaño, todos ellos están rodeados por una frontera invisible llamada horizonte de sucesos, el punto de no retorno más allá del cual nada puede escapar, ni siquiera la luz. Alrededor del horizonte las masas de polvo y gas se aceleran de tal modo por el gigantesco influjo de la gravedad que se calientan y brillan, emitiendo radiación y formando a veces un disco de acreción, el cual permite observar la sombra que el propio agujero negro proyecta sobre el anillo luminoso. Gracias a este efecto, la colaboración de radiotelescopios terrestres Event Horizon Telescope (EHT) logró el 10 de abril de 2019 ofrecer a la humanidad la primera imagen de un agujero negro, que ocupa el centro de la galaxia M87.

En 1974 un estudio de Hawking publicado en Nature sacudía la ciencia del momento al proponer que los agujeros negros no lo eran tanto, ni crecían sin cesar como hasta entonces asumían los físicos, incluido él mismo. Su genialidad consistió en combinar dos mundos tradicionalmente irreconciliables, la relatividad general —la gravedad einsteniana empleada para explicar la formación y evolución de los agujeros negros— y la mecánica cuántica, que describe la naturaleza del mundo subatómico. En sus trabajos anteriores Hawking había mostrado cómo la relatividad llevaba a la singularidad de un agujero negro, pero entonces era necesario abrir el baúl cuántico para explicar lo que allí ocurría.

Según explicaría Hawking en la versión de su teoría para el gran público —formalmente incorrecta en aras de una mejor comprensión, como explicó el físico Ethan Siegel—, la cuántica sugiere la continua creación de pares de partículas-antipartículas virtuales que se aniquilan mutuamente casi al instante. Pero si esto ocurre justo al borde del horizonte de sucesos de un agujero negro, puede resultar que la antipartícula con energía negativa caiga hacia el interior, robando energía del agujero negro, y que su pareja escape al espacio con idéntica energía positiva. Con el tiempo, esto llevaría a la evaporación total del agujero negro sin que nada de materia ni energía escapara de él; si bien, como precisaba Hawking en su estudio, “para un agujero negro de masa solar esto es mucho más largo que la edad del Universo”. En agujeros negros mucho más pequeños sería más rápido, culminando con una explosión final equivalente a “1 millón de bombas de hidrógeno de 1 Mton”, escribía.

La radiación de Hawking

La demostración de Hawking de que los agujeros negros pueden emitir radiación es “su resultado más importante”, apunta a OpenMind Juan Maldacena, físico del Institute for Advanced Study de Princeton que ha aportado grandes contribuciones en teoría de cuerdas y gravedad cuántica. Pero en su día esta radiación de Hawking abrió un auténtico cisma entre físicos relativistas y cuánticos, ya que los segundos encontraban un problema radical: si según la cuántica la información asociada a las partículas nunca se destruye, pero nada de materia ni energía escapa jamás del agujero negro, ¿cómo puede este simplemente desaparecer llevándose dicha información fuera de la existencia?

La radiación de Hawking está ampliamente admitida por la física actual, si bien es casi imposible llegar a medirla y por tanto verificarla: paradójicamente, la expulsan en mayor cantidad los agujeros negros más pequeños e indetectables, mientras que los grandes, aquellos que los astrofísicos pueden estudiar directamente, producen tan poca que es indistinguible. Pero, al menos, en el laboratorio se ha logrado recrear un fenómeno parecido: investigadores del Instituto de Tecnología de Israel Technion han generado análogos de minúsculos agujeros negros que funcionan con el sonido en lugar de la luz y en los que han conseguido demostrar algo similar a la radiación de Hawking. Estos experimentos han confirmado dos predicciones del físico: que la radiación es espontánea –se genera a partir del espacio vacío– y que es estacionaria –no cambia de intensidad con el tiempo.

El “pelo suave” de los agujeros negros

Pero por su parte, la llamada paradoja de la información ha permanecido como la más importante de las preguntas abiertas por el trabajo de Hawking, en opinión de Maldacena. Esta cuestión ha mantenido a los físicos ocupados en el último medio siglo; entre ellos, al propio Hawking, que hasta su muerte buscó sin descanso la teoría capaz de unificar la relatividad general y la mecánica cuántica, una teoría cuántica de la gravedad que describa lo que sucede en los agujeros negros. 

Los últimos trabajos del célebre físico propusieron una solución a la recuperación de información. En los años 70, John Wheeler —quien popularizó el término “agujero negro”— y Jacob Bekenstein afirmaron que “los agujeros negros no tienen pelo”, en el sentido de que “las únicas propiedades que un agujero negro podía tener eran su masa, su carga eléctrica y su momento angular”, detalla a OpenMind el físico de la Universidad de Cambridge Malcolm Perry, colaborador de Hawking. Así, “si observaras un agujero negro no podrías saber nada sobre cómo se formó”, ya que todo el resto de la información se pierde en su interior; por así decirlo, el horizonte de sucesos es una frontera pelada, rasurada de toda información. 

Sin embargo, en 2018 Hawking, Perry y sus colaboradores encontraron un camino teórico para proponer que los agujeros negros pueden tener “pelo suave”, “una colección infinita de propiedades extra que un agujero negro puede tener”, dice Perry. Según expone a OpenMind Marika Taylor, física de la Universidad de Southampton cuya tesis doctoral fue dirigida por Hawking, este metafórico vello “sugiere modos en que los agujeros negros pueden guardar un registro de la información en su superficie, de modo que finalmente se recupera”.

Pero Perry advierte: si bien estas ideas avanzan hacia una posible resolución de la paradoja de la información, no son la última palabra. “Mi visión es que el pelo suave es parte de la resolución de estos rompecabezas, pero no toda; hay que seguir avanzando”, dice. Recientemente han aparecido otros modelos adicionales al del pelo suave. “En el último par de años han llegado interesantes novedades sobre la recuperación de información de los agujeros negros”, añade Taylor. Para Maldacena, estos nuevos avances suponen “hitos importantes en el análisis de la paradoja de la información”.

Según Tom Banks, físico de la Universidad Rutgers que compartió discusiones científicas con Hawking, las aportaciones del británico han sido “la pieza más importante en el avance hacia la comprensión —todavía muy limitada— de la conexión entre la mecánica cuántica y la relatividad general”, dice a OpenMind. Este es un camino que lleva recorriéndose medio siglo y en el que queda mucho por hacer. “El progreso es bueno, pero la escala de tiempo para resolver estos problemas, los más profundos, es larga”, apunta a OpenMind el coautor del estudio sobre el pelo suave Andrew Strominger, de la Universidad de Harvard; “llevamos cien años tratando de entender los agujeros negros. Creo que podremos solucionarlo en los próximos 50”.

Lamentablemente, lo que ya nunca llegará para Hawking es el Nobel, un premio que no se concede a título póstumo y que el científico más popular de su tiempo no llegó a recibir, dado que solo se otorga por resultados de física teórica cuando se verifican experimentalmente. Una última paradoja hawkingiana fue que su colega Roger Penrose recibió el galardón en 2020 por trabajos que en gran parte ambos desarrollaron en colaboración. “El trabajo de Hawking estaba tan adelantado a los experimentos relevantes que la evidencia experimental para avalarlo no estuvo disponible durante la mayor parte de su vida”, apunta Taylor. “Si Hawking aún hubiera estado vivo en 2020, parece probable que hubiera compartido el premio”.

Etiquetas: , ,

miércoles, marzo 18

Siete cosas que una mujer tenía prohibidas hace tan solo 100 años

(Un texto de Elena Zamorano en El Confidencial del 10 de marzo de 2020)

Ellas no lo tuvieron fácil, pero como hoy, se opusieron a las dificultades para ganar algunos de los derechos que disfrutan actualmente y que antes suponían una absoluta injusticia.

Afortunadamente, los movimientos feministas que comenzaron a tomar forma a finales del siglo pasado en España han conseguido que muchos derechos para las mujeres hayan sido conquistados. Una serie de logros colectivos que hoy en día ya nos pueden parecer muy normales, pero que hace un siglo se antojaban como auténticas rarezas de la vida en sociedad. Y no solo eso, sino que su reivindicación estaba perseguida y penada por los tribunales.

Sin ir más lejos, el sufragio femenino, el cual no llegó hasta bien entrado el siglo XX. Nuestro país fuera uno de los primeros del mundo en los que quedó reconocido por las leyes. Aunque en territorio europeo la primera nación que lo aprobó fue Finlandia, en 1907, en España el derecho a voto de las mujeres fue aceptado en la Constitución de 1931, en época de la Segunda República. Y en consecuencia, las primeras elecciones en las que ellas pudieron ejercer su voto fue en las generales de 1933. Años después, llegaría la Guerra Civil y la dictadura franquista, la cual anuló el procedimiento de elecciones (aunque sí que se votó en 1966, pero no de manera democrática ya que había una única opción). Así, los votos libres tanto femeninos como masculinos no se volvieron a ejercer hasta 1976, durante la Transición.

Estos eran los tres requisitos que establecía la ley para poder abrir una cuenta bancaria: ser hombre, mayor de 18 años y tener el DNI en vigor

Son muchos los avances que ha habido en la historia en cuanto a derechos femeninos se refiere. Lo más importante aquí es que no haya un retroceso y volvamos a épocas tan oscuras en las que la desigualdad social entre hombres y mujeres no estaba en el punto de mira ni abierta a las críticas. Hoy, con motivo de la resaca del Día Mundial de la Mujer, vamos a repasar algunos de ellos.

Llevar pantalones

"Cuando yo tenía 12 o 13 años, mi madre llegó a casa con pantalones. Estaban de moda. Pero mi padre le dijo que de ninguna manera se los podía poner, que en esa casa era él quien los llevaba". Este testimonio recogido por la 'BBC', de la poeta nicaragüense Claribel Alegría, es perfecto para demostrar cómo un hecho tan inocente como es llevar esta prenda asociada a los hombres estaba prohibida para las mujeres. En 1915, la feminista puertorriqueña Luisa Capetillo fue arrestada por ponerse pantalones en público en La Habana, lo que da cuenta de lo estrictas que eran las normas de vestimenta en algunos países.

Todo cambió cuando mujeres de fama y renombre empezaron a contradecir a la norma, y con ello extender la práctica al resto de la población. Ese es el caso de Coco Channel, que a partir de los años 20 comenzó a incorporar pantalones en sus colecciones. Otro de los iconos más representativos de este cambio de tendencia es el de la actriz Marlene Dietrich, quien los usó con gran estilo. Desde ella hasta nuestros días, las mujeres se han hecho paso adoptando esta prenda de vestir a su armario y, afortunadamente, este código de vestimenta excluyente apenas existe o, al menos, no da lugar para el debate.

Abrir una cuenta bancaria

Ser hombre, mayor de 18 años y tener el documento de nacionalidad en vigor. Estos eran los tres requisitos que establecía la ley para poder abrir una cuenta bancaria en España. Hace tan solo 40 años, suponía una auténtica utopía que una mujer pudiese ser por sí misma una entidad monetaria. No fue hasta el 2 de mayo de 1975 cuando se aprobó una reforma del Código Civil y del Código de Comercio sobre la situación jurídica de la mujer casada que permitía que este hecho tan rutinario fuera aceptado por parte de la sociedad y las leyes.

Ser soldado

El papel de la mujer en las guerras del pasado fue imprescindible, pero la amplia mayoría no se dedicaban a coger un fusil y salir al frente como los hombres, sino que su misión consistía en atender a los enfermos. No fue hasta principios de la década de 1970 cuando la OTAN empezó a permitir la movilización militar femenina, pero solamente en algunos países pioneros de la organización, como Estados Unidos, Canadá, Dinamarca y Francia. En países tan avanzados actualmente a nivel social como Alemania no alcanzaron un estatus hasta el año 2000.

Aquí, en España, bien es sabido que el servicio militar era obligatorio. Precisamente, fue el expresidente José María Aznar quien lo suspendió en 1996, pero no fue hasta 2001 cuando la nueva ley entró en vigor. Unos años antes, concretamente el 23 de febrero de 1998, se publicó un Real Decreto que permitía que las mujeres accedieran a las Fuerzas Armadas por primera vez en la historia.

Divorciarse

Romper el contrato conyugal no era nada fácil si eras mujer. Debías probar que existía maltrato físico o adulterio, o incluso ambos a la vez, aunque en este caso también eran tachadas de mentirosas, con lo cual no se podía hacer prácticamente nada al respecto. Además, la violación solo estaba definida como "tener relaciones forzadas con alguien que no fuera la esposa", según explica a la 'BBC' Stephanie Coontz, profesora emérita de Historia en el Evergreen State Collage. Actualmente, en España, el divorcio es legal mientras hayan pasado tres meses desde la fecha del matrimonio.

Fumar en público

En la actualidad, hay unas cuantas restricciones sobre los lugares de consumo de este vicio tan extendido entre la población. Pero en el pasado se permitía fumar en cualquier lugar, eso sí, no a todas las personas. En concreto, a todo el mundo menos a quienes fueran mujeres. Aunque en general estaba aceptado que las mujeres fumaran en casa, la sociedad desaprobaba que lo mostraran en público, según informa 'Reader's Digest'. Por ejemplo, en Nueva York se prohibió este acto en 1908. La ley resultó ser muy poco popular, y el alcalde la derogó a las dos semanas.

Comprar sin marido

Al igual que se les impedía el acceso a una cuenta bancaria, como hemos comentado anteriormente, en el siglo XIX las mujeres necesitaban salir acompañadas por su marido para poder comprar en tiendas. Esto cambió a finales de siglo con la llegada de los grandes almacenes, los cuales fueron diseñados para las mujeres al estar concebidos como un lugar propicio para socializar, reunirse y lo más importante: gastar dinero. Así es como se permitió el acceso a otros espacios y consumos: los restaurantes y teatros comenzaron a abrir sus puertas a mujeres que venían solas. Sin embargo, esta serie de permisos solo estaba reservada a las mujeres de clase alta.

Tener pasaporte para viajar

Hasta la década de 1920, en Estados Unidos las mujeres no podían viajar solas, lo que quiere decir que compartían su permiso para trasladarse con su marido. Esto era un reflejo de la desaprobación que tenía la mayoría al hecho de que una mujer viajase sin su marido. En 1917, una joven llamada Ruth Hale fue la primera en solicitar su pasaporte con éxito. Veinte años después, la ley fue cambiada para que todas pudieran hacerlo. 

Etiquetas: ,

martes, marzo 17

Wade Hampton Frost y el reto casi imposible de contar los muertos de una pandemia

 (Un texto de Francisco Doménech en bbvaopenmind.com leído el 23 de julio de 2020)

La dimensión de la actual pandemia empezó a quedar más patente cuando a finales del pasado mayo la primera potencia mundial, EEUU, superó los 100.000 muertos por la COVID-19. Esa cifra oficial, aún no alcanzada por ningún otro país del mundo, podría ser considerablemente inferior a las muertes reales, según estudios que estiman un 50% más de víctimas mortales en las zonas más afectadas. Mientras en países como España la oposición política acusa al Gobierno de ocultar las verdaderas cifras de muertos, lo cierto es que ese recuento es casi imposible de hacer con precisión.

A factores incontrolables, como los pacientes que mueren sin llegar a ser diagnosticados, se une la propia complejidad de la recogida y el procesamiento de esos datos. Estas dificultades, inherentes a cualquier epidemia, se multiplican en el caso de una pandemia. Y todavía era mucho más complicado hace un siglo, cuando en medio de la pandemia de gripe de 1918 un desconocido funcionario estadounidense encontró un método científico para acercarse a la cifra real de muertos. Por ello ahora empieza a reconocerse a Wade Hampton Frost como uno de los padres de la epidemiología.

Poco se sabe de la vida de Wade Hampton Frost (3 marzo 1880 – 1 mayo 1938) hasta ese momento crucial, salvo que fue el hijo de un médico rural del Interior del estado de Virginia y fue educado en casa por su madre. Tras seguir la vocación paterna y terminar la carrera de Medicina —destacando por sus habilidades matemáticas y de análisis clínico—, ingresó en el Servicio de Salud Pública de EEUU en 1906 y fue enviado a Nueva Orleáns a combatir un brote de fiebre amarilla. Su equipo logró controlar aquel brote, el último de esa enfermedad registrado en EEUU. Tras ese éxito, Frost fue ascendido para trabajar en el Laboratorio Nacional de Salud Pública. Allí se centró en la investigación de los terribles brotes de polio, que repentinamente paralizaban y mataban a niños en una zona concreta, y descubrió que una de las claves de esos brotes aparentemente imprevisibles era que muchos niños podían ser infectados por el virus pero seguir siendo asintomáticos, transmitiendo la epidemia de manera silenciosa.

Un extraño patrón en la gripe más virulenta

En ese trabajo seguía Wade Hampton Frost cuando en otoño de 1918 el brutal incremento de las muertes por gripe llevó al cierre de escuelas en la costa este de EEUU, a la saturación de hospitales y a un recuento diario de víctimas que copaba los titulares de los periódicos. El elevado número de muertes desbordaba la capacidad de los funcionarios de salud para contarlos, especialmente en las áreas urbanas más pobladas, mientras que la atención médica en las zonas rurales era precaria. Además, el microscópio electrónico aún no había sido inventado: no había manera de detectar algo tan pequeño como un virus, y sin ningún tipo de test diagnóstico, muchos casos de esa gripe especialmente agresiva fueron confundidos con casos de neumonía.

Para registrar el avance de la pandemia en su país Frost y su colega Edgar Sydenstricker diseñaron una gran encuesta nacional de salud. Casa por casa, y siguiendo una muestra estadísticamente representativa, los entrevistadores lograron rellenar unos 113.000 cuestionarios, en los que se recogía la edad y el sexo de todos los inquilinos de cada casa, así como la fecha y duración de cualquier posible caso de neumonía o gripe, ya fuese leve, grave o mortal.

Gracias a esta macroencuesta, Wade Hampton Frost descubrió un extraño patrón de mortalidad en la gripe de 1918. Al contrario que las gripes estacionales, no afectaba más a niños y ancianos, sino que su mortalidad era mucho más elevada en adultos jóvenes (menores de 40 años). Frost fue más allá e inventó un método para analizar los datos de la encuesta, con el empeño de poder saber con más exactitud cuánta gente había fallecido por la pandemia. Podía haber considerado que sus datos de 1918 eran suficientemente precisos, pero decidió compararlos con la mortalidad por gripe y por neumonía de años anteriores, que le sirvieron como base para fijar un patrón de mortalidad “normal” a lo largo del año: 1,5 muertes por cada mil habitantes en una temporada de gripe habitual, frente a las 5,5 registradas en el pandémico otoño de 1918.

El problema de las muertes indirectas

Por primera vez se utilizó el método del exceso de mortalidad, ahora clásico en epidemiología. Según los cálculos de Frost, la diferencia en esa ola de la pandemia fue de 4 muertes más por cada mil habitantes en todo EEUU, un dato que sirvió para evaluar mejor el impacto de la segunda ola de la gripe de 1918 que la cifras oficiales de muertos, dada la diferente fiabilidad de esos datos según las áreas geográficas.

El método de Frost es usado hoy en día, tanto por los centros de Control y Prevención de la Enfermedad de EEUU (CDC) como por su homólogo europeo (el ECDC). La primeras estimaciones del exceso de mortalidad en el inicio de la actual pandemia en EEUU detectaron un 57% más de muertes adicionales que los fallecimientos por COVID-19 confirmados oficialmente. Sin embargo, hay que tener en cuenta que estas estimaciones generales incluyen también muertes indirectamente causadas por la pandemia, como las de personas que sufrieron un infarto y no solicitaron suficientemente rápido asistencia sanitaria por estar confinados; o los pacientes con diferentes dolencias que no pudieron ser bien atendidas en unos hospitales saturados por la pandemia; o quienes fallecieron debido a consecuencias físicas y mentales del distanciamiento social y el confinamiento.

El método del exceso de mortalidad de Frost nos da una medida más precisa del impacto general de una pandemia, frente a los imperfectos sistemas para recontar los fallecidos por la enfermedad. “No vamos a saber el verdadero número de muertes por COVID-19 hasta que se asiente la polvareda”, explicó recientemente a National Geographic el epidemiólogo Daniel Weinberg, de la Universidad de Yale. Combinar estadísticamente los datos ambos métodos (número de muertes confirmadas y exceso de mortalidad) durante los próximos años nos llevará a estimar una cifra total de muertos por Covid-19, que será la que finalmente figure en los libros de historia. 

Etiquetas: ,

lunes, marzo 16

El origen del temor a los viernes 13: la maldición que lanzaron los templarios en la hoguera

 (Un artículo de César Cervera en el ABC del 13 de noviembre de 2020)

Antes de ser consumido por las llamas, Jacobo de Molay se dirigió a los hombres que habían perpetrado la caída de los templarios: «Dios conoce que se nos ha traído al umbral de la muerte con gran injusticia. No tardará en venir una inmensa calamidad para aquellos que nos han condenado sin respetar la auténtica justicia».

La aversión al número 13 está fuertemente arraigada en la cultura occidental. En la Última Cena había trece personas (doce apóstoles y Jesús), siendo Judas el traidor, el número 13. En el Apocalipsis, el capítulo 13 corresponde al anticristo y a la bestia. A su vez, la Cábala –una disciplina de pensamiento esotérico relacionada con el judaísmo– enumera a 13 espíritus malignos; al igual que las leyendas nórdicas, donde Loki, el dios de las travesuras, aparece en ocasiones citado como el invitado número 13.

Por otro lado, el viernes según la tradición cristiana es el día que Jesucristo de Nazaret fue crucificado. Algunos estudiosos de la Biblia creen que Eva tentó a Adán con la fruta prohibida un viernes y que Abel fue asesinado por su hermano Caín el quinto día de la semana. Cabe recordar que los siete días de la semana –establecidos en función del tiempo en el que transcurre un ciclo lunar– son definidos por las religiones judeo-cristianas y musulmanas como el tiempo que tardó Dios en crear los cielos y la tierra, y todo lo que hay en ellos.

El viernes, considerado por las razones anteriores un día aciago por la tradición cristiana, coincide entre 1 y 3 veces por año con el número de la mala suerte, el 13, dando lugar a la fecha más «maldita», de la que cine y literatura han dado buena cuenta. No en vano, el miedo por los viernes 13 tiene su epicentro histórico en una fecha que quedó marcada por el misterio y la traición: el viernes 13 de octubre de 1307. En la madrugada de este día, el Rey francés Felipe IV inició una brutal persecución contra la Orden de los Caballeros Templarios que provocó el arresto masivo de sus miembros.

Felipe IV persuadió al Papa Clemente V para que iniciase un proceso contra los templarios acusándolos de sacrilegio a la cruz, herejía, sodomía y adoración a ídolos paganos a través de la práctica de ritos heréticos. Especialmente humillante –bajo el prisma de la época– era la acusación de practicar actos homosexuales entre los caballeros de la Orden del Temple, que vivían a medio camino entre la austeridad de un monje y las exigencias de un guerrero. Se trataban de falsedades sin base alguna para ocultar las verdaderas causas que tenían más bien que ver con lo económico.

El Rey de Francia –donde los templarios vertebraban la mayor parte de la influencia y el patrimonio adquiridos durante las Cruzadas– coaligado con el papado y los dominicos ambicionaban acabar con la poderosa y acaudalada orden militar, convertida en el principal prestamista de la Corona francesa y de otros países europeos.

Las calumnias se convierten en acusaciones

Clemente V, pese a ser francés y antiguo arzobispo de Burdeos, mostró inicialmente su oposición a la guerra que Felipe IV pretendía desencadenar contra los templarios, puesto que necesitaba de su ayuda militar para iniciar una nueva cruzada en la zona de Palestina. Sin embargo, la negativa del último gran maestre, Jacques de Molay al proyecto Rex Bellator –impulsado por la Corona de Aragón para fusionar todas las órdenes militares bajo un único rey soltero o viudo– predispuso al Papa en contra de la Orden.

En 1307, Jacobo de Molay, secundando los deseos papales de Cruzada, llegó a Francia para reclutar tropas y abastecerse de vituallas. A su paso por el país escuchó las calumnias propagadas contra su Orden por el Monarca francés. Para ello se sirvió de las acusaciones de Esquieu de Floyran, un espía al que Jaime II de Aragón había expulsado de su corte por verter falsedades contra los templarios pero que fue recibido con los brazos abiertos por el Rey galo, deseoso de provocar su caída a cualquier precio.

Ofendido por la campaña de desprestigio contra la Orden del Temple, Jacobo de Molay acudió ante el Papa solicitando un examen formal para desacreditar las burdas calumnias. Accedió Clemente V a sus deseos y así se lo comunicó al Monarca francés por carta del 24 de agosto de 1307. Pero Felipe IV, quien había intentado entrar sin éxito entre las filas templarías cuando se quedó viudo, no estaba dispuesto a dilatar el asunto y cerró el puño sobre su presa. Aconsejado por su ministro Guillermo de Nogaret, Felipe IV despachó correos a todos los lugares de su reino con órdenes estrictas de que nadie los abriera hasta la noche previa a la operación: el jueves 12 de octubre de 1307. Los pliegos ordenaban la captura de todos los templarios y la requisa de sus bienes.

El 12 de octubre de 1307, a la salida de los funerales de la condesa de Valois, el maestre Molay y su séquito fueron arrestados y encarcelados. Durante la madrugada del viernes 13, la mayoría de los templarios franceses siguieron la misma suerte y sus bienes confiscados bajo pretexto de la Inquisición. La resistencia militar fue mínima a causa de la avanzada edad de los guerreros que permanecían en Francia. Los jóvenes se encontraban preparando la inminente cruzada en la base de Chipre.

Para mitigar el escándalo, el Rey publicó un manifiesto donde involucraba al Papa en la decisión. Cuando Clemente V se enteró de la detención, reprendió al Monarca y envió dos cardenales, Berenguer de Frédol y Esteban de Suisy, para reclamar las personas y bienes de los encausados. Tras pactar con el Papa las condiciones del proceso, Felipe IV consiguió la facultad de juzgar a los miembros franceses de la Orden del Temple y administrar la mayoría de sus bienes. No obstante, el proceso fue del todo irregular. Sin ir más lejos, los templarios habían de ser juzgados con respecto al Derecho canónico y no por la justicia ordinaria de Francia. Asimismo, Guillermo de Nogaret –mano ejecutora del Rey– estuvo bajo la excomunión formal de la Iglesia desde el principio hasta el fin de los procesos.

Una amenaza, que resultó ser una profecía

Por medio de la tortura, la Inquisición obtuvo las declaraciones que deseaba, incluso del Gran Maestre, pero estas confesiones fueron revocadas por la mayoría de los acusados posteriormente. Mientras el Papa tomaba una decisión definitiva sobre la Orden y el futuro del Gran Maestre, un goteo de templarios fue pasando por la hoguera en medio de un sinfín de irregularidades y del recelo del pueblo llano. En 1314, Jacobo de Molay, Godofredo de Charney, maestre en Normandía, Hugo de Peraud, visitador de Francia, y Godofredo de Goneville, maestre de Aquitania, fueron condenados a cadena perpetua, gracias a la interferencia del Papa y de importantes nobles europeos, pero sus propias convicciones les acercaron al fuego. 

Encima de un patíbulo alzado delante de Notre-Dame, donde se les comunicó la pena, los máximos representantes de la orden renegaron de sus confesiones: «¡Nos consideramos culpables, pero no de los delitos que se nos imputan, sino de nuestra cobardía al haber cometido la infamia de traicionar al Temple por salvar nuestras miserables vidas!». El desafío de los líderes templarios, rompiendo lo pactado, les condenó a muerte.

Aquel mismo día, se alzó una enorme pira en un islote del Sena, denominado Isla de los Judíos, donde los cuatro dirigentes fueron llevados a la hoguera. Según se cuenta entre el mito y la realidad, antes de ser consumido por las llamas, Jacobo de Molay se dirigió a los hombres que habían perpetrado la caída de los templarios: «Dios conoce que se nos ha traído al umbral de la muerte con gran injusticia. No tardará en venir una inmensa calamidad para aquellos que nos han condenado sin respetar la auténtica justicia. Dios se encargará de tomar represalias por nuestra muerte. Yo pereceré con esta seguridad». Fuera real la frase o un adorno literario añadido posteriormente por los cronistas, la verdad es que antes de un año fallecieron tanto Felipe IV como Clemente V.

En el resto de Europa, la persecución templaria no fue tan violenta y sus miembros fueron absueltos en la mayor parte de los casos. Sus bienes, no en vano, fueron repartidos entre la nobleza o integrados en otras órdenes militares como la de los Hospitalarios.

Etiquetas:

domingo, marzo 15

El aislamiento social, tan duro para el cerebro como el hambre

(Un texto de Judith de Jorge leído en ABC Ciencia el 26 de noviembre de 2020)

Un experimento demuestra que la soledad obligada durante apenas diez horas activa las mismas áreas cerebrales que un ayuno

La pandemia del SARS-CoV-2 ha demostrado la necesidad imperiosa de comunicación de los seres humanos. Aislados en nuestros hogares por el confinamiento o por el miedo al virus, hemos recurrido a las plataformas de videollamadas o a las redes sociales como un náufrago lo hace a una tabla de salvación, aunque en este caso fuera virtual. Investigadores del Instituto Tecnológico de Massachusetts (MIT) en Cambridge (EE.UU.) han estudiado cómo se representa en el cerebro ese anhelo de contacto social y han descubierto que, pasadas apenas diez horas de soledad, los individuos responden a la falta de relaciones sociales de la misma forma que ante un ayuno. La necesidad de compañía y la de alimento activan la misma área cerebral, aseguran.

En un curioso experimento, los investigadores pidieron a un grupo diverso de adultos de entre 18 y 40 años que pasaran diez horas en una habitación de un laboratorio sin ningún contacto social. Después, sus cerebros fueron escaneados mientras observaban imágenes de sus actividades sociales favoritas. Otro día, se solicitó a las mismas personas que ayunaran durante toda la jornada. Igualmente, al terminar se escanearon sus cerebros mientras veían fotos de sus platos favoritos.

Sustancia negra

Los investigadores analizaron específicamente una región del cerebro: la sustancia negra, perteneciente a los ganglios basales, considerado el núcleo de nuestro sistema de motivación. «Encontramos que esta área del cerebro respondió de manera similar después del ayuno y después del aislamiento: cuando las personas estaban aisladas, la sustancia negra mostraba una mayor actividad en respuesta a las imágenes de otras personas (y no a los alimentos), pero cuando estaban en ayunas, mostraba mayor actividad en respuesta a imágenes de comida (y no a imágenes sociales)», explica a este periódico Livia Tomova, del departamento de Ciencias Cerebrales y Cognitivas del MIT. La cantidad de actividad que el equipo encontró en la sustancia negra se correlacionó con cuántas ganas decían las personas que tenían de comida o contacto social.

Después, los investigadores utilizaron un algoritmo de aprendizaje automático para identificar cómo se ven las señales neuronales de una persona hambrienta que mira imágenes de alimentos. A continuación, «mostraron» al algoritmo las señales cerebrales de una persona solitaria mirando imágenes de otras personas y preguntaron a la inteligencia artificial si podía diferenciarlas de las señales de control. Lo hizo a la perfección. «Esto sugiere que existe una firma neuronal compartida entre el deseo de comida y el deseo de contacto social», afirma la investigadora.

«Nuestros resultados apoyan la hipótesis de que en nuestro cerebro el hambre, una de las necesidades humanas más básicas, y la soledad están representadas de formas muy similares. Esto sugiere que conectarse socialmente también podría ser una necesidad humana básica», concluye Tomova.

Salud mental ante el Covid-19

El aislamiento ha sido una de las medidas adoptadas contra el Covid-19 en muchos países, pero el estudio, publicado en «Nature Neuroscience», sugiere que nuestro cerebro es muy sensible a esa experiencia. «En tiempos de distanciamiento social, es posible que debamos prestar especial atención al bienestar y la salud mental de los ciudadanos que tienen que pasar tiempo en aislamiento», apunta la investigadora.

Como recuerda, «si bien muchos están con sus familias o se mantienen conectados a través de las redes sociales, no todos tienen la posibilidad de hacerlo. Algunos viven solos y tienen un acceso restringido a las tecnologías digitales. Esas personas pueden experimentar una versión muy extrema del distanciamiento social que podría afectar su salud mental». 

Etiquetas: