Cuéntame un cuento...

...o una historia, o una anécdota... Simplemente algo que me haga reir, pensar, soñar o todo a la vez, si cabe ..Si quereis mandarme alguna de estas, hacedlo a pues80@hotmail.com..

sábado, mayo 31

¿Qué diablos es el mal?



(Un artículo de Daniel Méndez en el XLSemanal del 30 de marzo de 2008)

Filósofos, teólogos y científicos han buscado a lo largo de la historia una definición.
Si para Platón el mal era la ignorancia y según Santo Tomas, una «privación de perfección», para Spinoza se trataba de una cuestión 'opinable' que a cada cual correspondía definir. Lutero, en cambio, creía que «a veces uno debe cometer un poco de pecado para contener al diablo». 

La neurociencia ha sido capaz de Identificar la maldad: la amígdala del cerebro -relacionada con las emociones- de una persona 'normal' muestra una intensa actividad cuando se le muestran imágenes de violencia. En los psicópatas, por el contrario, la resonancia permanece negra en dicha región; es decir, no reacciona porque no siente nada al ver las imágenes. 

No todo aquel que ante el dolor ajeno o el sufrimiento de otros muestra una baja actividad límbica (la zona relacionada con el aprendizaje, los sentimientos y la memoria) es un potencial asesino en serie. Ni mucho menos. Es más, se trata de una característica apropiada en ciertas profesiones como bomberos o policías. El interrogante continúa, por lo tanto, abierto...

viernes, mayo 30

El efecto Lucifer



(Un artículo de Daniel Méndez en el XLSemanal del 30 de marzo de 2008)

Su vecino podría ser un torturador... Incluso usted mismo podría serlo. Eso es lo que concluye el afamado catedrático de psicología Philip Zimbardo en su último estudio. ¿Cree que no? […] Todo comienza con un juego 'inofensivo' entre 24 alumnos de la Universidad de Stanford...

Hace poco más de tres años, millones de espectadores contemplaban con horror las imágenes de los abusos en la cárcel de Abu Ghraib, en lraq. Entre ellos, el catedrático estadounidense de psicología, Philip Zimbardo. Sintió rechazo, repulsa, pero poca sorpresa. Las fotografías de los presos -sometidos a todo tipo de abusos y vejaciones- le eran familiares; hace más de 30 años llevó a cabo un experimento en la Universidad de Stanford. Creó una cárcel ficticia en los sótanos del centro. El objetivo: estudiar el comportamiento de un grupo de 24 voluntarios universitarios; 12 harían de carceleros y 12, de presos. El reparto de roles fue completamente azaroso, pero la selección de los participantes fue escrupulosa: buscaban jóvenes 'normales'. Nada de antecedentes de agresión ni comportamientos sociópatas. A las 24 horas de comenzar el experimento -que ha pasado a formar parte de los manuales universitarios de psicología social- aparecieron los primeros abusos por parte de los 'carceleros'. Muy pronto habían olvidado que aquello era un juego. El experimento tenía una duración prevista de dos semanas, pero se suspendió a los seis días para salvaguardar la integridad física y mental de los participantes; no sólo hubo abusos de autoridad, sino también malos tratos, agresiones físicas y crisis de ansiedad. Todo fue mucho más allá de lo que el propio Zimbardo había previsto... y hubiese deseado. Había puesto en marcha la prueba y, aunque lo veía todo, tardó mucho en detenerla. ¿Arrepentido? «Nunca ves el mal cuando estás en la situación», explica hoy. «Es fácil justificar muchas cosas en un lugar y un momento determinados, donde tus pautas morales se difuminan. Yo mismo me convertí en el 'superintendente' de la prisión y llegué a ser indiferente al sufrimiento», confiesa. Y éste es, precisamente, el núcleo duro de su teoría: todos llevamos un potencial torturador en nuestro interior. Y es relativamente sencillo que salga a la luz. Así lo explica él: «La mente humana nos da el potencial para el bien y el mal; podemos ser santos o pecadores, atentos o indiferentes. Que ese potencial salga a la luz no sólo depende de nosotros, sino de las situaciones en las que nos encontremos».

Nada, pues, de 'manzanas podridas', como dijeron Bush y los altos mandatarios del Ejército: es el propio sistema el que corre el riesgo de convertirse en un cesto echado a perder si se lo descuida. Y descuidos hubo muchos en Abu Ghraib: los responsables no visitaron el centro durante semanas, dejando a unos marines sin formación específica a cargo de la prisión y sus 'huéspedes'; éstos trabajaban, además, en turnos de 12 horas y, cuando descansaban, lo hacían en las propias celdas. Los presos se rebelaron más de una vez y... hubo tiroteos. «Añádele a esto unas autoridades que ordenan a su Policía militar que ‘rompa' a los prisioneros para que confiesen, y ya tienes la receta para el desastre y el abuso», concluye Zimbardo en su último libro, El efecto Lucifer, una actualización de investigaciones y estudios sobre la maldad. Así, había ocurrido lo mismo que años atrás en la, versión ficticia; un grupo de personas, sometidas a una determinada situación, había sacado el 'diablo' que llevaba dentro.

¿Y por qué actuamos mal? Años antes que Zimbardo, el psicólogo Stanley Migram trató de dar respuesta a una pregunta muy concreta. En 1961 era juzgado y condenado en Jerusalén Adolf Eichmann, teniente coronel de las SS durante el régimen nazi. Encargado de la logística de transportes del holocausto, durante el juicio arguyó que él no era antisemita -tenía, de hecho, parientes judíos-, que él «sólo manejaba estadísticas»;- eso sí, en forma de deportados hacia los campos de concentración. Sus últimas palabras, minutos antes de morir ahorcado, condenado por crímenes contra la humanidad, fueron: «Tuve que obedecer las reglas de la guerra y de mi bandera. Estoy listo».

Para ver hasta dónde estamos dispuestos a llegar por obediencia, Migram reunió a un grupo de personas, heterogéneo en cuanto a edad y clase social, para un experimento «sobre memoria y aprendizaje». Los voluntarios harían de maestros, mientras que un compinche  de los investigadores haría de alumno. A los primeros les dijo que estaban participando en un análisis del castigo sobre el aprendizaje y que serían los encargados de suministrar descargas eléctricas crecientes, desde 15 voltios iniciales hasta un tope de 450. Por supuesto, estas descargas eran ficticias. El 65 por ciento de los participantes alcanzó el tope de descarga eléctrica. Todos se detuvieron en algún punto, sí; pero ante la insistencia del investigador, todos seguían aplicando una corriente cada vez más fuerte. Y ningún participante se plantó antes de que el supuesto alumno -en realidad, un actor- mostrase ya los estertores previos al coma. La insistencia de una autoridad -el investigador- que los empujaba a continuar con frases como «el experimento requiere que usted continúe», bastó para sacar el Mr. Hyde que todos llevamos dentro; o quizá debiéramos decir el Adolf Eichmann que reside en nuestro interior.

En 2004, la revista Science publicaba el artículo Por qué la gente ordinaria tortura a los prisioneros enemigos. De nuevo, el horror de Abu Ghraib. Junto con dos doctores, Susan T. Fiske, de la Universidad de Princeton, analizó los datos de 25.000 estudios previos, con un total de ocho millones de participantes. ¿La conclusión? «Prácticamente todo el mundo puede ser agresivo si es provocado suficientemente, estresado, desorientado o irritado.»

jueves, mayo 29

Levar anclas



(Un texto de Pancracio Celdrán en el XLSemanal del 23 de agosto de 2009)

Aunque los verbos 'levar' y 'levantar' mantienen afinidad semántica, hay matices que los singularizan cuando se trata de recoger y suspender el ancla de un barco fondeado, acción para la cual el uso echa mano de 'levar', término náutico llegado al castellano a través del francés lever, a su vez del latín levare. Juan de Valdés, en su Diálogo de I lengua (1533), escribe: «Por mejor tengo dezir llevar, aunque no fuese sino porque levar también significa levantar». La polisemia de 'levar’ hace que se relegue su uso al ámbito de la náutica y la milicia: 'levar anclas', 'levar tropas'. En cuanto a levantar el ancla, es acción descriptiva que el lector entiende y que equivale a levarla, ya que en puridad no es levantada sino izada.

Etiquetas:

miércoles, mayo 28

Persona non grata



(Un texto de Pancracio Celdrán en el XLSemanal del 23 de agosto de 2009)

De la persona que nos resulta odiosa decimos que es non grata, latinismo procedente del lenguaje diplomático. En cuanto al sintagma 'non grato', no es ni latín ni castellano. En latín seria non gratus y en castellano, no grato. En tales casos hay que añadir al sintagma el sustantivo ‘persona': persona non grata; en plural lo diríamos también en latín: personae non gratae. En ningún caso podemos incluir en la misma frase elementos lingüísticos latinos y elementos procedentes del castellano.

Etiquetas:

martes, mayo 27

Siete enigmas matemáticos que valen un millón de dólares

(Un texto de Rocío P. Benavente en elconfidencial.com del 30 de enero de 2014)

Cuenta la leyenda que Alfred Nobel no contempló en su testamento la creación de un premio para los matemáticos porque el amante de su mujer era un matemático y les tenía algo de manía. Lo únco cierto de esta historia, sin embargo, es que efectivamente no existe un premio Nobel de Matemáticas. Por lo demás, lo cierto es que Nobel nunca llegó a casarse.

A falta de un Nobel, la Unión Matemática Internacional concede cada cuatro años la Medalla Internacional para Descubrimientos Sobresalientes en Matemáticas, o Medalla Fields. No es nada fácil ganar una: como decimos, se otorga cada cuatro años y solo a matemáticos menores de 40 años que hayan logrado avances fundamentales en la disciplina. Su prestigio, obviamente, es enorme.
Cada vez que un equipo logra un avance significativo en uno de los problemas, lo publica de forma que toda la comunidad lo compruebe, lo valide y lo incorpore a sus desarrollos. Más que el reconocimiento, es una carrera por el progreso colectivo de las MatemáticasUna de las formas de obtenerla automáticamente es dar con la solución para uno de los llamados Problemas del Milenio, los siete enigmas matemáticos que el Instituto Clay enunció en el año 2000 como los más importantes por resolver en la disciplina. Una Medalla Fields y un millón de dólares como recompensa se otorgarán al que consiga resolver cada uno de ellos. De eso hace ya 14 años y, oficialmente, solo uno ha sido resuelto (aunque puede que la respuesta parcial a otro haya sido también formulada recientemente).

Y no será porque no se intenta: matemáticos de instituciones de todo el mundo trabajan en estos problemas, incluidos muchos españoles. Cada vez que un equipo logra un avance significativo, lo publica de forma que toda la comunidad lo compruebe, lo valide y lo incorpore a sus desarrollos. No se trata solo de reconocimiento personal, esto es una carrera colectiva por el progreso de las matemáticas.

Pero se trata de una carrera con muchos obstáculos porque son cuestiones muy complejas, que involucran a muchas áreas de la disciplina al mismo tiempo y requieren de años de investigación.
En Teknautas hemos contado con la ayuda de Eduardo Sáenz de Cabezón, profesor de Matemáticas y Computación de la Universidad de la Rioja (y un magnífico divulgador, así lo demuestran sus monólogos científicos como parte de The Big Van Theory) para explicar, uno a uno y para todos los públicos, cuáles son estos Problemas del Milenio y por qué, si consigues resolverlos, merecerás sin duda un millón de dólares.

1. El problema de P vs. NP

"El problema de P vs. NP trata, básicamente, de saber si hay problemas intrínsecamente difíciles o simplemente es que no hemos dado con una buena forma de resolver cualquier problema", explica Sáenz de Cabezón.


Comencemos por lo básico: ¿qué es un problema? Se considera un problema a la relación entre un conjunto de entradas (o instancias) y un conjunto de salidas (o soluciones). La especificación del problema, es decir, sus instrucciones, nos dice cómo debe ser esa relación.

Se llama conjunto de problemas P a aquellos para los que existe un modo eficiente (conocido y con una serie de pasos determinada) de encontrar una solución. El conjunto de problemas NP, por su parte, está formado por aquellos para los que existe un método eficaz de verificar que una respuesta es, efectivamente, una solución.

Si se puede encontrar una solución fácilmente, entonces se podrá verificar fácilmente. Eso quiere decir que los problemas que forman parte del grupo P, también forman parte del grupo NP. Lo que no se sabe es si dentro de NP hay problemas que no estén dentro de P.

A simple vista, los matemáticos consideran que la respuesta es sí, que el conjunto NP contiene problemas que no están en P, pero desde que los matemáticos Stephen Cook y Leonid Levin plantearon este problema en 1971, nadie lo ha podido demostrar.

2. La conjetura de Hodge

"La conjetura de Hodge es el problema de representabilidad de clases de homología para variedades complejas. Esto probablemente no le dice nada a nadie que no sea matemático y esté metido en alguna de las áreas a las que afecta esta conjetura", reconoce Sánz de Cabezón, antes de comenzar su explicación.

La primera característica de este problema, planteado por el escocés William Hodge como resultado de sus trabajos en los años 30 y 40, es precisamente que afecta a varias áreas de las matemáticas. Otra es que, a diferencia del anterior problema, no hay una idea muy clara sobre si la conjetura es cierta o no, y nadie sabe por dónde puede venir la solución.

Para explicar esta cuestión, hay que remontarse a la Antigüedad. Desde los griegos, las matemáticas se han construido basándose en varios conceptos fundamentales. Dos de ellos son la generalización y la abstracción, que muchas veces van de la mano.

Según avanzaba la comprensión de la lógica que rige las matemáticas, los estudiosos fueron utilizando clases de números cada vez más generales: los naturales (para contar), los enteros (que incluyen a los negativos), los racionales (que incluyen las fracciones), los reales (que incluyen aquellos con infinitos decimales), los complejos (que incluyen raíces cuadradas de números negativos), y otras aún más elaboradas. Cada una de esas clases engloba a todas las anteriores.
El estudio de las formas, la geometría, también se generalizó. Este tratamiento cada vez más abstracto facilita que haya herramientas para tratar números y formas de manera conjunta, viéndolos a ambos como variaciones de entidades aún más abstractas. Cuando las cosas se ponen muy generales, surgen conceptos como las variedades complejas o la homología de esas variedades. Estas abstracciones sirven para describir de una vez objetos muy diferentes, para comprenderlos mejor y hacer cálculos con ellos.

La conjetura de Hodge, de ser cierta, probaría que hay un camino a un nivel muy profundo entre muchas ramas de las matemáticas que, hasta ahora, parecen conectadas solo parcialmente"Demostrar la conjetura de Hodge probaría que hay un camino a un nivel muy profundo entre muchas ramas de las matemáticas que, hasta ahora, parecen conectadas solo parcialmente". Eso permitiría intercambiar técnicas que hasta ahora se aplican solo en uno u otro campo por separado, y podrían atacarse problemas muy difíciles usando técnicas más sencillas.

Si la conjetura de Hodge es cierta, el edificio de las matemáticas tendría un nuevo pasillo en una de sus zonas centrales, lo que daría una visión más acertada del mapa global. Si fuese falsa, significaría que ese pasillo no existe, que solo hay pequeños pasillos conectando algunas de esas áreas, lo que también serviría para tener una visión más exacta del edificio global.

3. La conjetura de Birch y Swinnerton-Dyer

La conjetura que lanzaron los británicos Bryan Birch y Peter Swinnerton-Dyer a principios de los 60 es un problema sobre ecuaciones. Todos conocemos las ecuaciones: las estudiamos en el colegio, y están allá donde se quiera modelizar un proceso o una estructura utilizando las matemáticas.
Hay ecuaciones sencillas, como 3x-1=2 que se resuelven fácilmente (en este caso, x=1). Pero enseguida las ecuaciones demuestran que pueden ocultar misterios aunque su apariencia sea inofensiva. Por ejemplo, la ecuación x+2=1 no tiene soluciones positivas, y la ecuación 2x+1=0 ni siquiera tiene soluciones enteras. De hecho, hay ecuaciones que tienen más de una solución. Por ejemplo, x²-2=0 tiene dos soluciones posibles, y ninguna es un número entero. Y una ecuación en apariencia sencilla como x²+1=0 no tiene siquiera soluciones entre los números reales, para encontrarlas tendríamos que ir a los números complejos.

Todo cambia cuando en una ecuación hay más variables, como por ejemplo xy+x-2y=0. El mundo de las ecuaciones de varias variables es muy complicado. Cuando hay más de dos, es muy difícil saber en la mayoría de los casos cuántas soluciones tiene, ni siquiera si tiene un número finito o infinito de ellasEn muchos casos es posible saber cuántas soluciones tiene una ecuación: el número viene dado por el máximo exponente al que aparezca elevada la x. Por ejemplo, la ecuación x³-x²+x=0 tiene exactamente tres soluciones. Esto se conoce como el teorema fundamental del álgebra.

Todo cambia cuando en una ecuación hay más variables, como por ejemplo xy+x-2y=0. El mundo de las ecuaciones de varias variables es muy complicado. Cuando hay más de dos, es difícil saber en la mayoría de los casos cuántas soluciones tiene, ni siquiera si tiene un número infinito de ellas.
Quedan entonces por explicar las ecuaciones que tienen exactamente dos variables. Pero antes, hay que fijarse en otro concepto más: el del grado de una ecuación, que es la suma de los exponentes a los que están elevadas sus variables. Por ejemplo, la ecuación x³-xy+xy³+1=0 es de grado 4, que es el grado del término xy³.

El matemático Bryan BirchLos matemáticos se preguntan qué ecuaciones tienen soluciones racionales. Y la respuesta depende del grado de la ecuación.

Para las ecuaciones de dos variables de grado 2 o menor hay un método específico de descubrir si la ecuación tiene soluciones racionales o no. Este método funciona siempre y en un número determinado de pasos. Cuando el grado es tres o más, conocemos un método que también funciona, pero nadie ha podido demostrar que funcione siempre.

En cuanto al número de soluciones, y suponiendo que una ecuación tiene al menos una solución racional, las de grado 2 o menor tienen un número infinito de soluciones, mientras que las de grado 4 o mayor tienen un número finito de soluciones. Las de grado 3 son el caso difícil, ya que pueden tener un número finito o infinito de soluciones.

Ha habido, como es de esperar, muchos intentos de resolver esta conjetura, y se ha conseguido demostrar para algunos casos particulares, pero nadie lo ha conseguido en general, y las vías tradicionales para acometerlo se están agotandoEse es precisamente el caso en el que se mueve la conjetura de Birch y Swinnerton-Dyer: las ecuaciones de dos variables y de grado 3 que tienen al menos una solución racional. A esas ecuaciones se las conoce como curvas elípticas, y esta conjetura describe explícitamente la estructura que tiene el conjunto de sus soluciones. Una descripción que, además, resulta tener una forma sorprendente, ya que depende del comportamiento en torno al número 1 de una función analítica, algo que pertenece a otra área totalmente distinta de las matemáticas.

La solución a esta conjetura, asegura Sáenz de Cabezón, resolvería de un plumazo un problema muy difícil, dándole una respuesta completa y elegante, conectando además dos esquinas de las matemáticas muy diferentes entre sí.

"Ha habido, como es de esperar, muchos intentos de resolver esta conjetura, y se ha conseguido demostrar para algunos casos particulares, pero nadie lo ha conseguido en general, y las vías tradicionales para acometerlo se están agotando. Es probable que la solución acabe llegando por una nueva línea revolucionaria y sorprendente, como pasa muchas veces en las matemáticas", explica Sáenz de Cabezón.

4. La hipótesis de Riemann

David Hibert fue uno de los matemáticos más importantes del siglo XIX y principios del XX. En una ocasión, declaró que si le diesen la oportunidad de volver a la vida dentro de 500 años, lo primero que preguntaría sería: "¿Ha resuelto alguien la hipótesis de Riemann?".
"Este problema parece algo en principio bastante críptico. La hipótesis en crudo es la siguiente: la parte real de los ceros no triviales de la función zeta de Riemann es siempre ½. En seguida vamos a entrar en materia, pero comenzamos explicando que es una de esas cuestiones que, por alguna razón profunda pero difícil de explicar, es importante para la construcción del edificio matemático", comenta Sáenz de Cabezón.

Los intentos por demostrarla han sido muchos, y las evidencias a su favor también lo son: se ha determinado, con ayuda de un ordenador, que los primeros 10 trillones de ceros no triviales de esta función satisfacen la hipótesis de Riemann, pero eso no es una demostración. Quizá más adelante aparezca algún cero no trivial que no satisfaga la hipótesis. No se sabrá hasta que haya una demostración a favor o en contraEn el siglo XIX, el alemán Bernhard Riemann extendió a los números complejos una famosa función que el holandés Leonhard Euler había construido para los números reales, definiendo así lo que hoy se llama función zeta de Riemann. Riemann se dedicó a estudiar para qué valores esa función se anula, se hace cero. Existen infinitos ceros; por ejemplo, todos los números pares anulan la función zeta de Riemann, así que son ceros de esa función. Son los llamados ceros triviales.

Pero existen muchos otros ceros no triviales, que son los números que el matemático quería encontrar. Logró hallar muchas propiedades que un número complejo debía cumplir para ser un cero no trivial.

Los números complejos tienen una parte real y otra imaginaria; Riemann observó que los ceros no triviales de su función tenían una parte real cercana a ½, y que ésta se distribuía de forma simétrica en torno a la recta de valor ½. Así que conjeturó que la parte real de todo cero no trivial de su función equivalía exactamente a ½, pero no pudo probarlo.

Los intentos de demostrarla han sido muchos, y las evidencias a su favor también lo son: se ha determinado, con ayuda de un ordenador, que los primeros 10 trillones de ceros no triviales de esta función satisfacen la hipótesis de Riemann pero no es suficiente. Quizá más adelante aparezca algún cero no trivial que no satisfaga la hipótesis. No se sabrá hasta que haya una demostración a favor o en contra.

¿Y por qué tanta fascinación? ¿Qué tiene de especial esa función zeta y sus ceros para que la mayoría de los matemáticos considere tan importante si su parte real vale ½ o no? La respuesta está en los números primos.

Los números primos son las piezas fundamentales del conjunto de los números enteros, son los ladrillos de oro de la base del edificio de las matemáticas. Y son un misterio. Por más que se ha intentado hallar una fórmula que los describa y permita saber con toda certeza dónde aparecerá el próximo número primo, estos siempre se han escabullido.

La función zeta de Riemann constituye una especie de norma que apunta a la comprensión del comportamiento de estos números. "La cantidad de resultados que dependen de esta hipótesis es inmensa, la luz que arrojaría sobre las matemáticas es incalculable. Por eso se afirma tantas veces que es el problema matemática abierto más importante que existe", concluye Sáenz de Cabezón.

Grigori Perelman es seguramente una de las figuras más reconocidas de las matemáticas modernas. Este matemático ruso es hasta ahora el único que ha logrado resolver uno de los llamados Problemas del Milenio, una hazaña con mayúsculas dentro de su disciplina.

Resolver uno de estos problemas no solo es complejo por su dificultad, sino porque la solución propuesta pasa un implacable escrutinio y debe sobrevivir dos años sin ser desafiada antes de ser considerada como válida. Una vez logrado, eso sí, el reconocimiento de la comunidad científica es sincero y unánime. Una Medalla Fields y un millón de dólares son la parte material del premio.
Un reconocimiento que a Perelman no pudo interesarle menos. El 18 de marzo de 2010, el Instituto Clay de Matemáticas anunció que su solución cumplía con los requisitos para recibir el premio, pero el rechazo del ruso fue implacable: "No quiero estar expuesto como un animal en un zoológico. No soy un héroe de las matemáticas. Ni siquiera soy tan exitoso. Por eso no quiero que todo el mundo me esté mirando". Su nombre quedará siempre ligado al de la genialidad matemática, pero él prefirió seguir llevando una vida discreta y retirada. Y sin su millón de dólares.


En las últimas semanas, otro matemático, el kazajo Mujtarbay Otelbáyev, ha publicado lo que podría ser una solución parcial a la ecuación Navier-Stokes, pero su trabajo tiene por delante un largo camino antes de ser considerado un desarrollo válido. De momento, se ha topado con un obstáculo inesperado: Otelbáyev ha explicado su solución en ruso, y la comunidad matemática trabaja principalmente en inglés, de forma que antes de poder comprobarla, habrá que traducirla. No se trata de un aspecto menor, ya que las matemáticas son un idioma universal, pero el razonamiento tras las fórmulas es igualmente importante.

Explicamos a continuación los últimos tres Problemas del Milenio, incluidos el resuelto por Perelman (la conjetura de Poincaré) y el que podría haber contribuido a solucionar Otelbáyev (las ecuaciones de Navier-Stokes).

5. La conjetura de Poincaré

Debido a que este problema está resuelto, el hecho es que ya no se trata de la conjetura de Poincaré, sino del teorema de Poincaré. Si alguien no tiene muy clara la diferencia entre una conjetura y un teorema, podríamos decir, igual que dice el propio Sáenz de Cabezón en este monólogo, que un teorema es "para siempre, siempre".

"Esta conjetura se sitúa en una de las ramas más hermosas de las matemáticas, conocida como topología, que se ocupa de estudiar aquellas propiedades de los cuerpos geométricos que se mantienen cuando los estiramos, deformamos, doblamos, etc. como si fueran de plastilina, pero sin romperlos ni pegarlos por ningún sitio. Es lo que técnicamente se conoce como transformaciones continuas", explica Sáenz de Cabezón.


Una de las cuestiones principales en topología es el problema de la clásificación de los objetos: para la topología, una taza y una rosquilla son equivalentes, porque si fueran de plastilina se podría transformar una en otra sin romperlas; sin embargo, un churro y una rosquilla no lo son, porque un churro de plastilina no puede convertirse en una rosquilla sin romperlo ni pegarlo.

Esto puede parecer un juego, o algo absurdo, pero, tal y como ocurre muchas veces con las matemáticas, los problemas y objetos de los que se ocupa la topología describen de modo sorprendentemente adecuado los objetos de estudio de otras ciencias. En concreto, la topología se relaciona con la física y el estudio del universo.

Henri Poincaré fue uno de los fundadores de la topología, y uno de los que sentó sus bases fundamentales. La conjetura que lleva su nombre dice literalmente que "toda variedad de dimensión n, cerrada y simplemente conexa es homeomorfa a la esfera de dimensión n". Que no cunda el pánico, vamos a explicarlo.

Lo que dijo Poincaré es que la esfera tiene, en cualquier dimensión, una serie de características (como ser cerrada y sin agujeros) que solo las tiene la esfera, y cualquier otro cuerpo que las tenga será equivalente topológicamente (eso es lo que quiere decir "homeomorfa") a una esfera.
Esta conjetura fue enunciada en 1904, y desde entonces se había conseguido probar para n=2, después para n mayor que 4 y más tarde para n=4. El caso de n=3 se resistió durante más de cien años.


Entonces, en 2006, Perelman culminó el trabajo que otros habían realizado antes, resolviendo no solo la conjetura de Poincaré en el único caso que faltaba y convirtiéndola en teorema, sino una cuestión más general, llamada el teorema de geometrización de Thurston. "Como pasa tantas veces, la solución llegó utilizando herramientas nuevas y procedimientos de otras áreas de las matemáticas que parecían no tener relación con el problema original", señana Sáenz de Cabezón.

Es difícil atribuir la solución de un problema tan importante a una sola persona. Lo que Perelman consiguió fue poner la última pieza del puzzle, que dio sentido al cuadro completo. "Su aportación fue decisiva, lo que demuestra el genio que es, pero este, como todos en matemáticas, es un resultado esencialmente colectivo".

6. Las ecuaciones de Navier-Stokes

Las ecuaciones de Navier-Stokes reciben este nombre porque fueron propuestas por el hidrólogo e ingeniero Claude-Luis Navier a principios de siglo XIX y formuladas rigurosamente por el matemático y físico Geoge-Gabriel Stokes unos cincuenta años después.

Resumiendo, podríamos decir que estas ecuaciones son un modelo matemático sencillo para describir el movimiento de un fuido incompresible (es decir, que su densidad es constante) y viscoso (es decir, que las distintas capas del fuido ejercen cierta fuerza unas sobre otras, que se arrastran entre sí).

Para ello, estas fórmulas tienen en cuenta las variables que describen el fluido y sus condiciones iniciales: la velocidad a la que se mueven sus partículas, la presión, la densidad y la viscosidad, así como las fuerzas externas que puedan afectarle, como por ejemplo la de la gravedad. También tienen en cuenta las condiciones del contorno del fluido, como por ejemplo el recipiente que lo contiene o si está metido en otro fluido con el que no se mezcla (como ocurriría si echásemos gotas de aceite en un vaso de agua).

Lo que hacen estas ecuaciones es, a partir de esas condiciones iniciales, tratar de describir la trayectoria que seguirán las partículas del fluido sometidas a las diferencias de presión, así como a las fuerzas que ligan a unas partículas con otras.


"El problema consiste en saber si las ecuaciones de Navier-Stokes tienen siempre solución, sean las que sean esas condiciones iniciales, o si hay algún caso en el que estas ecuaciones no pueden ser resueltas. No se trata de evaluar si el modelo desarrollado por Navier y Stokes se adecúa a la realidad, sino de determinar si es matemáticamente consistente", puntualiza Sáenz de Cabezón.

Existen soluciones parciales a este problema: se sabe que las ecuaciones tienen respuesta en general cuando se utilizan en dos dimensiones, y también que tienen soluciones débiles, es decir, que explican el movimiento de un fluido en promedio, pero no necesariamente punto por punto, que funcionan bien durante un tiempo si las condiciones iniciales son suficientemente buenas.
Se ha trabajado mucho en este problema, y ha habido avances importantes, entre ellos el de Mujtarbay Otelbáyev, pero parece que la solución completa, por el momento, se escapa.

7. Las ecuaciones de Yang-Mills

Este problema resulta especialmente complejo, ya que en él se mezclan las matemáticas y la física teórica, aunque no es ni mucho menos la primera vez: "La física ha utilizado y desarrollado teorías matemáticas fundamentales para explicar y construir sus modelos: por ejemplo, el desarrollo del cálculo tal y como lo conocemos hoy fue parejo a la explicación newtoniana de la realidad, y la geometría basada en los desarrollos de Riemann fue desarrollada y explicada al amparo de la teoría de la relatividad general de Einstein", explica Sáenz de Cabezón.

Esta es la época de la física cuántica, que también necesita un desarrollo matemático de primer orden para poder asentarse y describir de un modo riguroso los fenómenos que trata de explicar. Aquí es donde entran en escena las ecuaciones de Yang Mills.

Este conjunto de ecuaciones, conocido también como la teoría de Yang-Mills, es el modelo matemático que subyace al modelo estándar de la física de partículas. Se trata de una generalización de la teoría de la electrodinámica cuántica, que es a su vez una generalización de la teoría del electromagnetismo , publicada por el británico James Clerk Maxwell a mediados del siglo XIX.
La cuestión es que esta teoría tiene un problema por resolver en lo que se refiere a la masa, que ha heredado de esos otros modelos. En la teoría de la electrodinámica cuántica, las partículas importantes son los fotones, que no tienen masa. Sin embargo, las partículas responsables de la fuerza nuclear débil, los bosones W y Z, sí que tienen masa e interaccionan con los fotones. ¿Cómo podían interaccionar partículas con y sin masa?

La teoría que desarrollaron el chino Chen Ning Yang y el estadounidense Robert Mills logró una explicación para esas interacciones débiles que era compatible con la electrodinámica cuántica ya establecida. Se consideró un gran logro de la física, y se bautizó con el nombre de teoría electrodébil. Pero lo que no se ha conseguido todavía es hacer lo mismo con las interacciones fuertes.

El problema que persiste en torno a las ecuaciones de Yang-Mills es doble: por un lado, lograr demostrar de modo matemáticamente riguroso los fundamentos de la teoría de Yang-Mills, y por otro, hacer que esta teoría sea completamente compatible, para todas las interacciones, con el papel de la masa, lo que se llama el salto de masa.

"Las dificultades son muchas, y se han dado avances en la descripción de la teoría de Yang-Mills que la convierten en una descripción plausible de los modelos físicos actuales. Pero hoy por hoy no existen las herramientas para solucionar el salto de masa. Hacen falta nuevas ideas que entren en este ámbito para acercarnos a una solución", asegura Sáenz de cabezón.

Etiquetas:

Free counter and web stats