10 de abril de 2006
Hace tres años, un joven matemático ruso llamado Grisha Perelman sorprendió al mundo afirmando que había resuelto uno de los problemas más célebres de la matemática del siglo XX, la llamada conjetura de Poincaré, cuyo planteamiento se remonta a 1904. Los especialistas más prestigiosos parecen corroborar que su demostración es convincente, o al menos hasta ahora no han encontrado o comunicado el hallazgo de fisuras en ella.
El problema es tan intrincado que numerosos y brillantes matemáticos intentaron resolverlo y fracasaron en el empeño. Y alicientes para atacarlo no han faltado, ya que se trata de uno de los 7 problemas cuya resolución lleva aparejado un premio de un millón de dólares ofrecido por el Instituto Clay en el año 2000.
Pese a todo, no fue este cebo el que llevó a Grisha Perelman a atacar el problema, ya que se encerró a resolverlo en 1994 y durante los siguientes ocho años no volvió a dar señales de vida hasta mayo de 2003, cuando afirmó haberlo conseguido. Pese a los tres años transcurridos desde entonces, el veredicto definitivo aún no se ha dado, porque los especialistas siguen trabajando en la comprobación de la propuesta, que es más amplia que la propia conjetura de Poincaré.
La expectación despertada es comprensible, y es probable que todo quede definitivamente aclarado durante la celebración del ICM2006, ya que dos de las principales conferencias estarán dedicadas a este tema y serán impartidas por dos grandes conocedores del asunto, Richard Hamilton (que desarrolló una herramienta utilizada por Perelman para resolver el problema) y John Morgan, un reconocido especialista en topología. Pese a la ausencia de Perelman, reacio a participar (al menos de momento) en eventos públicos, el tema será sin duda la estrella del congreso. Probablemente, el ICM2006 pase a la historia como la ocasión en que esta conjetura se convirtió en teorema, el término con que los matemáticos designan una hipótesis demostrada.
Henri Poincaré, que junto con David Hilbert fue el matemático más célebre e influyente de finales del siglo XIX y principios del XX, contribuyó especialmente al desarrollo de la topología, que es, según su propia definición, “lo que queda a la geometría cuando se olvida la noción de distancia”. Según Vicente Miquel, catedrático de Geometría y Topología de la Universidad de Valencia, la topología estudia lo que permanece cuando deformas un objeto sin romperlo, ya que lo que cambia son las distancias. Así, en topología se consideran iguales un balón de fútbol, uno de rugby y una naranja, pero no un Donut, que a su vez es igual a un anillo o a la órbita terrestre. “Y hay propiedades de la naturaleza, en física de partículas, en el ADN y en otros muchos aspectos, que dependen sólo de la topología”, explica Miquel.
Todo parece indicar que Perelman no sólo ha resuelto la conjetura sino que también ha completado esta clasificación. Y ha colgado en internet tres artículos al respecto, de los cuales existe acuerdo ya en que el primero y buena parte del segundo son correctos, restando una parte, “técnicamente más difícil”, pendiente aún de comprobación. “El tercero lo ha entendido todo el mundo y demuestra, junto con las partes comprobadas de los otros dos, la conjetura de Poincaré, lo que basta para que Perelman reciba el premio de un millón de dólares del instituto Clay”, dice Miquel, aunque para ello es necesario, de acuerdo con las normas de este instituto, que los artículos se publiquen en una revista matemática de prestigio.
Problemas premiados por el Instituto Clay:
http://www.claymath.org/millennium/
Artículo de Mark Brittenham, profesor de Matemáticas de la Universidad de Nebrasca sobre el problema y la solución propuesta por Perelman:
http://www.math.unl.edu/~mbrittenham2/ldt/poincare.html
Artículo de John Milnor, medalla Fields 1962, sobre el problema:
http://www.math.sunysb.edu/~jack/PREPRINTS/tpc.pdf
Artículo en español:
http://www.matematicas.profes.net/archivo2.asp?id_contenido=41836
Biografía de Henri Poincaré:
http://www-groups.dcs.st-and.ac.uk/history/Biographies/Poincare.html
Manuel de León, matemático, profesor de investigación del Departamento de Matemáticas del IMAFF (CSIC), se enfrenta estos días al reto más ambicioso y agotador de su carrera: la organización del Congreso Mundial de Matemáticas ICM2006, que reunirá a finales de agosto en Madrid a cerca de 5.000 matemáticos de todo el mundo, y cuyo comité organizador preside.
¿Cual va a ser el eje central del Congreso?
Sin duda, el que más interés despierta es la conjetura de Poincaré, porque es un problema que viene de hace un siglo y aunque aún no ha sido aceptada oficialmente la demostración, todo parece indicar que se ha resuelto. Un buen indicativo de esa aceptación es que va a haber dos conferencias sobre el tema, una plenaria y otra fuera de programa. Esta última la va a impartir uno de los mayores expertos en geometría diferencial y topología, que es John Morgan, y eso indica que se da por buena la demostración, y que se aceptará durante el congreso de Madrid.
¿Qué otros temas importantes se tratarán?
Hay varios. Uno de ellos es el que se va a debatir en una mesa redonda cual es la relación entre la matemática más pura y básica y la más aplicada. Creo que hay una convergencia de nuevo y que buena parte de la fuerza de las matemáticas es la unidad, como muestra el hecho de que el congreso siga siendo de toda la matemática. Los ICM se van abriendo cada vez más a las aplicaciones y probablemente este congreso va ser el que más matemática aplicada va a tener. Y este es un tema importante porque esa disensión falsa entre ambas facetas, esa barrera, no existe en la realidad. De hecho los resultados teóricos son los que más se están aplicando, y para obtenerlos, lo que antes se hacía con lápiz y papel, ahora necesita potentes ordenadores. De manera que ya no puede hablarse de matemática pura y matemática aplicada.
¿Estamos en un momento dulce de las matemáticas, por la resolución de problemas históricos?
Sí, estamos en un momento dulce... se han resuelto tres problemas importantes en los últimos diez años. Primero fue el teorema de Fermat, luego la conjetura de Kepler, que ha requerido una gran cantidad de computación, ahora la conjetura de Poincaré... Queda uno de los clásicos pendiente, que es la hipótesis de Riemann. Es ahora el gran problema de la matemáticas, y de momento resulta inatacable. Se ha intentado desde todos los puntos de vista posibles de las matemáticas sin ningún resultado. No se vislumbra que se pueda resolver y es importante porque tiene que ver con la distribución de los números primos, para saber si hay pautas, y tiene muchas implicaciones prácticas y de tipo tecnológico, como la encriptación de datos.
¿El contenido científico de este ICM es mayor que en las anteriores ediciones?
Hay una sección más. Siempre hay algún avance respecto a los anteriores, aunque la Unión Matemática Internacional hace los cambios con lentitud, porque una de las fortalezas de las matemáticas es la solidez de un cuerpo científico construido en milenios, no funciona por modas. Pero yo creo que el contenido científico, en general, es un poquito mayor, en volumen, que el de Pekín.
¿Cómo se estructura este programa?
Bueno, en realidad diferenciamos dos programas, el invitado y el libre, por llamarlo de alguna manera. El primero lo componen las 20 conferencias plenarias, las 169 conferencias incluidas en las 20 secciones y actividades complementarias, como cuatro mesas redondas, tres conferencias especiales, la Emmy Noether, la de Mandelbrot y la de Morgan, presentaciones de empresas tecnológicas, actividades culturales... Ese es el programa invitado, y en el libre hay comunicaciones cortas, pósters y presentaciones breves de software matemático, que es una modalidad que se ha puesto en marcha desde hace unos años. La fecha límite de presentación era el 30 de marzo, y como en todos los congresos, se está haciendo una selección, que durará aún unas semanas. Creo que en total habrá unas 1.200 ponencias de este tipo.
¿Cómo se han escogido los ponentes invitados?
Hay un comité científico que realiza el programa principal. Su composición es secreta, solo se da a conocer el nombre del chairman. En este comité hay una docena de personas y entre ellas suele haber alguien del país organizador. Nosotros hemos podido incluir a dos matemáticos españoles en ese comité científico, cuya composición se conocerá al terminar el congreso.
¿Y las secciones?
Los temas de las secciones son fijas. Se aprueban en el comité ejecutivo de la IMU y se someten después a ratificación en las Asambleas Generales. En general, hay pocos cambios de un congreso a otro y siempre se mantienen los temas clásicos. Ahora se ha incluido una sección nueva, la de Teoría de Control y Optimización. Luego hay algunas secciones recientes que están tomando cierta importancia, como la de educación y divulgación de las matemáticas, la de historia de la matemática y la de aplicaciones de las matemáticas a las ciencias: en el futuro parece que irán a más.
ICM2006: /
Manuel de León: president2@icm2006.org
http://www.mat.csic.es/fichapersonal.php?id=2
“El núcleo del universo, muy en el centro, una parte muy pequeña, algo como 10-35 metros de diámetro -dice el matemático Jean-Pierre Demailly-, podría ser una variedad de Calabi-Yau, que es un ejemplo especial de variedades compactas de Kähler”. Estos exóticos nombres corresponden a estructuras geométricas complejas, en las que trabaja Demailly, que pronunciará una de las conferencias plenarias del ICM2006 para presentar los últimos avances realizados en la comprensión de la estructura geométrica de las variedades algebraicas proyectivas y de Kahler. El conocimiento de estas estructuras tiene aplicaciones potenciales en otras áreas de las matemáticas, como puede ser el álgebra o la topología.
Demailly recurre a métodos de análisis, una rama de las matemáticas, para solucionar problemas de otras áreas de esta misma ciencia y otras ciencias, ya que en sus métodos incluye solución a las ecuaciones de Monge-Ampère, que guardan relación con las ecuaciones de la teoría general de la relatividad.
Las variedades, son construcciones matemáticas que generalizan la idea de curva y superficie a cualquier dimensión y a cualquier cuerpo. La ponencia del profesor Demailly se centrará en el estudio de las variedades Kähler en el campo de los números complejos, éstas son una generalización de las variedades algebraicas proyectivas, las cuales son solución de un sistema de ecuaciones polinómicas homogéneas.
Jean-Pierre Demailly nació en 1957 en Péronne (Francia). En 1973 empezó sus estudios de matemáticas, y el 1976 se licenció en la universidad de París VII. Bajo la dirección de Henri Skoda hizo su tesis doctoral “Sobre los diferentes aspectos de la positividad en análisis complejo” (Sur differents aspects de la positivité en analyse complexe”, que presentó en 1982. Desde 1983 es profesor en la Universidad Joseph Fourier, en Grenoble. En 1994 fue nombrado miembro de las Academia de Ciencias y en 2002 miembro senior del Instituto Universitario de Francia (IUF). Ha recibido varios galardones y reconocimientos, entre ellos el premio Humboldt de colaboración internacional de la sociedad Max Planck, en 1996.
Conferenciante: Jean-Pierre Demailly
Título: “Compact Kähler manifolds and transcendental techniques
in algebraic geometry”
Fecha: Martes, 29 de agosto. 10:15-11:15
Programa científico del ICM2006
/scientificprogram/plenarylectures/
Página personal de Jean-Pierre Demailly:
http://www-fourier.ujf-grenoble.fr/~demailly/
El análisis matemático tiene su origen en la formulación y resolución de las ecuaciones elementales de la física. El movimiento de una partícula o de un astro, la temperatura en un punto de la Tierra o en el interior de un horno, o el crecimiento de una determinada población de bacterias son fenómenos que, como todos los que ocurren a nuestro alrededor en la naturaleza, pueden ser modelizados a través de una ecuación diferencial. Las soluciones a estas ecuaciones son funciones que dependen de tantas variables como parámetros implícitos hayan sido recogidos en el modelo (la posición, el tiempo, los materiales y cantidades usados en una reacción química, etc.) El análisis matemático trata del estudio de las propiedades de las funciones (su continuidad, diferenciabilidad e integrabilidad), de los espacios que conforman y de las transformaciones que operan sobre ellas.
Se lo considera una disciplina desgajada de la geometría y la topología tras la formulación del cálculo diferencial e integral por Newton y Leibniz. Con ellas comparte numerosos objetos de estudio y técnicas semejantes. Así, cuando hablamos de la teoría geométrica de las funciones, de las aplicaciones conformes o de la teoría geométrica de la medida nos estamos refiriendo a distintos aspectos del análisis (de variable compleja o real). También una parte importante del análisis funcional consiste en el estudio de la geometría de los espacios de funciones o de los operadores sobre ellos. Asimismo, el llamado análisis global está estrechamente relacionado con la geometría diferencial en variedades.
El análisis matemático tiene un marcado carácter interdisciplinar, con numerosas aplicaciones a otras áreas de las matemáticas, como la teoría de números, los sistemas dinámicos, la probabilidad y los procesos estocásticos, y, muy especialmente a través del análisis armónico, con la resolución de ecuaciones en derivadas parciales y la matemática aplicada en general.
Los conferenciantes invitados por el Comité IMU (International Mathematical Union) para el ICM-2006 en el área del análisis reflejan claramente esa variedad en temas que lo caracteriza: Geometría cuasiconforme en conjuntos fractales (M. Bonk), resolución de ecuaciones diferenciales con técnicas del análisis armónico y teoría de Carderón-Zygmund (S. Hofmann), convergencia de series de funciones respecto a sistemas clásicos (S. Konyagin) y generales (V. Temlyakov), dinámica compleja, aplicaciones conformes en el sentido continuo y discreto (l. Rothschild, S. Smirnos y E. Straube) y teoría de potencial y capacidad analítica (por el español Xavier Tolsa). Entre los conferenciantes plenarios el Comité IMU ha seleccionado asimismo a Terence Tao, especialista en el área del análisis armónico, que presentará su trabajo en colaboración con B. Green sobre la estructura de los números primos.
Fernando Soria
Catedrático de Análisis de la Universidad Autónoma de Madrid
La modelización espacio-temporal se ha tornado una herramienta crucial en la investigación relacionada con el análisis estadístico de procesos naturales y, en especial, de los implicados en estudios ambientales (la concentración de partículas contaminantes en el aire, la salinidad de los océanos, el avance de la deforestación... ). En los últimos años, su progreso se ha visto facilitado por la llegada de ordenadores dotados de una enorme capacidad de cálculo, y de los sofisticados algoritmos ideados por los matemáticos.
En ese marco, el taller que tendrá lugar en Pamplona, el tercero en su temática que se celebra en España en los últimos seis años y el primero de carácter internacional, pretende impulsar el desarrollo y la aplicación en áreas relativas al medio ambiente de métodos estadísticos espaciales, temporales y, sobre todo, espacio-temporales.
En sus sesiones se expondrán los últimos adelantos en teoría, métodos y aplicaciones, ilustrados con procedimientos estadísticos basados en datos reales. En las mismas se dictarán, además, conferencias sobre la confección de mapas epidemiológicos, uno de los campos en donde la modelización espacio-temporal se ha mostrado más productiva.
Taller internacional sobre modelización espacio-temporal (METMA3), Pamplona, 27-29 septiembre 2006
Lugar: Escuela Universitaria de Estudios Sanitarios
Avda. de Barañáin s/n, 31008 - Pamplona (Navarra)
Más información: http://www.unavarra.es/metma3/
Contacto: Lola Ugarte, Universidad Pública de Navarra
e-mail: lola@unavarra.es
Tel.: 948169202/699 530 441
Un cadáver, un escenario del crimen y una huella dactilar en un cuchillo ensangrentado. Basta que la policía científica recoja la impronta y la pase por su base de datos para que aparezca en la pantalla un posible asesino. Pero, ¿alguien ha pensado alguna vez en la enorme capacidad de almacenamiento que se requiere para archivar la versión digital de los millones de huellas guardadas por la Policía? Sólo las huellas del FBI almacenadas en la actualidad ocupan 200 terabytes (200.000.000.000.000 bytes).
Las matemáticas también tienen mucho que ayudar en este campo. Pues sus técnicas utilizadas para la compresión de imágenes tienen aquí un enorme valor. Tomemos dos imágenes digitales de la misma huella dactilar, las dos imágenes son idénticas, pero una de ellas está compuesta con el 5% de los datos de la otra. Como explica Fernando Soria, catedrático de Análisis Matemático de la Universidad Autónoma de Madrid, esto es posible gracias a la teoría de Wavelets (ondículas, en español), que viene a decir que toda imagen se descompone en imágenes más simples. Lo que hace el FBI es construir poliedros con la posición relativa de los factores volumétricos de cada huella, para reducir la información a la mínima imprescindible para reconstruirla. Esto no sólo permite archivar 20 imágenes de improntas, donde antes se almacena una sola. Si no que facilita la revisión de millones de registros de forma rápida para encontrar un sospechoso. Uno de los matemáticos más prestigiosos de los que participarán este verano en el congreso internacional de Madrid, Ronald Coifman, de la Universidad de Yale, es uno de los expertos que más ha trabajado en este campo y fue justamente la persona que creó los algoritmos para los archivos de huellas del FBI.
Para saber más:
Ronald Coifman: coifman@math.yale.edu
Fernando Soria: fernando.soria@uam.es
Web sobre los archivos de huellas del FBI (en inglés):
http://www.c3.lanl.gov/~brislawn/FBI/FBI.html