Boletín -13

Boletín  número  -13
29 de Mayo de 2006

ÍNDICE:


Pintar con números

El concurso de arte fractal ICM2006 se fallará en junio

Las ecuaciones son una manera de describir la realidad, pero algunas ecuaciones pueden usarse a la inversa, es decir, como generadoras de mundos artificiales. De las ecuaciones que describen conjuntos fractales, por ejemplo, pueden emanar paisajes tan sugerentes como los creados por el mejor de los pinceles. ¿Imposible? Antes de asegurarlo, mejor echar un vistazo a las obras de la Exposición de Arte Fractal del Congreso Internacional del Matemáticos ICM2006, del 22 al 30 de agosto en la sede del propio ICM2006 y en el Centro Cultural Conde Duque (Madrid). Muchas de las obras expuestas procederán del Concurso Internacional de Arte Fractal ICM2006 Benoit Mandelbrot, cuyo fallo se dará a conocer en Junio.

La Exposición de Arte Fractal ICM2006 se celebra gracias al apoyo de la Fundación Española de Ciencia y Tecnología (Fecyt) como entidad colaboradora. Al Concurso de Arte Fractal se han presentado más de trescientas obras de todo el mundo. El jurado del concurso estará presidido por el propio Benoit Mandelbrot, considerado el ‘padre’ de la geometría fractal.

¿Qué son los fractales? No hace falta recurrir a su descripción matemática, bastante compleja, para tener una idea intuitiva: estructuras que “al ser observadas en una pequeña porción mantienen un aspecto similar, aunque no necesariamente idéntico, al que presentan al ser observadas de forma completa”, explica Javier Barrallo, uno de los organizadores del concurso de arte fractal –y artista fractal él mismo-. Algunos ejemplos: un árbol, con sus ramas; una coliflor, aparentemente formada por un sinfín de minicoliflores unidas; el litoral de un país...

El ejemplo de la línea de costa sirve para explicar otra de las propiedades de los fractales, el hecho de que por mucho que disminuya la escala a la que son observados –por mucho que se haga ‘zoom’ en ellos-- siempre mantendrán el mismo aspecto, hasta el infinito. Aunque el litoral de un país no es, obviamente, infinito –los fractales ‘auténticos’ son una idealización matemática--, el efecto del fenómeno fractal se puede apreciar en la ‘paradoja de la costa’, que sí es del todo real. Al medir una costa, o cualquier superficie rugosa, el resultado variará en función de la precisión a que se aspire: si se tiene en cuenta el contorno de las bahías, de las rocas, de los granos de arena... la costa será teóricamente más y más larga, y en un fractal ideal llegaría a hacerse infinita.

¿Es arte realmente?
Para algunos estas propiedades dan un valor añadido, más allá del estrictamente estético, a las obras del ‘arte fractal’. Pero no siempre este tipo de arte ha sido considerado tal. ¿No se trata, al fin y al cabo de la mera representación gráfica de una fórmula por ordenador? Sí y no, responden los autores de arte fractal. Para explicarlo, una explicación breve de cómo se pinta un fractal.

Se parte, efectivamente, de una fórmula matemática –las primeras fórmulas fractales fueron descritas hace más de un siglo; hoy hay centenares-. Y sí, el ordenador es indispensable, como explica Barrallo: “Una pequeña imagen, por ejemplo de 640x480 píxeles, contiene 307.200 puntos que deben ser calculados. Cada uno de estos puntos puede requerir ser calculado por la fórmula que determina el fractal unas 1.000 veces. Esto implica que la fórmula ha de ser calculada más de 300 millones de veces. ¡Y esto sólo para una imagen de pequeñas dimensiones!”.

Una vez armados de fórmula y computadora, hay que recurrir a la iteración. Se trata de “calcular una fórmula repetidas veces a partir de un valor inicial. Una vez calculada la fórmula por primera vez, tomamos el valor resultante y volvemos a introducirlo en la fórmula. El nuevo resultado se vuelve a calcular y así sucesivamente”, dice Barrallo. En el caso de los fractales el valor inicial tiene que ver con la posición del punto en el plano (el píxel en la pantalla).

Luego se asignan colores en función del valor de cada punto. El hecho de que el comportamiento de dos puntos muy próximos pueda ser radicalmente opuesto -uno divergiendo hacia el infinito y otro convergiendo hacia un valor dado- es “lo que hace fascinante la exploración fractal”, dice Barrallo. Y también lo que permite la explosión de formas y colores en la imagen.

Pero no se trata, ni mucho menos, de un trabajo exclusivo del ordenador. “Una imagen de 800 x 600 puntos contiene 480.000 píxeles o puntos de pantalla que pueden combinarse en una imagen de 103467865 formas diferentes, esto es, un 10 seguido de más de tres millones de ceros. Un ordenador no posee la capacidad de seleccionar imágenes de entre esta inmensa colección y determinar las que son bellas o no lo son”. La mano, o en este caso el cerebro, del artista son indispensables. Además el arte fractal, como todo arte y como las matemáticas mismas, está en continua evolución. Los algoritmos que se emplean ahora poco tienen que ver con los empleados hace dos décadas.

Para más información:
Entrevista a Benoit Mandelbrot en InfoICM2006-05-24
/prensa/boletines/boletin19/#mandelbrot

Página del concurso de arte fractal:
http://www.fractalartcontests.com/2006/

Información sobre fractales:
http://www.divulgamat.net (en ‘Exposiciones virtuales’ y en ‘Arte y matemáticas’)
www.fractalus.com
Mathematicalia:

Vol. 1, no. 3 (oct. 2005)
Multimedia: La frontera entre el arte y las matemáticas (entrevista a Javier Barrallo, por I. Pastur)
Tecnología: Modelizar la naturaleza con fractales (M. Turner)

Vol. 1, no. 4 (dic. 2005)
Cultura: Arte fractal I (J. Martínez Aroza)
Pasatiempos  (J. Álvarez)

Vol. 2, no. 1 (feb. 2006)
     Cultura: Arte fractal II (J. Martínez Aroza)


Entrevista con Marta Sanz-Solé, presidenta del Comité Local de Programa del ICM2006

 

“Queremos divulgar nuestra labor entre los políticos, que son quienes toman decisiones sobre fondos de investigación ”

Marta Sanz-Solé es profesora de la Universidad de Barcelona, la misma en la que se graduó (1974) y doctoró (1978), y en la que ha ocupado los cargos de decana de la Facultad de Matemáticas y vicepresidenta de la División de Ciencias. Ha realizado diversas estancias de investigación en EEUU, Italia, Francia y Suiza, y su labor investigadora se ha centrado en cálculo de Malliavin y análisis estocástico. Autora de unas 80 publicaciones, es miembro de diversos comités y ha participado en la organización de numerosos congresos y eventos. En los últimos meses se dedica intensivamente al Congreso Mundial de Matemáticos ICM2006, como miembro del Comité Organizador y, especialmente, como presidenta del Comité Local de Programa, el encargado de organizar los contenidos científicos del evento.

¿Cómo se ha realizado el diseño del programa científico del ICM2006?
Existe un comité que se encarga de fijar las secciones científicas, tanto el número como el nombre y los contenidos, en que está dividido el congreso. En esta ocasión, para el ICM 2006 se han establecido 20 secciones. Este Comité de Programa es nombrado por el comité ejecutivo de la Unión Matemática Internacional, y también es el encargado de proponer los conferenciantes invitados, tanto a las sesiones plenarias como a las correspondientes a esas secciones.

¿Y cuál es entonces la tarea del comité que usted preside?
En el LPC (Local Program Commitee) trabajamos de forma coordinada con el Comité de Programa, y nuestra tarea principal es organizar el programa del congreso. Se trata de ubicar las propuestas de manera coherente. Hay que tener en cuenta que las conferencias invitadas de las secciones se solapan necesariamente unas con otras, y hay que programarlas para intentar, dentro de lo posible, que las que son de áreas afines no se interfieran, porque seguramente todas ellas interesarán a muchos de los asistentes. También determinamos el orden de programación de las plenarias, lo que permite resaltar las tendencias y marcar el ritmo del congreso.

¿No es un poco frustrante que el contenido lo decidan otros?
Son las reglas del juego. Bueno, y tenemos un cierto margen de actuación. El Comité Organizador del congreso tiene la prerrogativa de proponer un conferenciante plenario y tres de las secciones, y delegó la realización de esta propuesta en el LPC. Además, nos hemos encargado de muchas otras actividades, incluidas en el programa como Special Activities y Other Activities. Personalmente, he tenido una implicación intensa en algunas de estas actividades científicas. Por ejemplo, soy la organizadora de la Closing Round Table, una actividad que se incluye por primera vez en un ICM; sus panelistas son matemáticos muy prestigiosos, entre ellos el Premio Abel de este año, Lennart Carleson. Su título –Are pure and applied mathematics drifting apart?- muestra el interés por debatir el delicado engranaje entre dos aspectos profesionales, y la necesidad de su estrecha colaboración para lograr avances significativos en una sociedad eminentemente tecnológica. De hecho, el programa de este ICM incide en la interacción fructífera entre diversas áreas de las matemáticas cuyo desarrollo hasta hace poco había seguido caminos divergentes.

Una de esas ‘actividades especiales’ se dedica a la divulgación, ¿les preocupa la imagen pública de las matemáticas?
Claro que sí, la mayoría de la gente no sospecha siquiera que las matemáticas son útiles, están presentes en muchas de sus actividades cotidianas y desconoce su valor y atractivo intelectual. La imagen es de aburrimiento, incomprensibilidad e incomunicación. Pero la mesa redonda que tratará el tema, propuesta por la European Mathematical Society y en la que también estoy como coorganizadora, tiene unos objetivos más amplios. Se trata de debatir sobre cómo hacernos accesibles a científicos de otras disciplinas, cómo comunicar los valores de nuestra investigación a los políticos que toman decisiones sobre adjudicación de fondos de investigación y de cómo comunicar los valores reales de las matemáticas a los jóvenes que están en edad de decidir su futura formación universitaria o doctoral.

Además de las conferencias invitadas hay también otras contribuciones. ¿Han intervenido en el proceso de selección?
Claro, lo iba a explicar antes. Esta parte del congreso es muy importante y la hemos organizado nosotros en su totalidad. Nos encargamos en su día de lanzar el “call for abstracts”, en tres versiones distintas: comunicaciones orales, pósters y contribuciones de software matemático. Luego, de evaluar los abstracts (resúmenes) de las contribuciones recibidas y programar su  presentación en las secciones adecuadas.

¿Cuántas se han presentado y cuántas han sido seleccionadas?
Bien, la cuestión es cuántas se presentarán durante el congreso, porque las cifras pueden variar. Se han presentado unas 1.600. Tras el proceso de evaluación y las bajas que se van produciendo tenemos ahora unas 1400. Pero sabemos por experiencia que algunos de los que presentan una contribución no vienen luego al congreso. Me atrevería a dar como estimación final unas 800 comunicaciones orales, 300 pósters y 25 presentaciones de software matemático, lo cual sería un auténtico éxito de participación.

¿Eso supone cambios respecto a congresos anteriores?

Creo que finalmente las cifras estarán próximas a las del ICM 98 en Berlín.
Pero hemos introducido novedades, como aumentar de 15 a 20 minutos el tiempo de las comunicaciones orales. Además, hemos puesto un empeño especial en promover la presentación de pósters; no hay mucha tradición entre los matemáticos, a pesar de que permiten una interacción mayor, de carácter más informal y más rica con las personas interesadas en el tema. Para ello hemos organizado incluso un concurso para premiar a los que destaquen por su presentación, su calidad visual y de contenidos. Son dos premios por sección, aunque pueden quedar desiertos.

¿Cuántas personas forman parte del LPC?
Somos nueve miembros cubriendo un amplio abanico de áreas de las matemáticas, pero cada uno está trabajando con entre diez y quince colaboradores para realizar las evaluaciones y el trabajo, porque hay mucho que hacer.

Página personal de Marta Sanz
http://www.mat.ub.es/~sanz
Presidente del Comité de Programa de la IMU
Noga Alon, Universidad de Tel-Aviv
nogaa@tau.ac.il
http://www.math.tau.ac.il/~nogaa
Comité Local de Programa (LPC):
/organization/localprogramcommittee/



Sesión plenaria: Iain Johnstone

Cómo convertir los datos en información

Desde hace algún tiempo se puede encontrar ofertas de trabajo con este texto: “Requisitos mínimos: Experiencia en implantación de Sistemas de Gestión de Información (Business Intelligence, Data Warehousing, Data Mining)". Y es que cada vez es más necesaria la gestión de la información, dada la cantidad creciente de datos que se manejan en algunas áreas. El matemático Iain Johnstone dará una conferencia plenaria en el ICM2006 sobre “Matrices aleatorias e inferencia estadística de grandes dimensiones”, que tiene que ver con el manejo de cantidades masivas de datos.
Hasta hace relativamente poco, la estadística se centraba en el estudio de variables aleatorias uni o multidimensionales. Con el desarrollo de la computación llegamos a la era del "data mining", y todas las organizaciones --bancos, hospitales, centros de investigación...-- manejan cantidades ingentes de datos a los que a menudo se accede en tiempo continuo, como por ejemplo los activos financieros. A la hora de analizar esos datos es cuando entra en juego la estadística en grandes dimensiones, el tema central de la conferencia de Johnstone. Esta rama de las matemáticas muestra cómo organizar y resumir los datos --ya sean de un electrocardiograma, del tráfico de internet o de un paquete de activos financieros-- de modo que aporten información útil.
Iain Johnstone nació en Melbourne en 1956. En 1977 se licenció en matemáticas en la Universidad Nacional Australiana en la especialidad de matemática pura y de estadística. En 1981 obtuvo su título de doctor en estadística en la Universidad de Cornell. Desde 1981 está vinculado a la universidad de Stanford, California, donde en 1992 obtuvo su plaza como profesor de estadística y bioestadística. Le interesa la bioestadística y en el área de la estadística ha tenido numerosos reconocimientos.

Conferenciante: Iain Johnstone
“High dimensional statistical inference and random matrices”
Fecha: Viernes, 25 de agosto, 10:15-11:15

Programa científico del ICM2006
/scientificprogram/plenarylectures/

Más sobre Iain Johnstone:
http://www-stat.stanford.edu/people/faculty/johnstone/
http://hcr3.isiknowledge.com/author.cgi?&link1=Browse&link2=Results&id=1345


El ICM sección a sección

Fundamentos matemáticos de las ciencias de la computación

Uno de los principales problemas en informática teórica de índole  matemática  es el conocido como P vs NP. Un sencillo ejemplo será suficiente para poder comprender la naturaleza del problema:

Supongamos que se desea seleccionar un grupo de cien personas de entre un conjunto de cuatrocientos candidatos. La selección se ha de hacer de acuerdo a unos criterios determinados (por ejemplo, nos dan un listado de pares de personas incompatibles: el conjunto de seleccionados no puede contener a Fulano y Mengano, ni a Zutano y Perengano, ni a Fulano y a Zutano, etc.).

Nótese que el número total de formas de escoger cien elementos de entre un conjunto de cuatrocientos, excede con creces el número de átomos que forman el universo conocido. Ni siquiera un superordenador nos serviría para, en una búsqueda exhaustiva, comprobar cada combinación posible.

Este es un ejemplo de lo que se llama un problema NP, su característica principal es que es (relativamente) fácil comprobar si una selección determinada satisface los criterios dados, sin embargo la tarea de generar directamente una solución, en general,  es bastante difícil. Por su parte, los problemas P son aquellos para los que existen métodos directos  que proporcionen soluciones de modo  (relativamente) fácil.

El problema P vs NP consiste en  proporcionar algún  problema para el que una posible respuesta pueda ser comprobada fácilmente, pero que necesite un tiempo prohibitivamente largo para encontrar soluciones mediante métodos directos, o bien demostrar que no existen tales problemas.  En la actualidad, el sentir mayoritario de la comunidad científica  es que tales problemas existen. Paradójicamente, se van encontrando algoritmos cada vez más eficientes para problemas tradicionalmente aceptados como difíciles. Manindra Agrawal ha recibido este año el premio Gödel, otorgado por la Asociación Europea de Informática Teórica, por demostrar que el problema de determinar si un número es primo  está en la clase P.

En la práctica, para bastantes problemas de importancia práctica, los métodos basados en realizar una selección al azar y comprobar que satisface las restricciones adecuadas han demostrado ser más simples y más rápidos que los mejores algoritmos directos conocidos. De modo parecido, en combinatoria existen objetos  (como los códigos auto-correctores) cuya existencia es fácil de probar mediante métodos probabilísticos, pero para los cuales sólo se dispone de construcciones explícitas que son muy complejas para solamente aproximar las soluciones óptimas.

De modo quizás sorprendente, en los últimos años se han obtenido resultados que sugieren que todo algoritmo aleatorio se puede simular mediante un algoritmo determinista de eficiencia comparable. Como ejemplo tenemos el algoritmo determinista de Agrawal para comprobar si un número es primo en tiempo polinómico, y el algoritmo determinista de Omer Reingold para resolver problemas de conectividad en grafos no dirigidos que tiene complejidad logarítmica, menor que lineal, respecto de la memoria necesaria.

Al hilo de este último dato, destacamos la investigación de Ronnit Rubinfeld, cuya investigación se centra en el estudio de algoritmos de complejidad menor que lineal, es decir, sublineal. En esta época en la que se manejan cantidades ingentes de datos, los algoritmos de complejidad lineal pueden llegar a ser impracticables. Existen muchos problemas de interés para los que se conocen algoritmos de complejidad sublineal, aunque suelen ser aleatorios y proporcionar respuestas aproximadas. Acerca de este punto,  Luca Trevisan hablará sobre la eliminación de la aleatoriedad, la cuasi-aleatoriedad y las construcciones directas de objetos combinatorios tales como los códigos correctores de errores.

La charla de Jon Kleinberg versa sobre grafos en los que cualquier par de nodos  está ligado por un camino de longitud pequeña (grafos de mundo pequeño) y en métodos aleatorios para encontrar dichos caminos. Esta línea de investigación tiene aplicaciones a la teoría de algoritmos y a la probabilidad discreta.

Tim Roughgarden se centrará en las conexiones entre la informática teórica y la teoría de juegos, lo que se conoce como teoría de juegos algorítmica, en especial, mostrará el uso de funciones potenciales para acotar la ineficiencia del equilibrio de distintos modelos de comportamiento egoísta en redes. Un ejemplo de este comportamiento, aparece en  el conocido dilema  en el que a dos prisioneros incomunicados se les propone escoger entre dos opciones de tal modo que  si, consecuencia de la incomunicación, cada uno se rige buscando el beneficio propio entonces el resultado final es negativo para ambos.

Por su parte, Alexander Holevo presenta resultados relativos a la computación cuántica, que es un paradigma de computación basado en la mecánica cuántica alternativo al paradigma clásico, en el que se usan bits cuánticos en lugar de los bits habituales. El paradigma cuántico hace posibles nuevos algoritmos, y una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo cual ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Por ejemplo, cabe resaltar que Peter Shor obtuvo el premio Nevanlinna en 1998 por su algoritmo de factorización de complejidad polinómica basado en computación cuántica.

Manuel Ojeda Aciego
Profesor Titular de Matemática Aplicada de la Universidad 
de Málaga.


Congresos satélite: Gran Canaria

La Computación Inteligente imita la “sabiduría práctica” de los seres vivos

Diseñar sistemas que imiten el modo en que el ser humano, los animales u otros seres procesan información y resuelven problemas es un viejo sueño de las Ciencias de la Computación. Hoy, tras medio siglo de investigaciones, sus técnicas han madurado y producen beneficios en un amplio abanico de sectores. Las redes neuronales, los sistemas expertos, la lógica difusa y la computación evolutiva, entre otras, se han demostrado capaces de identificar patrones complejos en vastos conjuntos de datos, apoyar la toma de decisiones basada en juicios cualitativos y cuantitativos, y ofrecer soluciones en problemas con alta complejidad de variables. Armada con estos recursos, la informática se atreve a diseñar aplicaciones cada vez más complejas, manejar mayores volúmenes de información, buscar soluciones "inteligentes" y descubrir correlaciones insospechadas en bases de datos.
De estos temas tratarán los dos simposios que tendrán lugar en Las Palmas de Gran Canaria, el próximo mes de septiembre: la Quinta Conferencia en Tecnología de Ingeniería Computacional y la Octava Conferencia Internacional sobre Tecnología de Estructuras Computacionales, en que se debatirán además las últimas aplicaciones de la tecnología computacional a todos los aspectos de la ingeniería, la mecánica estructural y otras áreas, así como los adelantos en hardware y software, algoritmos y desarrollos teóricos.
Ambos encuentros se celebrarán a la vez, y los participantes podrán asistir a las conferencias impartidas en uno u otro indistintamente. Además de matemáticos e ingenieros, se espera la asistencia de científicos de otras especialidades.

                                      “The Fifth International Conference
on Engineering Computational Technology”
Persona de contacto: Gustavo Montero
e-mail: gustavo@dma.ulpgc.es
web: http://www.civil-comp.com/conf/ect2006.htm
“The Eighth International Conference
on Computational Structures Technology”
Persona de contacto: Rafael Montenegro
e-mail:  rafa@dma.ulpgc.es
web: http://www.civil-comp.com/conf/cst2006.htm
Las Palmas de Gran Canaria
12-15 septiembre 2006



Aplicaciones

Mensajes cifrados

En la sociedad del siglo XXI son continuos los intercambios de información, y los datos deben viajar rápida y constantemente de un lado: transferencias bancarias, conversaciones telefónicas, documentos oficiales... La robustez de todo este sistema se asienta en la posibilidad de encriptar la información para que se mueva de forma ágil y segura sin que pueda ser inspeccionada o utilizada por personas ajenas. Y aquí, de nuevo, la pieza clave vuelve a estar en las matemáticas. Como explica Alejandro Melle, catedrático de Álgebra de la Universidad Complutense de Madrid, son muchos los sistemas teóricos en el campo de la encriptación, pero la mayoría de ellos no pueden luego aplicarse porque resultan ineficientes para asegurar un intercambio seguro y fluido de la información.
La comunidad matemática trabaja muy duro tanto en la generación de algoritmos de encriptación como en el criptoanálisis, es decir, la ruptura de los algoritmos de cifrado. Es esta combinación la que hace que la seguridad sea realmente efectiva, pues los algoritmos criptográficos deben ser de ámbito público, para que la seguridad del criptosistema esté basada en las matemáticas y no en el secretismo. La moda en los procesos y protocolos de seguridad que se usan en el mundo, viene impuesta en la mayoría de los casos por la NSA (Agencia de Seguridad Nacional Americana) y el NIST (Instituto Nacional de Tecnología y Estándares), ambos norteamericanos. Y los protocolos de cifrado más utilizados tradicionalmente están basados en dos problemas fundamentales de la matemática: “el problema de la factorización de números primos grandes”  y  “el problema del logaritmo discreto”.
Más en concreto, el protocolo RSA, que es el más utilizado, gira en torno a la idea del problema de la factorización de números primos grandes: dado un número N muy grande, es muy difícil encontrar sus factores primos (p, q), tal que N = p x q. Sin embargo, aunque resulte difícil de encontrar estos factores, el aumento de la potencia de los ordenadores obliga a usar números cada vez más grandes para evitar problemas. Según indica Melle, lo habitual ahora es trabajar con tamaños de clave de 1024 bits o incluso 2048 bits. Ahora bien, a mayor tamaño de clave, menor es la velocidad de las operaciones. Por ello la Fábrica Nacional de Moneda y Timbre, que actúa como Autoridad Certificadora Estatal (y es la emisora de los certificados digitales para las transacciones oficiales con la Administración), desaconseja usar tamaños de clave de 2048 bits.
Por otro lado, los protocolos basados en el problema del logaritmo discreto trabajan o bien sobre cuerpos finitos o bien sobre curvas elípticas sobre cuerpos finitos. La criptografía basada en curvas elípticas hace posible garantizar la seguridad de los sistemas con tamaños de clave mucho menor, por ello se utiliza en soportes donde el espacio de almacenamiento es un factor determinante, como una tarjeta de crédito.

Para saber más:

Alejadro Melle: amelle@mat.ucm.es

Criptomathic company
http://www.cryptomathic.com/labs/ellipticcurves.html

Second Criptography Hash Workshop
http://www.csrc.nist.gov/pki/HashWorkshop/index.html

Mathematics and Internet security
http://www.mathaware.org/mam/06/