31.1.08

1365.- Cloaking (2)

-Se puede ser invisible?

-Casi, casi que sí.

-¡Uh, y me puedo meter en un vestuario de minas a verlas en bolas sin que me vean?

-A medias... podés meterte sin que te vean, pero tampoco vos las vas a poder ver.

-Ah... entonces no sirve para nada!

* * *


Algo de eso hay en el cloaking, que le hace perder de golpe mucho de su atractivo, pero como método de invisibilidad, o de esconderse, es muy bueno. Y tampoco es que uno pueda hacerse invisible del todo, tiene otros defectos que lo complican, pero funciona bastante bien.

El más grave, por ahora, es que "funciona" para cada longitud de onda por separado, y lo que no veo con una luz, lo veo con otra. Pero esa supuesta contra se transforma en una ventaja (piensen si quieren bombardear con un laser un tejido pero no otro, puedo 'esconder, enmascarar' los que quiero proteger y dejar que el laser 'vea' lo que quiero quemar).

(Continuará)

30.1.08

1364.- El problema de Gauss (2)

Vamos a la relación del problema de Gauss con el problema de contar cuadraditos en el círculo. Para simplificar, supongamos que contamos sólo los cuadrados del 1er cuadrante.




Si pensamos que cada punto de coordenadas enteras (m,n) dentro del círculo es el vértice superior derecho de un cuadradito, por cada par de enteros tales que m2 + n2 es menor R, tenemos un cuadradito de áera 1, y podemos acotar el número de cuadraditos o pares (m,n) a lo bestia a la Gauss, diciendo que es menor que pi R/4, un cuarto del área del círculo.

¿Qué error cometemos? Siguiendo a Gauss, estimemos por debajo el área que cubren los cuadraditos. Si el vértice superior derecho de un cuadradito cayó fuera del círculo, el inferior izquierdo está como mucho a distancia \sqrt{2} del borde. Pensando un poquito en esto, llegamos a la conclusión de que toda el área dentro del círculo de radio \sqrt{R}-\sqrt{2} está cubierta con cuadraditos, y por lo tanto, es mayor a
pi R/4 - 2\sqrt{2}\sqrt{R}/4.

En definitiva, la cantidad de puntitos está ensanguchada entre pi R/4 - 2\sqrt{2}\sqrt{R}/4 y pi R/4. Mejorar la estimación es lo que se conoce como el problema del círculo de Gauss. Se sabe que el error no es R1/4, pero se cree que está arbitrariamente cerca (eso mas épsilon para cualquier épsilon). Por ahora, sólo se tienen valores cercanos a 1/3.

* * *


Corregir los puntos que faltan es sencillo, se agregan 4[\sqrt{R}], parte entera de \sqrt{R} (y si uno agrega a lo bestia \sqrt{R}, el error es menor a 4, despreciable al lado del otro que depende de \sqrt{R}).

* * *


Hernán hizo un razonamiento sobre el área que se perdía en cada cuadradito al ser intersecado por el borde del círculo y proponía que era menor o igual a un medio, y suponía que estaba uniformemente distribuida. Asi llegaba él a una estimación similar a la de Gauss.

La estimación no está nada mal, y de hecho es la correcta si uno cambia el círculo por otro conjunto convexo (ehh... sí, eso... dos puntos dentro del conjunto se conectan por un segmento que está dentro del conjunto): para un cuadrado, el error crece como \sqrt{R}: si pensamos en una recta horizontal (o vertical) que se mueve, va barriendo el área de un cuadradito, y en promedio deja 1/2 afuera.

Ahora, entre una recta (cero curvatura, perfectamente plana) y un círculo (perfectamente curvado) uno puede ir metiendo otras curvas, y el exponente depende de su curvatura, ahí es donde varía desde el 1/4 hasta el 1/2. Explicar el por qué de esto no es nada sencillo, así que no lo voy a hacer.

Pongo en los tags 'ecuaciones diferenciales', porque aunque no lo crean, tienen mucho que ver con todo esto.

28.1.08

1363.- El problema del círculo de Gauss

Las respuestas al post anterior, y en especial la estimación de Hernán del número de cuadrados dentro de un círculo, me empujan a contar esto. Es uno de los primeros problemas en los que me metí 'en serio' y por mi cuenta, con la esperanza de entender cómo funcionaba y esperando que saliera algo.

El problema del círculo de Gauss es otro problema, una pregunta aritmética que se puede rastrear casi hasta Diofanto: ¿de cuántas formas se puede expresar un entero como suma de dos cuadrados?, y que a primera vista no parece tener relación con lo anterior.

La respuesta es retorcida, porque para muchos enteros la respuesta es: de ninguna. Por ejemplo, 5 = 1+4, pero 7 = ?;
25 = 25 + 0 = 16 + 9, pero 28 = ?... y demostrar qué está pasando es difícil: depende de los divisores que tiene el número (casi todos los primos son de la forma 4k+1 ó 4k+3), y se podrá escribir como suma de cuadrados según las potencias a la que aparecen los 4k+3. Por ej., 3 no se puede escribir como suma de cuadrados; 9 sí: es 0+9; 12 no, 18 = 9+9... ¿se ve algún indicio? Gauss demostró una fórmula cerrada que dice exactamente de cuantas formas puede escribirse (hubo otras demostraciones antes, pero la primera completa es suya), pero era casi inútil porque había que factorizar primero el número.

Entonces, tuvo una idea genial: en vez de estudiar cuántas formas hay de escribir un número como suma de cuadrados, se preguntó cuántas formas hay en promedio de hacerlo. En promedio quiere decir que calculo cuántas formas hay para 0, para 1, 2, 3,..., n, las sumo, y las divido por n. La ventaja es que se puede contar muy rápido cuantas formas hay para todos los números a la vez entre 0 y n (sin utilizar la fórmula que había encontrado Gauss): son los puntos de coordenadas enteras dentro del círculo de radio raíz de n.

¿Se empieza a ver la similitud con el problema del post anterior?


24.1.08

1362.- Problem(it)a

¿Cuál será el máximo número de cuadraditos de lado 1 que se pueden meter dentro de un círculo de radio 100 sin que se salgan ni se superpongan?

cuánto hace que no ponía un problem(it)a! Se escuchan soluciones, especialmente aquellas ingeniosas y raras, aunque no sean necesariamente correctas.

22.1.08

1361.- Flame (3)

Volvamos al flame. Habíamos dicho que el cociente incremental [y(x+h)-y(x)]/h aproximaba bastante bien y'(x), y que el método de Euler para resolver ecuaciones diferenciales nos daba un error O(h), pensado como un O(h2 de Taylor multiplicado por 1/h, el número de pasos.

Si queremos resolver una ecuación tan simple como
y' = ay, y(0)=1

(tan simple que la sabemos resolver exactamente y da eax) reemplazamos la derivada por el cociente, llamamos xk=0 + kh, y tenemos
y(xk+1) = (1+ah)y(xk)

Si repetimos esto k veces hacia atrás, queda
y(xk+1) = (1+ah)k

porque y(x0)=y(0)=1. Les dejo que vean que esto converge a la exponencial y=eax cuando h tiende a cero...

* * *

El método -Euler me perdone- es malo. Ok., funcionó bien durante años, se lo utilizó como la base de métodos posteriores, y toda la teoría de diferencias finitas arranca ahí. La filosofía es simple, cambiar derivadas por diferenciales (o, como se lo presenta a veces, utilizar el polinomio de Taylor para desarrollar la función incógnita).

Lo malo, para nada obvio, es que la aproximación que hacemos es demasiado general: el método, la aproximación, la filosofía que mencionaba es la misma para cualquier ecuación diferencial. Y por eso el error es O(h): es lo óptimo que se puede conseguir si estamos aproximando la derivada de una función cualquiera.

En otras palabras, dada una ecuación diferencial específica, concreta, es posible que haya métodos mucho mejores que el de Euler -conservando su simplicidad- para esa ecuación. Por ejemplo, para la ecuación anterior, el siguiente:
y(xk+1)=ea(k+1)hy(xk)/eakh=eahy(xk)

es perfecto! coincide exactamente con la solución en los puntos de la grilla 0, ah, a2h,..., akh,...

* * *

Y esa es la 1ra característica de flame: no hay un método fijo, premoldeado para cualquier ecuación, sino que dependerá mucho de la ecuación que uno quiera resolver.

18.1.08

1360.- Bobby Fischer (1943-2008)



A los nacidos en la década del '70 nos persiguió un fantasma que nunca vimos jugar: Fischer. Cuando volvió en aquel match revancha contra Spassky, creo que todos nos desilusionamos un poco, y es que no se puede superar una leyenda. Ese match, además, lo llevó a la ruina: jugado en Yugoslavia, en pleno embargo yanqui, lo convirtió en un prófugo y tuvo que exiliarse de su país. Desde entonces, cada vez que apareció en público fue con declaraciones polémicas sobre la política de su país, que hubiesen sido provechosas de no ser por el contenido racista de las mismas.

Fischer protagonizó una de las batallas épicas de la Guerra Fría: su match por el título contra Spassky. El match tuvo tantos comentaristas políticos como ajedrecísticos, y hallar un lugar neutral (al final fue Islandia) se vio dificultada una y otra vez por la dificultad de acomodar a los ajedrecistas y a los servicios secretos. Marcó un triunfo del individualismo yanqui contra el colectivismo soviético, pero esa historia está llena de grises que ni se comentan. Para ganar, por ejemplo, tuvo que cambiar las reglas, cambiando las eliminatorias de un torneo general a una serie de matches individuales (antes, una mayoría soviética importante torcía el rumbo de estos torneos: se dice que en la 1ra ronda sólo entablaban entre sí, y en la 2da entregaban sus partidas al que había salido primero de ellos). Y lo más interesante es que no clasificó para jugar las elimatorias, sino que obtuvo su lugar (y así llegó al título) porque un jugador americano renunció a jugarlas en favor a él. Claro que en esas eliminatorias su nivel para arrasar a los rivales por 6-0 fue algo sorprendente, el único que le hizo fuerza fue Petrosian, con 5 tablas en los primeros partidos... y un 6-0 después.

Reti decía que el ajedrez prosperaba en los países que lideraban ideológicamente al mundo. Con Fischer comenzó a declinar el poderío ruso en todo sentido, y si bien los rusos se destacan hasta el día de hoy, está claro que es el momento de la globalización, ya que se encuentran desparramados por todo el mundo, al igual que los principales jugadores de distintos países: desde una yanquizada Polgar, al españolísimo Shirov... Pero debería corregir este final: ahora son las computadoras las que llevan las de ganar. La globalización no pasó, se virtualizó.

16.1.08

1359.- Cote de Pablo

De las últimas 40 visitas, diez llegaron buscando imágenes de "Cote de Pablo". Intenten adivinar de qué se trata antes de ir acá.

igual, todavía no sé por qué tanto interés de un día para otro

15.1.08

1358.- Peter Lax

Rayleigh fue el primer matemático en recibir un Premio Nobel, en física, por el trabajo que hizo en química -el descubrimiento del argón.


Uno de los mil detalles en Mathematics and physics, de Peter Lax en el Bull AMS, enero de 2008. Resumo otro:

Friedrichs me contó de un encuentro casual con Heisenberg en los sesenta. Aprovechó para expresarle la gratitud de todos los matemáticos por haber creado una disciplina que inspiró una matemática muy bella. Heisenberg le permitió hacerlo; Friedrichs agregó que los matemáticos, en cierta medida, habían pagado su deuda. Heisenberg no respondió, y Friedrichs señaló que fue von Neumann, un matemático, quien aclaró la diferencia entre un operador autoadjunto y uno que sólo era simétrico.

-¿Y cuál es la diferencia? -preguntó Heisenberg.

12.1.08

1357.- Flame (2)

De vez en cuando la vida nos ofrece una ecuación diferencial:
y'(x) = f(x,y), y(x0)=y0

irresoluble, que no sale por ninguno de los métodos analíticos.

La 1ra pregunta es ¿qué hacer?
* * *

Hace 250 años Euler tiró una idea [bue, 250... Euler hizo todo en el año 1750 +/-30]:

se puede aproximar la derivada y'(x0) por el cociente incremental [y(x0+h)-y(x0)]/h, y despejando, queda
y(x0+h) = y(x0) + h f(x0,y(x0))

Parece fácil: conocemos la función en el punto x0 porque es dato, y ahora con esta cuenta, la conocemos en el punto x0+h. Llamando a h el paso, hay que ir paso a paso, como dijo Mostaza, y uno llega así a calcular la solución en algún valor x1 que nos interese.

La 2da pregunta es ¿en cuánto le estamos pifiando?
* * *

Miremos de vuelta el pase de magia: y'(x0) no es el cociente incremental [y(x0+h)-y(x0)]/h, hay un error que podemos llamar T, así que cuando despejamos, la cuenta queda
y(x0+h) = y(x0) + h f(x0,y(x0))+h T,

y decimos que el error es de orden h.

Uno puede quedarse tranquilo, pensando que cuando h es chico también el error es chico, y que uno entonces puede calcular con precisión casi arbitraria los valores de la ecuación sin muchos líos.

La 3ra pregunta es ¿en serio?
* * *

La respuesta es no. Para entender por qué, uno podría pensar en que x0=0, y queremos calcular la solución en 1 con cierta precisión. Tomamos como h = 0.1, y hacemos diez pasos, pero resulta que ya en el primero el error es grande. Entonces, tomamos h=0.05, pero ahora tenemos que hacer el doble de pasos, y si bien el error de cada paso es más chico, como tenemos que hacer 20 pasos podría amplificarse. Y si hacemos h=0.01, ahora hay que hacer 100 pasos... Si se quiere, y simplificando mucho, cada vez le pifiamos por menos, pero como tenemos que hacer muchos pasos, la acumulación de esos pequeños errores puede ser terrible.

No voy a entrar en más detalles por ahora, pero que esto no pase es la estabilidad del método, y en el fondo nos lleva al Teorema Fundamental del Análisis numérico: dada la consistencia de un método, es equivalente la convergencia a la estabilidad (la consistencia, para no complicarnos más la vida, es que nuestro método se aproxime a la ecuación diferencial cuando h tiende a cero).

La 4ta pregunta es: ¿y qué error se comete con el método de Euler al calcular valores?
* * *

Un O(h), es de orden h. Si bien h dijimos que era el error de truncamiento, lo calculamos muy a lo bestia. Si hacemos Taylor,
y(x0+h) - y(x0)- h f(x0,y(x0))=y''(c)h2,

el error real es de orden h2. Pero si vamos, por ejemplo, de 0 a 1 con pasitos h, tenemos 1/h pasos, y el error se puede acumular tanto como
y''(c)h2 . 1/h = Cte . h


La 5ta pregunta es: ¿es normal no haber entendido un carajo?
* * *

La respuesta es . Para entender mejor estos temas conviene agarrar algún libro como la gente, alguno de los apuntes que andan por la red, o aunque más no sea, la wikipedia.

10.1.08

1356.- Flame (1)

Esta semana aprendí qué es flame (también es otra cosa, frecuente en los comentarios de los blogs y los foros, pero eso se hace difícil no saberlo a poco que uno navegue por estos submundos de la web).

Me interesa hablar del otro.

* * *

Si, ya sé que todavía no hablé del cloaking, pero me lo crucé esta semana en el mismo lugar. La idea es tan simple y obvia -y encima, funciona- que resulta genial.

Vamos a ver si le dedico unas líneas la próxima semana.


7.1.08

1355.- Cloaking (2)

Estaba preparando este (otro) post, cuando se me ocurre buscar en imágenes de google goniometro. Y me aparece:

Quizás quiso decir: nanometro


Todo un símbolo.

4.1.08

1354.- Cloaking

Hoy aprendí qué es cloaking. O que "son", porque aprendí que es también otra cosa muy diferente, más allá del "esconder" o "enmascarar" que tienen en común. Googleando van a encontrar mil páginas de técnicas SEO, engine optimization, posicionamiento [palabreja de terror] en buscadores y otras yerbas: ese es uno de sus dos significados modernos.

Me interesa hablar del otro.

* * *

Conté alguna vez que trabajo en teoría espectral. En el 2005 empecé a buscar otras cosas, tenía ganas de cambiar de área, meterme en otra rama de la matemática. Leí de todo un poco, hasta geometría algebraica, buscando un tema que me convenciera de que eso era lo que había que estudiar. Lo más cerca que estuve fue con Linked, y con algunas cosas de biomatemática (primero esto, esto, boludeces sobre el genoma, y Lotka Volterra también, claro).

Pero el año pasado decidí que había sólo dos opciones serias, y la lista del post anterior me terminó de convencer.

* * *

Hoy que por fin me decido por una, me cruzo con el cloaking en la introducción misma del libro que agarré.

Siempre se vuelve al primer amor, cantaba Gardel.