Alejandro Rivero

Nacido en el año 3 antes de UnixTime. Vive y trabaja en Zaragoza.

Supersimetria y Compuestos (I)

Voy a adelantarme en el revival de mis articulos antiguos para entrar en cómo rescaté la supersimetria en el 2005. O, más modestamente, como podría rescatarse. Pero por mantener el tono historicista, empezaré por la motivación: el rechazo de la idea, dominante desde fines de los setenta, de que todo ocurre a la escala de Gran Unificación y en los aceleradores de ahora se ve sólo la variacion de constantes que trae el grupo de renormalizacion al ir descendiendo la energia.

Ojo, esta idea, la de bajar desde GUT, tiene al menos un exito parcial: la masa del electron, que resulta estar en el rango adecuado, usando la cte de estructura fina para descender desde la masa de Planck. Esto lo explica Polchinski en su segundo tomo, aunque hay heterodoxos que han preferido otras interpretaciones (estoy pensando en Nottale, claro).

El caso es que en el 2005, enredando en los foros, empezamos a ver que habia bastantes formas en las que las cantidades a baja energia encajaban. Algunas serian simple coincidencias, y otras algunas de esas sumas globales de diagramas que ya en tiempos medio enloquecieron a Cvitanovic cuando calculaba g-2. Pero para ser coincidencias, habia demasiadas.

Justo mientras estaba leyendo sobre Koide, y por enredar con las graficas de MacGregor y familia, me habia llamado la atencion que la amplitud de decay de la Z0 se alineaba con la del resto de particulas neutras…

… lo que es milagroso porque obviamente los piones son compuestos, y la Z0 es uno de nuestros bosones gauge elementales. Pero con este detalle, que reporté en hep-ph/0507144 y hep-ph/0603145,ya tenia la mosca detras de la oreja respecto a la “compositeness”.

Y claro, los articulos de Koide del 81 se basaban en esto, en compuestos. Lo que no era demasiado satisfactorio en el 2005. La siguiente pieza era que habia estado pensando en la estabilidad del pion cuando su masa es exactamente igual que la del muon, y en la extraña coincidencia de que una masa “de Higgs-Yukawa” sea casi igual que una masa “de QCD”. Asi que en algun momento se fusionaron estas ideas, y me planteé: puede ser que la formula de Koide sea solo un indicio que se aprecia mejor en los leptones que en los mesones, y que en primer orden realmente la masa del pion sea como la del muon y lo mismo ocurra con el tau y algun otro meson… de manera que la explicacion de Koide no necesitaria que los quarks y leptones fueran compuestos, sino simplemente que fueran supersimetricos a compuestos.

Lo que significa que ya hemos encontrado los sleptons y squarks: son los mesones y diquarks.

la masa del top, y predicciones.

Parece que HPC2012 no va a sacar medidas nuevas de la masa del Top, y por otro lado el Tevatron ya da por definitiva su medida,

173.18 ± 0.56 ± 0.75 GeV

donde la suma en cuadratura de los errores sería ± .936 GeV

De otra parte, sí que hubo una combinacion Atlas/CMS en Julio, que daba 173.34  ± 1.42, pero el CMS en solitario tiene -en Septiembre- otra preliminar que es mejor, 173.36 ±.986.

Suelo estar al tanto de estas medidas por ver su cercania a dos predicciones intuitivas que me gusta llevar en la cabeza. Por un lado, yukawa del top igual a uno, que corresponde a una masa de 174.10 GeV, si se puede considerar que este yukawa corresponde a la medida directa. Por otro, mi prediccion de la masa a partir de una escalera de Koide, o catarata de Koide segun se mire, y que daba 173.26385 GeV.

Si nos creemos que podemos hacer la media ponderada de una medida del Tevatron y otra del LHC, que a fin de cuentas son independientes pero miden la misma particula, y aplicamos que la sigma cuadrado final es la suma de (peso*sigma)^2 de las dos que estamos combinando, entonces podemos “mejorar” la medida:

Combinando Tevatron y LHC del Verano, tendriamos 173.228  ± .782 GeV.

Combinando Tevatron y CMS de Septiembre, tendriamos  173.265 ± .679 GeV.

Asi que parece que tal como van las cosas la posibilidad Yukawa=1 estaria una sigma fuera mientras que la prediccion via Koide se asienta en la zona central de la combinacion. No obstante, las combinaciones del LHC parece que estan siendo sistematicamente mas altas que las del Tevatron,  asi que todavia hay margen para que al ir aumentando la precision se vaya la zona central un poquito mas para arriba. A ver cuando sacan los calculos con toda la luminosidad de este año!

define top(massfactor,anglefactor) {
me=0.000510998910
mmu=0.1056583668
mtau=((sqrt(me)+sqrt(mmu))*(2+sqrt(3)*sqrt(1+2*sqrt(me*mmu)/(sqrt(me)+sqrt(mmu))^2)))^2
m=(me+mmu+mtau)/6
pi=4*a(1); cos=(sqrt(me/m)-1)/sqrt(2); tan=sqrt(1-cos^2)/cos
delta=pi+a(tan)-2*pi/3
mc=massfactor*m*(1+sqrt(2)*c(anglefactor*delta+4*pi/3))^2
ms=massfactor*m*(1+sqrt(2)*c(anglefactor*delta+2*pi/3))^2
mb=massfactor*m*(1+sqrt(2)*c(anglefactor*delta))^2
mtop=((sqrt(mc)+sqrt(mb))*(2+sqrt(3)*sqrt(1+2*sqrt(mc*mb)/(sqrt(mc)+sqrt(mb))^2)))^2
return mtop
}
top(3,3)
173.2639415940

Física y matemáticas en Agustín Garcia-Calvo

Cuando Agustín entraba a tocar temas de física Priscilla, una de las cientificas del grupo de optica cuantica del CSIC, terminaba la tertulía medio enfadada, “no es así, no es así”.  De poco valía que anunciara que iba a basarse en Lucrecío y no en la ortodoxia actual, porque es cierto que bastantes veces se salía, se desbordaba más bien, de ese curso. Pero la seguridad de mi amiga era más bien la necesaria de un investigador práctico, que simplemente pasa de puntillas por los puntos escabrosos.

Los historiadores de la ciencia, que la miran desde la atalaya moderna, entienden la física antigua mucho peor que Agustín, que puede mirarla desde la trinchera de Parmenides. A veces un historiador moderno llega a vislumbrar esa receta de que Meliso, creyendo apoyar a Parmenides, le dio material a Democrito, pero simplemente el enunciarla retuerce las neuronas de cualquiera.  En cambio Garcia-Calvo, desde su punto de vista privilegiado, puede ver y explicar mucho mejor las propuestas de los atomistas.

(EDIT: tened presente que Democrito es el que casa ser y no ser:  “en nada es más lo que es [lo que sea] que lo que no sea”.)

Así, percibe la importancía no solo de la paradoja de la flecha, sino de su versión estatica, la cuestión del cono y el cilindro. Ni siquiera con la enorme pista que da Arquimedes –¡y nada menos que en el Método!– esos historiadores le dan atención a ello. Pero otra cosa debieron pensar Cavalieri y Galileo cuando, discurriendo entre ellos sobre los métodos para sumar areas y volumenes, Galileo propuso a Cavalieri que estos metodos basados en la suma de infinitesimos deberian llamarse “métodos de indivisibles”. Y cuando las dos paradojas se juntan, el propio Newton se asusta y corrige y reescribe varias veces sus argumentos sobre las areas barridas durante una orbita.

Tambien gusta subrayar, por cierto, el hecho de que la palabra “atomo” traducida al latin haya pasado a significar la unidad minima de la sociedad, “individuo”. En algún libro Agustin sugiere que seria un buen tema de investigación de tesina el averiguar si esto fue cosa de Ciceron mismo o de algun otro escritor politico romano. No se si se ha llegado a escribir dicha tesina.

En las cuestiones del origen de la aritmetica, rondando a Pitagoras, le ayuda su faceta de poeta y su visión del ritmo, una forma clara de aproximarse a las divisiones del segmento (y hasta si hubiera querido a la criba de Eratostenes y al producto en Zeta de Euler). Desde este punto de vista de la división es como se entienden la duda sobre si 1 es un número, o el argumento de que en algunas definiciones el primer numero impar es el 3, que poseyendo divisiones, todas son en partes desiguales.

Un poco más liada estuvo esta duda, y otras, cuando saltó, en su libro “De Los Numeros”, de la aritmetica primitiva a estudiar las formulas algebraicas , igualdades y sentencias típica de la notación matemática moderna. Aquí la lectura se hace dificil si no se tienen fundamentos de lingüista, y a mi muchas de las discusiones en ese libro me parecen mas bien sobre el problema de la producción de un lenguaje que sobre la cuestión de las operaciones algebraicas.

Sospecho que en esto de la producción, en la expresion lineal de una frase, es en donde difiere Agustín de la linguistica a la Chomsky, porque mientras en la instancia organizativa no tiene ningun problema en utilizar un arbol (dibujado normalmente como conjuntos de Venn) de relaciones binarias, en la producción no se lo imagina uno admitiendo y explicando Merges y demás.   Avisados queden pues los estudiantes de gramatica que hayan de venir de que no les engañe el título de ese libro, y lo incluyan en sus lecturas junto al resto de tomos que Garcia-Calvo ha escrito sobre teoria linguistica. Los matemáticos en ciernes pueden sacar del libro un sentimiento de que algo más, algo no descrito, tiene que haber por debajo de sus expresiones, y que hay que andarse con cuidado a la hora de agarrar un signo igual o una variable. Que no es poca ganancia darse cuenta de ello, aunque creo yo que cualquier matemático de verdad, por su mera práctica. sí que esta prevenido sobre estas cosas, y el problema esta más bien en la matemática como se transmite a otros ámbitos.

Por último, si estais interesados en las -no sé si famosas- visitas de Agustin al ArXiV, el libro que teneis que mirar es “¿Que és lo que pasa?”, aunque solo sea para contrarrestar la impresión que he podido dar de no que con tanto Lucrecio y presocraticos pudiera no estar “al tanto” de las ideas modernas de la física.  El libro en sí se lee independientemente de “Contra el Tiempo”, pero aunque lo extiende, no lo sustituye. Y el apendice tiene una tanda de notas sobre preprints de todo pelaje, que seguramente sorprendera al que sólo visita su sección y no se ha paseado por todo arxiv.org.

consenso y temperatura

Un sistema con 128 nodos conectados en cuadricula, cada uno de ellos tiene 14 versos de Lope que esta dispuesto a intercambiar con sus vecinos a la busqueda de consenso.

No os preocupeis si no se entiende nada, en realidad estoy tomando la nota mental aqui en el blog para que los buscadores no me lo puntuen como irremediablemente abandonado.

Al grano. Tenemos una variable, beta, que mide la cantidad de veces que estas dispuesto a aceptar un verso de un vecino a pesar de que ello te aumenta la discrepancia con los otros tres: a mayor beta, menor disponibilidad. En un sistema fisico esta variable es la inversa de la temperatura. De aqui viene  el titulo del post. La temperatura alta viene a ser la disponibilidad para admitir fluctuaciones altas, lo que solo ocurre con beta baja.

Sumamos la cantidad de disenso contando las modificaciones que habria que hacer en una coleccion de versos para producir la otra. Vamos, distancia de Levenshtein mas permutaciones. A esto se le puede llamar la energia del sistema, la cantidad que queremos acercar a cero tanto como sea posible.

Uno se da cuenta de que una beta muy baja es un desastre, porque todos vamos a ir admitiendo lo de todos sin compararlo y simplemente vamos a estar dandole vueltas y vueltas a las configuraciones. Asi que hay que elevar la beta: y en efecto a una beta muy alta, muy inflexible,  cada nodo insiste siempre en admitir tan solo cambios que mejoren su coincidencia con los vecinos, la suma total de discrepancias comienza a bajar a cero a una velocidad apreciable… y luego nada, se queda colgado intentando variaciones de lo mismo. Chasco.

Lo curioso es que la velocidad de descenso no cambia suavemente con beta: a medida que la incrementamos desde un valor bajo, no se nota nada, hasta que de repente con una (in)flexibilidad critica empieza a acelerarse. Es en ese momento cuando el sistema visita mas posibilidades y por tanto se encuentra de tanto en cuando hasta con situaciones de consenso total… aunque al ser todavia la temperatura distinta de cero, de repente admite una fluctuacion, permite un poema que intercambia dos lineas de posición, y se vuelve a salir de ese minimo.  Pero si seguimos aumentando beta y nos mostramos mas inflexibles para evitar fluctuaciones, no encontraremos el consenso y nos quedaremos atascados a medio camino.

Con un poco de paciencia, todo esto se ve en la siguiente grafica:

la vertical indica la energia total, la horizontal el numero de iteraciones del sistema, y las lineas estan a diferente valor de beta. Las de beta bajo son las que permanecen practicamente horizontales: la temperatura, el ruido si quereis, evita cualquier sincronia. A mayor beta vemos esas lineas que fluctuan cada vez mas rapidamente hacia los valores bajos de energia, visitando ocasionalmente los minimos absolutos. Pero a todavia mayor beta, aparece la linea roja gruesa, y luego la verde y la azul (ahí creo que me he liado en la notación) : son estos los casos en los que más rapido parece que nos estamos poniendo de acuerdo, gracias a la inflexibilidad de no admitir una propuesta si no mejora la coincidencia con los vecinos… pero cuanto mas insistemos en esa inflexibilidad, mas nos alejamos de visitar los mejores casos de consenso global.

Veamos esto con mas detalle en una segunda gráfica, solo con betas por encima del valor de transición.

Los mejores casos son para beta todavía baja. Cuando se aumenta la inflexibilidad, la gran velocidad inicial se ve frustrada cada vez en mayor medida. Todavia es posible encontrar situaciones de consenso a base de echarle paciencia e iterar, y esperar que alguna solución se abrá paso de unos vecinos a otros; de hecho vemos que valores no demasiado altos de beta pueden incluso llegar a encontrar tambien una solucion optima aun despues de haber estado un buen rato atascados en las intermedias.

Por supuesto en el mundo real, y en el de las redes, el truco esta en que no solo juegas con cuatro vecinos y hay nodos que transmiten informacion a largas distancias. Pero aun con contactos locales, uno puede encontrar situaciones de “gran longitud de correlación”,  jugando cerca de la llamada Temperatura de Curie.

El siguiente estudio seria añadir el “campo externo”, si se puede llamar asi a las opiniones particulares del controlador de cada nodo, y ver que soluciones se alcanzan entonces.

El examen sorpresa y la retroinducción.

Vays por delante que Ken Binmore es un desastre para hacer libros abreviados (Teoria de Juegos, una Breve Introduccion, trad. en AE), se pega la mitad del tiempo disculpandose y la otra mitad justificandose: que si el poker, que si cuando era niño… Pero me ha llamado la atención especialmente que en su defensa de la retroinducción se olvida de mencionar una de las objecciones más divulgadas, la del examen sorpresa.

El profesor anuncia: la semana que viene habra un examen sorpresa. Los alumnos razonan que no puede ser el viernes, por tanto solo puede ser de lunes a jueves, por tanto no puede ser el jueves, etc… luego no puede haber examen sorpresa. Y claro, cuando lo pone, les pilla desprevenidos.

Cierto que el examen sorpresa de un movimiento es sólo una paradoja logica: “Mañana habrá un examen sorpresa”, es simplemente Epimenides haciendo de las suyas: Sí descartamos la frase por falsa, el examen nos pilla por sorpresa y es -a posteriori- verdadera. Si la tenemos en cuenta, es -a priori- falsa. Puede que por esto Binmore no la considere como candidato a retroinducción, pero  más bien me temo que es porque su formulación iterada hace demasiado evidentes los riesgos de falacia de esta tecnica y en su obsesion por defender la teoria prefiere barrer hacia debajo de la alfombra.

Por otro lado, la retroinducción nos muestra a las claras los peligros del infinito. ¿Como puede ser que la solucion, del prisionero iterado un numero finito pero grande de veces sea esencialmente distinta de la solución -la estrategia optima- con un numero indefinido de veces?  ¿como puede ser que el limite de masa infinitesimal de una teoria de campos no sea igual al caso con masa cero?