Autor: Alejandro Rivero

  • Un trabajo que deje sin hacer

    Con la idea de interpretar el espectro del modelo estándar como una ruptura parcial de supersimetría, pregunté el otro dia en physics forums si realmente había o no supersimetría en mecánica cuántica, y naturalmente a los pocos posts me devolvieron la pelota recordandome todo lo que se había hecho en los años 80 y 90…

  • La complejidad de la formula de Koide

    Vamos a asumir que la \(z_0\) y las \(z_n\) del ansatz de Koide pueden tener valores complejos. Por evitarnos un parametro, tomemos que es uno. Podemos poner $$z_n= \cos(\tau)\sqrt{2}\cos\left(\frac{2\pi n}{3} + \delta\right) + i\sin(\tau)\sqrt{2}\cos\left(\frac{2\pi n}{3} + \mu\right)$$ de forma que siguen sumando cero y todavia se cumple que la suma de los \(z_n z_n^*\) es…

  • La simplicidad de la formula de Koide

     He vuelto a mirar el preprint de 1981 y en terminos de Koide la formula es extremadamente sencilla, incluso se puede argumentar que es lo siguiente a que sean todas las masas cero. La idea de Koide es dar, entre otras, una formula de masas para los leptones cargados, $$m_{e_i} \propto (z_0 + z_i)^2$$ donde…

  • Bing takes a look to the idea of adaptive attention.

    Vamos a aprender juntos. Bing cuenta con tecnología de IA, por lo que es posible que haya errores y sorpresas. Asegúrese de comprobar los hechos y compartir comentarios para que podamos aprender y mejorar. Mensaje enviado. is attention a generalisation of kernel convolution? Buscando: ‘attention kernel convolution’ Buscando: ‘attention generalisation kernel convolution’ Generando respuestas para usted… That’s…

  • Bing thinks -sort of- about numerical Integration and Derivation with transformers

    Mensaje recibido. Seamos creativos. ¿Tiene algún tema en mente o deberíamos improvisar? Mensaje enviado. question is about attention. 1) can we use attention to implement a numerical method that calculates the derivative 2) can we proof equvalence to some family of known methods 3) is there already some research about this? Buscando: ‘attention derivative numerical…