Muerte y Soledad

Sigo con la cuestion del post anterior, la de optimizar el cosechado de recursos en un juego simetrico de dos jugadores. Esta optimización se podria hacer a partir de considerar efectos finitos, distintas update rules y demas casuistica de los juegos de evolución, dado que la “evolutionary game dynamics” es más rica que el caso estatico, por más que este aparezca como límite si se dan las condiciones adecuadas. Muy recomendable el review de Roca, Cuesta y Sánchez de 2009.

Si no mencionamos otra cosa, asumimos que se esta jugando en el cuadrante superior derecho: Snowdrift, etc. Esto es S >0, T>1, R=1, P=0



 

 

Habiamos visto que para un juego (1,S,T,0) la solucion mas conveniente es el equilibrio del juego que optendriamos al proyectar el punto T,S en la diagonal S=T.  Esto es obviamente el juego (1, (S+T)/2,(S+T)/2,0). Dicho de otra manera, tenemos que desplazar el juego una distancia Delta

\begin{pmatrix} 1 & S+\Delta \\ T-\Delta & 0 \end{pmatrix}

que sería \Delta= (T-S)/2 Una primera pista sobre tales desplazamientos la tenemos en el analisis de Ohtsuki y Nowak con juegos en grafos aleatorios. Si la diferencia S-T es bastante mayor que la recompensa R y el grafo tiende a tener muy poquitas interacciones de forma que su grado medio se aproxime a cero, entonces la estrategia optima se aproxima a la de acercar el juego a la diagonal. Eso ocurre para las tres “update rules” que estudian los autores: Pairwise Comparison, Imitation y Death-Birth

 


 

Una update rule que se limita a permitir a un solo competidor cada vez compararse con otro y modificar su posicion va a terminar generando una solucion mixed con p=1/2. Esto se ve facil. Hay :

  • una probabilidad p p de jugar C contra un C y por tanto preferir cambiar a D, porque T > 1
  • una probabilidad p (1-p) de jugar C contra un D y preferir quedarse, porque S >0
  • una probabilidad (1-p) p de jugar D contra un C y preferir quedarse, porque T > 1
  • una probabilidad (1-p) (1-p) de jugar D contra D y preferir cambiar a C, porque S > 0

asi que el equilibrio de la poblacion ocurre cuando p p = (1-p) (1-p), esto es cuando p=1/2.

Por otro lado, sabemos que esta solucion p=1/2 es la mas ventajosa cuando T+S es muy grande. Asi que hay cierta conexion, en el sentido de una ventaja evolutiva global, entre T o S grande en el cuadrante S>0, T>0  y utilizar reglas de update de grado de conectividad muy bajo, que fomenten p=1/2



(continuara en este mismo post)

Juegos simetricos: halcones,palomas y estrategias mixtas.

Siguiendo con el tema de la semana he pedido un par de reviews y me he metido un poco  más a fondo en teoria de juegos. Lo primero para no perderme ha sido el clasificar todos los juegos simetricos, de dos jugadores con dos posibles movimientos (C y D, Colaborar o Desertar) y cuatro posibles resultados: cobramos R si ambos colaboramos, S si Colaboramos pero el contrario Deserta, T en el caso reciproco, y P si ambos desertamos. En principio hay 24 posibles formas de ordenar los cuatro valores, y con el convenio R>P se reducirian a 12. La clasificación, incluyendo tambien juegos asimetricos, la hicieron en los sesenta Rapoport and Guyer (“A taxonomy of 2×2 games” , aunque es mas facil encontrar en la red una mas reciente de Robinson and Goforth del año 2005.

Podemos ver los distintos juegos sobre el plano T-S: Dado que tanto T como S pueden ser estar en tres posiciones respecto a P<R, tenemos nueve juegos:

                  |         ||
       Mixed      | Pure    ||
       Delight    | Delight ||       Hero
                  |         ||
------------------+---------++------------------S=R
  Mixed Harmony   | Harmony ||     Chicken
==================+=========++==================S=P
                  |         ||
     Coordination |  Stag   || Prisoner Dilemma
                  |  Hunt   ||
                 T=P       T=R

Además en los casos Coordination, Harmony y Hero puede que T sea mayor que S o lo contrario, lo que nos define, cortando esos sectores en diagonal tres juegos mas, y ya tenemos el total de 12. En el caso especial de R=P=0 es posible intercambiar T y S, y solo quedarian Hero, Coordination y Prisoner Dilema (o MD).

En la práctica se suele normalizar con P=0 y R=1, y estudiar un cuadrado con S en [-1 .. 1] y T en [0 .. 2], lo que captura esencialmente cinco juegos: Chicken, PD, SH, y los dos triangulos en los que se ha divido Harmony (a veces al triangulo inferior se le llama “No Conflict”). Esto se hace asi porque realmente las propiedades de equilibrio del juego pivotan sobre si S es mejor o peor resultado que P y si T es mejor o peor resultado que R. Esto es, alrededor del punto (T=1,S=0) en la normalizacion habitual.

El juego del “bote de una loteria de un solo numero” que hemos jugado en los dos post anteriores esta un poco fuera de la normalizacion: vemos que tiene la propiedad de que S=R=0,  llamando “Colaborar” al hecho de no comprar el billete (sí, suena raro, pero se trata de mantener el convenio R > P), P=bote/2 – ticket < 0, y T =Bote – Ticket > 0. Se trata pues de un caso limite de Chicken: cuando los dos jugadores compran billete, ambos pierden, al igual que cuando ninguno de los dos conductores del chicken gira para apartarse. La unica complicacion es que en esta normalizacion no podriamos estudiar bien el caso en el que el bote crece tanto que se hace mayor que dos veces el ticket, pero la verdad es que tampoco vamos a hacerlo; ya fue suficiente con dos posts sobre la loteria dichosa.

Lo que si que me interesa por encima de esta clasificacion es una circunstancia que puede marcar diferencias cuando el juego se plantea repetidas veces: los casos en los que a los dos jugadores les mereceria mas la pena pactar para ir llevandose alternativamente S + T en vez de R + R.  Esta linea S+T > 2R, o simplemente S+T > 2 en la normalizacion habitual, deberia tener algun efecto en la clasificacion, pero al no afectar para la construccion de los equilibrios de Nash tampoco afecta a las simulaciones con modelos evolutivos, al menos no en los casos mas comunes. Se podria decir que el juego no es capaz de explotar adecuadamente los “recursos naturales”.

En el caso concreto de Chicken (Snowdrift, Hawks and Doves), calculemos el equilibrio mixto. Si el primer jugador tiene una probabilidad p de jugar “C”, y el segundo una probabilidad q de lo mismo, el cobro del primer jugador sera a la larga:

p q  R + p (1-q) S + (1-p) q T + (1-p) (1-q) P

o, ya con R=1, P=0, y separando terminos

p ( q (1-S-T) + S) ) + q T

la condicion de equilibrio es que el termino multiplicando p sea nulo, esto es

q= S / (S+T-1)

Y cuando toda la poblacion ha evolucionado hacia el punto de equilibrio q el valor extraido por cualquier jugador es a la larga el dado por la primera ecuacion poniento tambien p=q, esto es

S T / (S+T-1)

Incidentalmente, notad que la condicion de equilibrio es una recta que pasa por S=0, T=1. En cierto modo esta familia de rectas, para q entre cero y uno, va interpolando desde el dilema del prisionero hasta Harmony. La recta para q=1/2 es paralela a la diagonal S=T.

Otra pregunta seria, sabiendo que en el equilibrio el valor extraido por jugador va a ser este p ( p (1-S-T) + S) ) + p T, ¿cual seria la estrategia mixta que maximiza la extraccion de valor?. Derivando la funcion, tendriamos la condicion

0 =  2 p (1-S-T) + (S+T)

con solucion

p = (S + T) / 2(S+T-1)

que extraeria un valor por jugador de

[(S + T) / 2(S+T-1)]  ( [(S + T) / 2(S+T-1)]  (1-S-T)  + (S+T) ) = [(S + T) / 2(S+T-1)] (  (S+T) /2)) =
= (S+T)^2 /  4(S+T-1)

Si  (S+T)/2 = S, entonces el equilibrio de Nash es tambien la mejor estrategia mixta a la hora de extraer valor. Esto es la diagonal S=T, que en realidad ni siquiera es dominio de Chicken.

Lejos de esta diagonal,  el equilibrio de Nash es una estrategia ineficaz, la diferencia seria:

(S+T)^2 /  4(S+T-1) – S T / (S+T-1)  =   (S-T)^2 /  4(S+T-1)

Es interesante que las soluciones de mayor eficacia dependen solo de S+T, esto es, forman rectas antidiagonales, perpendiculares a la S=T. Una forma grafica de visualizar por tanto la “solucion eficaz” para un juego (1,S,T,0) es proyectar, o trasladar, perpendicularmente la coordenada (S,T) a la diagonal y tomar la solucion de Nash para el juego resultante, llamemosle (2, S+T, S+T, 0).

Otra cosa que podemos observar mirando la forma de p en funcion de S+T, esto es (S + T) / 2(S+T-1), es que p < 1 solo si (S+T) > 2 ó si (S+T)<0.  La primera de estas condiciones es tambien, como emos mencionado más arriba, la condicion para que empieze a merecer la pena ponerse de acuerdo para jugar CD o DC alternativamente en vez de jugar por el Reward. A medida que va aumentando (S+T), el valor de p va descendiendo hacia 1/2, confirmando el metodo “gráfico” que hemos sugerido en el parrafo anterior.

Por otra parte, si (S+T)/2 es pues el maximo valor extraible por jugada si los jugadores pudieran adoptar algun metodo para ponerse de acuerdo, otra forma de leer las ecuaciones es que el valor optimo (S+T)/2 recibe de partida una correccion (S+T)/ 2(S+T-1) por el hecho de quedarnos limitados a usar soluciones de estrategia mixta, sin memoria ni contexto de las jugadas anteriores.

La cuestion que quiero enfocar en el siguiente post es. ¿hay alguna modificacion del juego, en terminos de reglas de evolucion, que permita equilibrios sobre estrategias mixtas mas eficaces que el equilibrio de Nash? Esto puede ser factible porque las reglas de update en una simulacion tienen en realidad influencia sobre el punto de equilbrio. La cuestion es si se puede aprovechar esa influencia para  ajustarse al optimo de extraccion de una manera razonable, o si simplemente nos desplazamos hacia otro equilibrio sin poder relacionarlo con el óptimo. Pero eso ya sera para el fin de semana.

2016183238bis

jackpot lotteries: some extra analysis

First of all, congratulations to the winners. Lets try to collect here the final data of the  jackpot run:  Reminder, the jackpot prize comes from an extraction of 5 numbers from 69 plus another of 1 number between 26. This was chosen purposefully last year, to produce this kind of big prizes once in the yer. (69 5) times 26 is 292 201338, ticket price is $2 and you can expect a return from minor prizes setting the price to a lower $1.58. The number of players was unknown, but  from the increase of the jackpot it can be napkin-guessed to be around 635M, (no idea why the estimation of wired is a lot lower, say 170M, and on the other hand (1500-947.9)/0.34/2 is even greater, 800M. Perhaps it should be estimated from the cash-payout, which is a 62% of the jackpot?).  There has been, or it is claimed so, three winners that will share the big prize. The number of players increases faster than linear with the size of the jackpot, fitting well with quadratic (!) or exponential function.

Now, back to the game-theoretical considerations of yesterday.

We assume a god-given jackpot, a “resource” to be harvested, having always the same value, and players having no memory of previous winners, so that they only can choose between buying or not the offered tickets. They can do it by having a internal preference q1,q2,… between 0 and 1 and drawing a random number to decide.

One point of the lottery is that our result if we do not play is simply zero, not losses -except moral ones if some friend wins, of course-. In the general formula for the expected win, with p our own mixed strategy,

p f(q1,q2,q3,…) + (1-p) g( q1,q2,q3,…)

the function g is zero. This means that whatever mixed strategy the other players choose, the total expected win will always be proportional to our own probability p of playing. This also means that if f(…) were non zero, we should always counter by moving to a pure strategy, either p=1 or p=0. So this kind equilibrium happens only when p is cancelled out because  f(…) itself is equal to g(…) ; in  this case g() is zero, and then the expected benefit in the long run for all the players will be zero. Generically the benefit will be exactly the same as the pure strategy of not playing at all.

Another argument for not to play is to minimize your expected loss if you are completely unsure of the other partners strategy: if g(…) is zero but f(q1,q2,q3…) can be less than zero, then p=0 is your escape option.

Of course all of this is a tragedy because a god-given jackpot could be harvested. Ideal goal is to coordinate all players to buy only exactly the 292 201338 combinations, and share the prize.  The question is, can it be done, or approximated, without a fully forceful central coordination?  I leave it open.

What about populating the lotto world with hawks and doves? This is, the players can be either fanatic, always play for this amount of jackpot, or pessimistic, never playing. A initial population of doves could gradually mutate to hawks in order to extract some benefit for the resource, but at some point the probability of fighting hawk vs hawk should stop the mutation and keep a fixed level of players against no players. Is this point also given by the same equilibrium that above? If so, is the total resource extraction again zero? I have run some simulations and it seems that the proportion of hawks evolves to be slightly smaller that the expected point of zero benefit, but still near enough to attribute the discrepancy to finite size effects, and finite number of trials. Of course, that implies another philosophical question, given the fact that real games have a finite number of trials, should we recalculate for only a few trials?

There is, to me, some lack of intuition here. One could think that the idea in a lottery is to keep adding players until the probability of benefit becomes zero again, and that in hawks and doves we keep turning doves into hawks also in the same way, until the benefit extracted from the game becomes zero. This seems consistent with setting to zero the above equation, for the case g(q) =0, f(q)= q (P/2-T) + (1-q) (P-T), is

p (P-T) + p q (-P/2)

and then f(…) =0, exhausting but if there is some small prize or penalisation K when we do not play, the intuition fails, as then we need the partial respect to p of

p f(q1,q2,q3,…) + (1-p) K

and we get f(…) = K and the total expected benefit equal to K, not zero. So in principle if K is still positive there is room to turn doves to hawks even beyond the equilibrium point. The general solution  q (P/2-T) + (1-q) (P-T) = K is   q=   2 (1-T/P) –  2K/P

Game theory of powerball jackpot.

Ok, the powerball lottery of tomorrow, Jan  13th, 2016.  Some of the math has been already done here and there. So I was thinking another approach: Lets assume that a couple of Forbes-listed guys likes to play lotto in this favorable situation.
Think Gates and Buffet, or any of your preferred top ten or whatever corporations they own, or the corporations themselves (This is also considered by Andy Kiersz).

According numbers in “is-the-powerball-lottery-profitable“,
the total ticket cost is, at 2$ each number, $584M -$93.4 (prices) – $175M (self-jackpot) = 280M. And the jackpot price is 1.3 billion. Share between both players, it is still 650M
IRS tax is not problem for them, the corporations have an army of lawyers taking care of it, it is irrelevant for them, and  same with other expenses as buying some lottery franchise, workers, management etc.

So should they play? Well, obviously yes if they are the only two players. They are still going to get $370M worst case. This is not very interesting.

What about two weeks ago, when the prize was only $528M?  Sharing the price they get $264M, less than the cost of the, er, “ticket”. So they are into a sort of
snowdrift or chicken game, (or hawks, doves or whatever bird you like):

           G Passes     G buys ticket
B Passes     0, 0         0, 248M
B Buys    248M, 0      -16M, -16M

(the numbers come from the differences 528-280=248 and 264-280=-16)

With pure strategies there are two situations with Nash equilibrium: either (G Buys, B Passes) or the reciprocal. In such situations, nobody has
incentive to change his move. But this fact is not help to decide what to play, specially
in a situation without memory of the previous games.

There is also a mixed equilibrium. Consider the
mixed strategies where G and B decision of buying the game has a
probability p, q, respectively. So G’s expectation of benefit is

p(1-q) 248M – p q 16M

and if B sets his mixed strategy to q= 248/264 = 0.9394 then G’s expectation is
zero independently of q. And same exchanging the roles.

Warning: I have an issue here: if I want to look for evolutionary stable strategies, I’d think I should set p=q, differentiate the above expectation, and look for extremes, and then I get p=q=124/264=0.4697. Obviously this value of (p,q) is not a Nash equilibrium because one player can move p fully up to  1.0 and get a benefit from it.  But it is better: in the long run it gets about 58M of benefit for each player in average, instead of zero. Cooperation emerging from symmetry?

So, should G and B just throw a random number and then decide to play only if this
number is less than 0.9429? At least it looks rational.

Does it get more interesting with more players? Not a lot more, because the realistic number of tickets sold is estimated to be equivalent to three or four billonaire players. Well, lets see For a 1.3B jackpot to be unprofitable, we
need at least five, so that 1300/5 – 280 = -20 < 0. Lets say we have
other three players from the top 20 (hey, looking at the list there are some
math-minded guys in fact: Brin, Page, Bezos… rational enough to proceed
via game theory :-). Regrettably the calculation of the mixed strategy
becomes more complicated: we need to consider five separate probabilities
and the fact that we have situation with zero to five people sharing
the jackpot.

I think we could do a guess by assuming that the equilibrium solution sets everybody
to an expectation of zero losses (and zero benefit). This really works in the
previous case, setting p=q and asking p ( 248M – p *260M) = 0, but I am not sure about generalizing. Well, if we do, we ask

0= p^5 (1300/5 – 280)
+ 4 p^4(1-p) (1300/4 – 280)
+ 6 p^3(1-p)^2 (1300/3 – 280)
+ 4 p^2(1-p)^3 (1300/2 – 280)
+ p (1-p)^4 (1300 – 280)

to wolfram alpha, we see that there is only a root between zero and one:

p = 0.92857…

So the mixed strategy could be to play only if rnd() < 0.92857. Of course if the other four players adhere to this strategy, it is true that the extant player gets zero losses (and zero benefit) for any mixed strategy he chooses.

Again, consider two weeks ago, when we only had $528M in the jackpot. Then

0= p^5 (528/5 – 280)
+ 4 p^4(1-p) (528/4 – 280)
+ 6 p^3(1-p)^2 (528/3 – 280)
+ 4 p^2(1-p)^3 (528/2 – 280)
+ p (1-p)^4 (528 – 280)

gives p=0.32384…

I am not sure what those solutions mean. It is clear that if the players were able to
coordinate they could choose to form a cartel, only one of them playing each
week and thus extracting the same benefit but only at the cost of one “full ticket”. If
they are able to evolve to such understanding, this is a topic for
Evolutionary Game Theory. But then, as I said in the red warning above, we perhaps want to define stability from the derivative of the expectation function across the diagonal.

 

Probabilidades en la Asamblea

En el post anterior hemos demostrado, a regañadientes, que que la probabilidad de empate en 3030 votantes, cuando no hay conocimiento de la distribucion de voto (y por tanto se considera que puede tomar uniformemente cualquier calor en el intervalo [0,1]),  da 1/3031=0.0329%. El gran problema de las demostraciones verbales de este resultado  es que pueden inducir generalmente a errores muy terribles en otros calculos. Esto ocurre a la hora de considerar qué resultados, o “casos”, son equiprobables. La uniformidad no implica equiprobabilidad.

Un ejemplo curioso, en el que con el mismo hilo argumental conseguimos erroneamente la respuesta correcta, es el siguiente problema: la probabilidad de ganar en la apuesta de sacar cara tirando una moneda, de equilibrio desconocido, como máximo dos veces. Los distintos posibles lances del juego son

  1. ) saco cara y gano,
  2. ) saco cruz pero luego cara,
  3. ) saco cruz y cruz.

Como tengo tres casos, y dos de ellos me son favorables, la probabilidad de ganar es de 2/3.

¡El resultado es correcto! Pero el argumento es una mierda, es falso, esta asumiendo que la probabilidad de cada uno de esos tres casos es 1/3 cuando en realidad la del primero es 1/2, la del segundo 1/6 y la del tercero 1/3. Resulta que un medio y un sexto suman dos tercios, pero ha sido más suerte que industria.

Revisemoslo. Es facil ver que la probabilidad del tercero de los casos es 1/3.  Si la probabilidad de sacar cara es “p”, dado que desconocemos cual es el valor concreto de p, integramos sobre todos los posibles y tenemos

P(cruz,cruz)=\int_0^1 (1-p)^2 dp  = 1/3

Bueno, este 1/3 sí que coincide con el del estimado “verbal”.  Por supuesto, si supieramos que la moneda esta perfectamente equilibrada, no integramos sobre todos los posibles, sino solamente sobre p=1/2, la formula en ese caso seria, usando la delta de dirac

P^{1/2}(cruz,cruz)= \int_0^1 \delta(p-0.5) (1-p)^2 dp = 1/4

Pero seria otro cantar. Volvamos al ejemplo y calculemos el segundo de los casos:

P(cruz, cara)=\int_0^1 p(1-p) dp=  1/2 – 1/3 = 1/6

Y por supuesto el primer caso

P(cara, cualquiera) =\int_0^1 p \; dp = 1/2

Por cierto que aqui es donde comenta David Ruescas que suele ocurrir otro error,  igualar el caso de p desconocida con el de p=1/2, porque para una tirada de una sola moneda (o para tiradas de multiples monedas todas diferentes) es correcto usar 1/2 como reflejo el desconocimento sobre esa moneda. No lo es cuando hacemos multiples tiradas de la misma ni, como en el caso de una votacion, cuando estamos extrayendo una muestra de una unica poblacion, cuyo porcentaje de opiniones, desconocido, equivaldria al p de la moneda.

Es posible, claro esta, hacer una argumentacion “verbal” correcta y decir que tenemos tres casos, 1′) cara y cara, 2′) cara y cruz y 3′) cruz y cruz, dada uno con una probabilidad de 1/3 cuando tomamos el valor de p desconocido. Pero asi de oido, el argumento es igual que el erroneo; lo que le da valor es calcular las integrales: las de 3′ ya las hemos hecho y da 1/3, obviamente lo mismo la de 1′, y la de 2′ s mas sutil pues ha de sumar dos “casos elementales”

P { caras=1, cruces=1 } =\int_0^1 (p(1-p)+(1-p)p)) dp = 1 -2/3 = 1/3

Como era de esperar. Y naturalmente, con una moneda perfectamente equilibrada

P^{1/2}{ caras=1, cruces=1 }= \int_0^1 \delta(p-0.5)(p(1-p)+(1-p)p))dp = 1/4 + 1/4 = 1/2

O con dos monedas desconocidas, por supuesto, seria otra historia:

P^{p,q} { caras=1, cruces=1 } =\int_0^1 \int_0^1 (p(1-q)+(1-p)q)) dp\;dq  = 1/2

El señor que propuso este ejemplo y el razonamiento incorrecto que sin embargo daba en una situacion peculiar la solucion correcta (esto es, para una moneda de propiedades desconocidas, pero no para una moneda equilibrada) fue un asambleista revolucionario, un tal D’Alembert. De hecho, intentó añadir a la seccion de “Probabilite” de la Enciclopedia unas cuantas paginas con lo que el veia como paradojas del calculo de probabilidades -más complicadas que esta- pero Diderot le obligó a quitarlas. Con el tiempo, y una vez llegó a tener conocimiento de los escritos de Bayes, D’Alembert suavizo sus posturas, pero al parecer este ejemplo todavia se quedo en la memoria de su discipulo Laplace, que lo empleó en las paginas de introduccion a sus leyes de la probabilidad.

Podeis leer más de la historia de D’Alembert  y sus problemas con la probabilidad -no son el tema principal que tocamos aquí- en este trabajo de historia de Michael Paty. En cuanto al texto de Laplace, aunque esta disponible en la wikipedia, quizas sea interesante ponerlo aqui mismo. Tened en cuenta que Laplace esta simplemente hablando del caso con una moneda bien equilibrada y que se limita a referirse a su maestro de pasada, sin concretar las circunstancias concretas. Simplemente he tomado este mismo ejemplo porque parece el mas sencillo con p en una distribucion uniforme pero tres casos no equiprobables.


 

Ier Principe.Le premier de ces principes est la définition même de la probabilité qui, comme on l’a vu, est le rapport du nombre des cas favorables à celui de tous les cas possibles.

IIe Principe.Mais cela suppose les divers cas également possibles. S’ils ne le sont pas, on déterminera d’abord leurs possibilités respectives dont la juste appréciation est un des points les plus délicats de la théorie des hasards. Alors la probabilité sera la somme des possibilités de chaque cas favorable. Éclaircissons ce principe par un exemple.

Supposons que l’on projette en l’air une pièce large et très mince dont les deux grandes faces opposées, que nous nommerons croix et pile, soient parfaitement semblables. Cherchons la probabilité d’amener croix, une fois au moins en deux coups. Il est clair qu’il peut arriver quatre cas également possibles, savoir, croix au premier et au second coup ; croix au premier coup etpile au second ; pile au premier coup et croix au second ; enfin pile aux deux coups. Les trois premiers cas sont favorables à l’évènement dont on cherche la probabilité, qui, par conséquent, est égale à \scriptstyle {\frac {3}{4}} ; en sorte qu’il y a trois contre un à parier que croix arrivera au moins une fois en deux coups.

On peut ne compter à ce jeu que trois cas différens, savoir : croix au premier coup, ce qui dispense d’en jouer un second ; pile au premier coup et croix au second ; enfin pile au premier et au second coup. Cela réduirait la probabilité à \scriptstyle {\frac {2}{3}}, si l’on considérait, avec d’Alembert, ces trois cas comme également possibles. Mais il est visible que la probabilité d’amener croix au premier coup est \scriptstyle {\frac {1}{2}}, tandis que celle des deux autres cas est \scriptstyle {\frac {1}{4}} ; le premier cas étant un évènement simple qui correspond aux deux évènemens composés, croix au premier et au second coup, et croix au premier coup, pile au second. Maintenant, si, conformément au second principe, on ajoute la possibilité \scriptstyle {\frac {1}{2}} de croix au premier coup, à la possibilité \scriptstyle {\frac {1}{4}} de pile arrivant au premier coup et croix au second, on aura \scriptstyle {\frac {3}{4}} pour la probabilité cherchée, ce qui s’accorde avec ce que l’on trouve dans la supposition où l’on joue les deux coups. Cette supposition ne change point le sort de celui qui parie pour cet événement : elle sert seulement à réduire les divers cas à des cas également possibles.