Prove ripetute indipendenti di un esperimento con esattamente due possibili risultati sono chiamate prove di Bernoulli. Chiamiamo uno dei risultati “successo” e l’altro risultato “fallimento”. Sia p {displaystyle p}
sia la probabilità di successo in una prova di Bernoulli, e q {displaystyle q}
sia la probabilità di fallimento. Allora la probabilità di successo e la probabilità di fallimento sommano a uno, poiché sono eventi complementari: “successo” e “fallimento” sono mutuamente esclusivi ed esaustivi. Così si hanno le seguenti relazioni: p = 1 – q , q = 1 – p , p + q = 1. {\displaystyle p=1-q,\quad \quad q=1-p,\quad \quad p+q=1.}
In alternativa, questi possono essere dichiarati in termini di probabilità: data la probabilità p di successo e q di fallimento, le probabilità per sono p : q {\displaystyle p:q}
e le probabilità contro sono q : p . {\displaystyle q:p.}
Queste possono anche essere espresse come numeri, dividendo, ottenendo le probabilità per, o di {\displaystyle o_{f}}
, e le probabilità contro, o a : {displaystyle o_{a}:}
, o f = p / q = p / ( 1 – p ) = ( 1 – q ) / q o a = q / p = ( 1 – p ) / p = q / ( 1 – q ) {\displaystyle {\begin{aligned}o_{f}&=p/q=p/(1-p)=(1-q)/q\\o_{a}&=q/p=(1-p)/p=q/(1-q)\end{aligned}}}
Sono inversi moltiplicativi, quindi moltiplicano per 1, con le seguenti relazioni:
o f = 1 / o a , o a = 1 / o f , o f ⋅ o a = 1. o_{f}=1/o_{a},\quadro o_{a}=1/o_{f},\quadro o_{f}cdot o_{a}=1.}
Nel caso in cui una prova di Bernoulli rappresenti un evento da un numero finito di esiti ugualmente probabili, dove S degli esiti sono successi e F degli esiti sono fallimenti, le probabilità per sono S : F {\displaystyle S:F}
e le probabilità contro sono F : S . {\displaystyle F:S.}
Questo produce le seguenti formule per la probabilità e le probabilità: p = S / ( S + F ) q = F / ( S + F ) o f = S / F o a = F / S {\displaystyle {\begin{aligned}p&=S/(S+F)\q&=F/(S+F)\\o_{f}&=S/F\\o_{a}&=F/S\end{aligned}}}
Nota che qui le probabilità sono calcolate dividendo il numero di risultati, non le probabilità, ma la proporzione è la stessa, poiché questi rapporti differiscono solo moltiplicando entrambi i termini per lo stesso fattore costante.
Le variabili casuali che descrivono le prove di Bernoulli sono spesso codificate usando la convenzione che 1 = “successo”, 0 = “fallimento”.
Strettamente correlato a una prova di Bernoulli è un esperimento binomiale, che consiste in un numero fisso n {\displaystyle n}
di prove di Bernoulli statisticamente indipendenti, ciascuna con una probabilità di successo p {displaystyle p}
, e conta il numero di successi. Una variabile casuale corrispondente a un binomio è indicata con B ( n , p ) {displaystyle B(n,p)}
, e si dice che ha una distribuzione binomiale.La probabilità di avere esattamente k {displaystyle k}
successi nell’esperimento B ( n , p ) {\displaystyle B(n,p)}
è dato da: P ( k ) = ( n k ) p k q n – k {\displaystyle P(k)={n \scegliere k}p^{k}q^{n-k}}
dove ( n k ) {displaystyle {n \scegliere k}
è un coefficiente binomiale.
Le prove di Bernoulli possono anche portare a distribuzioni binomiali negative (che contano il numero di successi in una serie di prove ripetute di Bernoulli fino ad un determinato numero di fallimenti), così come varie altre distribuzioni.
Quando vengono eseguite più prove di Bernoulli, ognuna con la propria probabilità di successo, queste vengono talvolta chiamate prove di Poisson.