Os ensaios independentes repetidos de uma experiência com exactamente dois resultados possíveis chamam-se ensaios Bernoulli. Chama-se a um dos resultados “sucesso” e ao outro “fracasso”. Deixar p {\displaystyle p}
seja a probabilidade de sucesso num julgamento Bernoulli, e q {\i1}displaystyle q
seja a probabilidade de falha. Então a probabilidade de sucesso e a probabilidade de fracasso somam-se a uma, uma vez que estes são eventos complementares: “sucesso” e “fracasso” são mutuamente exclusivos e exaustivos. Assim, temos as seguintes relações: p = 1 – q , q = 1 – p , p + q = 1. {\displaystyle p=1-q,\quad \quad q=1-p,\quad \quad p+q=1.}
Alternativamente, estas podem ser declaradas em termos de probabilidades: dada a probabilidade p de sucesso e q de fracasso, as probabilidades para são p : q {\i>displaystyle p:q}
e as probabilidades contra são q : p . estilo de jogo q:p.}
Estes também podem ser expressos como números, dividindo, produzindo as probabilidades para, o estilo de exibição o_{\f}}{\f}
, o f = p / q = p / ( 1 – p ) = ( 1 – q ) / q o a = q / p = ( 1 – p ) / p = q / ( 1 – q ) {\i1}displaystyle {\i}o_{f}&=p/q=p/(1-p)=(1-q)/q\\o_{a}&=q/p=(1-p)/p=q/(1-q)\end{aligned}}}
Estes são inversos multiplicativos, pelo que se multiplicam a 1, com as seguintes relações
o f = 1 / o a , o a = 1 / o f , o f ⋅ o a = 1. o_{f}=1/o_{a},|quad o_{a}=1/o_{f},}quad o_{f},{cdot o_{a}=1.}
e as probabilidades contra são F : S . F:S.}displaystyle F:S.}
Isto produz as seguintes fórmulas de probabilidade e probabilidades: p = S / ( S + F ) q = F / ( S + F ) o f = S / F o a = F / S {\displaystyle {\begin{aligned}p&=S/(S+F){\q&=F/(S+F)\\o_{f}&=S/F\\o_{a}&=F/S\end{aligned}}}
Nota que aqui as probabilidades são calculadas dividindo o número de resultados, não as probabilidades, mas a proporção é a mesma, uma vez que estes rácios diferem apenas pela multiplicação de ambos os termos pelo mesmo factor constante.
As variáveis aleatórias que descrevem os ensaios Bernoulli são frequentemente codificadas utilizando a convenção que 1 = “sucesso”, 0 = “fracasso”.
Closamente relacionada com um ensaio Bernoulli é uma experiência binomial, que consiste num número fixo n {\\i1}.
de ensaios Bernoulli estatisticamente independentes, cada um com uma probabilidade de sucesso p {\i1}displaystyle p
, e conta o número de sucessos. Uma variável aleatória correspondente a um binómio é assinalada por B ( n , p ) {\i1}displaystyle B(n,p)}
, e diz-se que tem uma distribuição binomial. A probabilidade de exactamente k {\i1}displaystyle k
sucessos na experiência B ( n , p ) {\i1}displaystyle B(n,p)}
é dado por: P ( k ) = ( n k ) p k q n – k {\displaystyle P(k)={n \choose k}p^{k}q^{n-k}}}
where ( n k ) {n {n }displaystyle {n }choose k}}
é um coeficiente binomial.
Os ensaios Bernoulli também podem levar a distribuições binomiais negativas (que contam o número de sucessos numa série de ensaios Bernoulli repetidos até se ver um número especificado de fracassos), bem como várias outras distribuições.
Quando são realizados múltiplos ensaios Bernoulli, cada um com a sua própria probabilidade de sucesso, estes são por vezes referidos como ensaios de Poisson.