Probabilidade
Introdução
A noção de probabilidade é bem intuitiva. Todo mundo tem uma ideia do que é ter “20% de chance” ou entender o que é a frase “1 em cada 3”, por exemplo. Assim, podemos dizer que o estudo da probabilidade vai se tratar de experimentos aleatórios.
Conceitos básicos
Vamos agora começar a entrar mais a fundo!
Precisamos ter em mente dois conceitos básicos: espaço amostral e evento.
Espaço amostral
Definimos um espaço amostral como sendo o conjunto finito de todos os resultados possíveis de um experimento aleatório, por exemplo, no experimento de jogar um dado, temos os seguintes números possíveis: 1, 2, 3, 4, 5, e 6.
Na notação matemática, denotamos o espaço amostral pela letra grega $\Omega$, assim, poderíamos escrever a situação do dado dessa maneira:
Evento
Um evento é qualquer subconjunto do espaço amostral.
Assim, por exemplo, o subconjunto “cair face par” do dado seria ${2, 4, 6}$ e o “cair face maior que 3” seria ${4, 5, 6}$.
Calculando a probabilidade de um evento
Geralmente, quando calculamos a probabilidade de um evento acontecer, consideramos que eles são equiprováveis ou de probabilidade uniforme, ou seja, dentro do espaço amostral todos os eventos possuem a mesma probabilidade de acontecer. Matematicamente, podemos escrever:
Com $n$ sendo o número de elementos do espaço amostral $(|\Omega|)$.
Por conta disso, podemos calcular a possibilidade de um dado evento acontecer pela fração
Por exemplo, qual a probabilidade de sair face par quando lançamos um dado?
Temos três elementos nos casos favoráveis ${2, 4, 6}$ e seis nos casos possíveis ${1, 2, 3, 4, 5, 6}$, assim, podemos achar que a probabilidade é
Propriedades
Dessa propriedade temos um outro fato que é, também, bem importante: a soma das probabilidades de todos os eventos tem que ser igual a 1, sempre. Se você somou todas as chances e chegou em 120%, alguma coisa deu errado no meio do caminho.
Probabilidade como uma função
Podemos definir a probabilidade como uma função $P$ que satisfaz as propriedades vistas acima, o que nos dá mais alguns fatos:
- $P(\Omega - A)=1-P(A)$
- $A\sub B \rightarrow P(A) \le P(B)$
- $P(A \cup B) \rightarrow P(A) +P(B)-P(A\cap B)$
Probabilidade condicional
Definimos a probabilidade condicional de um evento $A$, dado que aconteceu um evento $B$, por
Com $P(B) > 0$, obrigatoriamente.
Variáveis aleatórias
Formalmente, uma variável aleatória $X$ é definida como sendo uma função $X:\Omega \rightarrow \mathbb{R}$, mas podemos pensar nela como sendo uma maneira de “contar” algo que quisermos num espaço aleatório, ou seja, não temos o valor da variável de antemão: o valor depende do resultado do experimento.
A necessidade de contar é evidente: para calcularmos algo, precisamos abstrair os subconjuntos dos eventos para quantidades, números.
Para ilustrar isso, vamos utilizar como o exemplo três lançamentos de uma moeda. Chamando as caras de $c$ e as coroas de $k$, podemos definir $X$ como sendo o número de caras nos três lançamentos.
Vamos dizer que no primeiro trio de lançamentos, tivemos os resultados $\Omega={cck}$. Assim, como temos duas caras no espaço amostral, vemos que $X(\Omega)=2$.
Jogamos a moeda três vezes e obtemos os resultados $\Omega={kkk}$. Não tiramos nenhuma cara! Logo, temos que $X(\Omega)=0$.
Probabilidade com variáveis aleatórias
Podemos combinar os conceitos de probabilidade com as variáveis aleatórias e conseguir mais informações sobre nossos experimentos. Por exemplo, vamos continuar imaginando nossos três lançamentos de nossa moeda.
Qual a probabilidade de que o número de caras seja dois? Ou seja, quanto vale $P(X=2)$?
Podemos calcular isso relativamente rápido vendo que só temos três $\Omega$ possíveis em que isso é verdade: ${cck}$, ${ckc}$ e ${kcc}$.
Agora, quantos $\Omega$ possíveis temos, ao total? Temos duas possibilidades para cada lançamento (cara ou coroa), logo, vemos que ao todo temos $2³=8$ possibilidades de $\Omega$.
Assim, finalizamos a pergunta:
Temos $\dfrac{3}{8}$ de chance de que nosso lançamento tenha exatamente duas caras!
Esperança
A esperança de uma variável aleatória $X$ pode ser entendida como seu valor médio esperado, ou seja, depois de muitos lançamentos, essa variável irá tender para esse valor.
Esse valor médio é calculado pela seguinte expressão:
Ou seja, uma média ponderada de cada probabilidade da variável aleatória $X$ assumir determinado valor $x$. A expressão $x\in \text{Im}(X)$ quer dizer que estamos utilizando todos os valores $x$ possíveis que a variável aleatória pode assumir.
Distribuições de probabilidade em variáveis aleatórias
Os eventos do conjunto universo, e por consequência o $X$ que podemos escolher, podem assumir diferentes “maneiras” de terem seus valores de probabilidade distribuídos, por exemplo, no caso de uma moeda honesta, só temos duas possibilidades com 50% de chance para cada, mas numa distribuição de notas numa classe média é esperado que tenhamos algo mais ou menos assim:
Representação de várias distribuições gaussianas. CC-BY-SA, via Wikimedia Commons.
Ou seja, se pegarmos um aluno aleatoriamente dessa classe, é muito mais provável que ela tenha tirado um “6” do que fechado a prova ou zerado ela.
Uniforme
Num caso de distribuição uniforme, todos os eventos e valores que a variável aleatória $X$ pode assumir possuem a mesma probabilidade, a mesma chance de ocorrerem.
Geralmente trabalhamos com essa distribuição nos problemas, mas nem sempre ela consegue explicar os fenômenos naturais.
Podemos dizer que a variável aleatória $X$ é uniforme no conjunto ${1, 2, 3, ..., n}$ se $P(X=k)=\dfrac{1}{n}, \forall k=1,2,3,...,n$.
Bernoulli
A distribuição de Bernoulli descreve situações em que a variável aleatória $X$ só consegue assumir dois valores distintos, por exemplo, 0 ou 1, cara ou coroa, ganhar ou perder. Dessa forma, ela é muito útil para estudar casos como o lançamento de moedas, apostas e experimentos que só possuem dois resultados possíveis.
De forma mais formal, podemos dizer que a variável aleatória $X$ é de "Bernoulli de parâmetro $p{{CONTENT}}quot; se ela obedece os casos abaixo:
Esta escrita é possível em razão da distinguibilidade dos dois resultados (só pode ocorrer um por experimento) e da existência de apenas estes dois resultados.
Binomial
A distribuição binomial pode ser entendida como uma extensão da distribuição de Bernoulli para situações que repetimos o mesmo experimento um número $n$ de vezes,
Matemáticamente, dizemos que uma variável aleatória $X$ é de distribuição binomial de parâmetros $(n,p)$ se
Esperança da binomial
Como podemos calcular a esperança de uma binomial?
Pela definição de esperança, temos que:
Ou simplesmente,
Como podemos demonstrar esta relação simples a partir da binomial? Vamos começar pela definição de esperança e ir trabalhando com ela.
Primeiro, vamos reescrever o primeiro membro com o índice na parte de baixo sendo $k=1$, já que quando $k=0$, o termo resultante é zero e isso não altera nossa soma.
Por meio de propriedades binomiais, temos que $k \binom{n}{k}=n \binom{n-1}{k-1}$.
Agora, vamos reescrever espertamente $p^k$ como $p\cdot p^{k-1}$.
Reorganizando…
Como $np$ é um termo constante, podemos jogar ele para fora do somatório.
Agora, vamos nos utilizar de uma propriedade de somatório para deslocar o índice da operação.
E pronto! Perceba que o somatório que chegamos é um Binômio de Newton!
Ou seja, podemos reduzir esse somatório para a expressão $[p+(1-p)]^{n-1}$, que, simplificando, chegamos em $1^{n-1}$. Como 1 elevado a qualquer coisa continua sendo 1, chegamos no resultado final, $np$.