Probabilidade

Introdução


A noção de probabilidade é bem intuitiva. Todo mundo tem uma ideia do que é ter “20% de chance” ou entender o que é a frase “1 em cada 3”, por exemplo. Assim, podemos dizer que o estudo da probabilidade vai se tratar de experimentos aleatórios.

Conceitos básicos


Vamos agora começar a entrar mais a fundo!

Precisamos ter em mente dois conceitos básicos: espaço amostral e evento.

Espaço amostral

Definimos um espaço amostral como sendo o conjunto finito de todos os resultados possíveis de um experimento aleatório, por exemplo, no experimento de jogar um dado, temos os seguintes números possíveis: 1, 2, 3, 4, 5, e 6.

Na notação matemática, denotamos o espaço amostral pela letra grega $\Omega$, assim, poderíamos escrever a situação do dado dessa maneira:

$ \Omega_{\text{dado}}=\{1, 2, 3, 4, 5, 6\} $

Evento

Um evento é qualquer subconjunto do espaço amostral.

Assim, por exemplo, o subconjunto “cair face par” do dado seria ${2, 4, 6}$ e o “cair face maior que 3” seria ${4, 5, 6}$.

Calculando a probabilidade de um evento

Geralmente, quando calculamos a probabilidade de um evento acontecer, consideramos que eles são equiprováveis ou de probabilidade uniforme, ou seja, dentro do espaço amostral todos os eventos possuem a mesma probabilidade de acontecer. Matematicamente, podemos escrever:

$ P(a_i)=\dfrac{1}{n}, \forall i $

Com $n$ sendo o número de elementos do espaço amostral $(|\Omega|)$.

Por conta disso, podemos calcular a possibilidade de um dado evento acontecer pela fração

$ P(A)=\dfrac{\text{Casos favoráveis}}{\text{Casos possíveis}} $

Por exemplo, qual a probabilidade de sair face par quando lançamos um dado?

Temos três elementos nos casos favoráveis ${2, 4, 6}$ e seis nos casos possíveis ${1, 2, 3, 4, 5, 6}$, assim, podemos achar que a probabilidade é

$ P(A)=\dfrac{3}{6}=\dfrac{1}{2}=50\% $

Propriedades


Dessa propriedade temos um outro fato que é, também, bem importante: a soma das probabilidades de todos os eventos tem que ser igual a 1, sempre. Se você somou todas as chances e chegou em 120%, alguma coisa deu errado no meio do caminho.

Probabilidade como uma função


Podemos definir a probabilidade como uma função $P$ que satisfaz as propriedades vistas acima, o que nos dá mais alguns fatos:

  1. $P(\Omega - A)=1-P(A)$
  2. $A\sub B \rightarrow P(A) \le P(B)$
  3. $P(A \cup B) \rightarrow P(A) +P(B)-P(A\cap B)$

Probabilidade condicional


Definimos a probabilidade condicional de um evento $A$, dado que aconteceu um evento $B$, por

$ P(A|B):= \dfrac{P(A \cap B)}{P(B)} $

Com $P(B) > 0$, obrigatoriamente.

Variáveis aleatórias


Formalmente, uma variável aleatória $X$ é definida como sendo uma função $X:\Omega \rightarrow \mathbb{R}$, mas podemos pensar nela como sendo uma maneira de “contar” algo que quisermos num espaço aleatório, ou seja, não temos o valor da variável de antemão: o valor depende do resultado do experimento.

A necessidade de contar é evidente: para calcularmos algo, precisamos abstrair os subconjuntos dos eventos para quantidades, números.

Para ilustrar isso, vamos utilizar como o exemplo três lançamentos de uma moeda. Chamando as caras de $c$ e as coroas de $k$, podemos definir $X$ como sendo o número de caras nos três lançamentos.

Vamos dizer que no primeiro trio de lançamentos, tivemos os resultados $\Omega={cck}$. Assim, como temos duas caras no espaço amostral, vemos que $X(\Omega)=2$.

Jogamos a moeda três vezes e obtemos os resultados $\Omega={kkk}$. Não tiramos nenhuma cara! Logo, temos que $X(\Omega)=0$.

Probabilidade com variáveis aleatórias

Podemos combinar os conceitos de probabilidade com as variáveis aleatórias e conseguir mais informações sobre nossos experimentos. Por exemplo, vamos continuar imaginando nossos três lançamentos de nossa moeda.

Qual a probabilidade de que o número de caras seja dois? Ou seja, quanto vale $P(X=2)$?

Podemos calcular isso relativamente rápido vendo que só temos três $\Omega$ possíveis em que isso é verdade: ${cck}$, ${ckc}$ e ${kcc}$.

Agora, quantos $\Omega$ possíveis temos, ao total? Temos duas possibilidades para cada lançamento (cara ou coroa), logo, vemos que ao todo temos $2³=8$ possibilidades de $\Omega$.

Assim, finalizamos a pergunta:

$ P(X=2)=P(\{(cck),(ckc),(kcc)\})=\dfrac{3}{8} $

Temos $\dfrac{3}{8}$ de chance de que nosso lançamento tenha exatamente duas caras!

Esperança


A esperança de uma variável aleatória $X$ pode ser entendida como seu valor médio esperado, ou seja, depois de muitos lançamentos, essa variável irá tender para esse valor.

Esse valor médio é calculado pela seguinte expressão:

$ E(X)=\sum_{x \in \text{Im}(X)}xP(X=x) $

Ou seja, uma média ponderada de cada probabilidade da variável aleatória $X$ assumir determinado valor $x$. A expressão $x\in \text{Im}(X)$ quer dizer que estamos utilizando todos os valores $x$ possíveis que a variável aleatória pode assumir.

Distribuições de probabilidade em variáveis aleatórias


Os eventos do conjunto universo, e por consequência o $X$ que podemos escolher, podem assumir diferentes “maneiras” de terem seus valores de probabilidade distribuídos, por exemplo, no caso de uma moeda honesta, só temos duas possibilidades com 50% de chance para cada, mas numa distribuição de notas numa classe média é esperado que tenhamos algo mais ou menos assim:

Representação de várias distribuições gaussianas. CC-BY-SA, via Wikimedia Commons.

Ou seja, se pegarmos um aluno aleatoriamente dessa classe, é muito mais provável que ela tenha tirado um “6” do que fechado a prova ou zerado ela.

Uniforme

Num caso de distribuição uniforme, todos os eventos e valores que a variável aleatória $X$ pode assumir possuem a mesma probabilidade, a mesma chance de ocorrerem.

Geralmente trabalhamos com essa distribuição nos problemas, mas nem sempre ela consegue explicar os fenômenos naturais.

Podemos dizer que a variável aleatória $X$ é uniforme no conjunto ${1, 2, 3, ..., n}$ se $P(X=k)=\dfrac{1}{n}, \forall k=1,2,3,...,n$.

Bernoulli

A distribuição de Bernoulli descreve situações em que a variável aleatória $X$ só consegue assumir dois valores distintos, por exemplo, 0 ou 1, cara ou coroa, ganhar ou perder. Dessa forma, ela é muito útil para estudar casos como o lançamento de moedas, apostas e experimentos que só possuem dois resultados possíveis.

De forma mais formal, podemos dizer que a variável aleatória $X$ é de "Bernoulli de parâmetro $p{{CONTENT}}quot; se ela obedece os casos abaixo:

$ \begin{align*} P(X=0)&=1-p \\\\ P(X=1)&=p \end{align*} $

Esta escrita é possível em razão da distinguibilidade dos dois resultados (só pode ocorrer um por experimento) e da existência de apenas estes dois resultados.

Binomial

A distribuição binomial pode ser entendida como uma extensão da distribuição de Bernoulli para situações que repetimos o mesmo experimento um número $n$ de vezes,

Matemáticamente, dizemos que uma variável aleatória $X$ é de distribuição binomial de parâmetros $(n,p)$ se

$ P(X=k)=\binom{n}{k}p^k(1-p)^{n-k} $

Esperança da binomial

Como podemos calcular a esperança de uma binomial?

Pela definição de esperança, temos que:

$ E(X)=\sum_{k=0}^{n}k\binom{n}{k}p^k(1-p)^{n-k} $

Ou simplesmente,

$ E(X)=np $

Como podemos demonstrar esta relação simples a partir da binomial? Vamos começar pela definição de esperança e ir trabalhando com ela.

$ \sum_{k=0}^{n}k\binom{n}{k}p^k(1-p)^{n-k}=np $

Primeiro, vamos reescrever o primeiro membro com o índice na parte de baixo sendo $k=1$, já que quando $k=0$, o termo resultante é zero e isso não altera nossa soma.

$ \sum_{k=1}^{n}k\binom{n}{k}p^k(1-p)^{n-k} $

Por meio de propriedades binomiais, temos que $k \binom{n}{k}=n \binom{n-1}{k-1}$.

$ \sum_{k=1}^{n}n\binom{n-1}{k-1}p^k(1-p)^{n-k} $

Agora, vamos reescrever espertamente $p^k$ como $p\cdot p^{k-1}$.

$ \sum_{k=1}^{n}n\binom{n-1}{k-1}p\cdot p^{k-1}(1-p)^{n-k} $

Reorganizando…

$ \sum_{k=1}^{n}np\binom{n-1}{k-1}p^{k-1}(1-p)^{n-k} $

Como $np$ é um termo constante, podemos jogar ele para fora do somatório.

$ np\sum_{k=1}^{n}\binom{n-1}{k-1}p^{k-1}(1-p)^{n-k} $

Agora, vamos nos utilizar de uma propriedade de somatório para deslocar o índice da operação.

$ np\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k}(1-p)^{n-1-k} $

E pronto! Perceba que o somatório que chegamos é um Binômio de Newton!

Ou seja, podemos reduzir esse somatório para a expressão $[p+(1-p)]^{n-1}$, que, simplificando, chegamos em $1^{n-1}$. Como 1 elevado a qualquer coisa continua sendo 1, chegamos no resultado final, $np$.

Variância e desvio padrão