Salve maisev, sempre ajudando o pessoal que largou a faculdade e não sabe matemática básica
Minha dúvida é uma coisa simples de se fazer em estatística, procurei no google um tempo e não achei o que queria, então vamos lá:
Digamos que eu tenho um evento que tem que acontecer 1.2% das vezes... Eu repito esse evento 400 vezes, logo o padrão seria ele acontecer 4.8 vezes nesse intervalo correto?
O que eu quero saber é como calcular a chance deste evento se desviar do normal, e acontecer apenas 0.25% das vezes? Imagino que tenha a ver com desvio padrão e distribuição de Gauss. Também sei que o número de vezes que repito o evento influencia, não estou conseguindo trazer todos estes elementos pro cálculo.
Desde já agradeço a colaboração, valeu!
AVISO: TÓPICO ANTIGO
Atenção: Este é um tópico criado há mais de 90 dias. Caso não tenha respostas recentes, tenha certeza de que sua resposta é conveniente e útil o suficiente para reativar esta discussão, do contrário você poderá ser advertido/suspenso.