Diferencia entre revisiones de «Estadística/Cálculo de probabilidades/Aleatoriedad combinatoria»

Contenido eliminado Contenido añadido
Sin resumen de edición
Jafeluv (discusión | contribs.)
rvv
Línea 8:
**Lanzar una moneda y luego echar un dado.
**De una urna sacar 3 pelotas sin reposición.
**Sacar 10 pelotaspelotillas ganadoras de un bombo de lotería.
**Disparar 5 veces al mismo blanco.
 
Línea 63:
 
:&Omega;* = {(R<sub>1</sub>; R<sub>2</sub>), (R<sub>1</sub>; S), (R<sub>2</sub>; R<sub>1</sub>), (R<sub>2</sub>; S), (S; R<sub>1</sub>), (S; R<sub>2</sub>)}
 
&Omega; tiene en total 6 soluciones.
 
Definimos el evento A:primero se saca una pelota roja (R), luego una pelota negra (N), entonces A = R<sup>(1)</sup> ∧ S<sup>(2)</sup>.
 
Hay en &Omega;* dos soluciones que pertenecen a A, entonces la probabilidad es
 
:<math>P(A) = \frac{2}{6} = \frac{1}{3}
\;.</math>
 
Este ejemplo es sencillo pero ahora podemos depender de la probabilidad para intentos dependientes para sucesos combinados en caso de renunciar a representaciones completas de eventos solución?
 
En intentos estocásticos dependientes, no se podría determinar la probabilidad por el simple producto de las probabilidades individuales de los sucesos. Se puede implementar sucesivamente el teorema de multiplicación de los sucesos que es conocido para las probabilidades condicionales: <math>P(A \cap B) = P(A) * P(A|B)</math>. La probabilidad que al primer intento obtengamos A y al segundo B sería:
 
:<math>P(A^{(1)} \wedge B^{(2)}) = P(A^{(1)}) \cdot P(B^{(2)}|A^{(1)})</math>
 
Y por la formula dada
{|
|<math>P(A)=P(R^{(1)} \cap S^{(2)}) =</math>
|<math>P(R^{(1)})</math>
|<math> \cdot P(S^{(2)}|R^{(1)})</math>
|&nbsp;
|-
|<math>=</math>
|<math>\frac {2}{3}</math>
|<math> \cdot \frac {1}{2}</math>
|<math> = \frac {1}{3}</math>
|-
|&nbsp;
|Para el primer intento son 3 pelotas en la urna; dos son rojas
|para el segundo intento hay 2 pelotas en la urna; una es negra.
|&nbsp;
|}
 
Esta regla se puede extender para mas de dos sucesos: