Diferencia entre revisiones de «Estadística/Cálculo de probabilidades/Aleatoriedad combinatoria»
Contenido eliminado Contenido añadido
Línea 60:
:Ω* = {(R<sub>1</sub>; R<sub>2</sub>), (R<sub>1</sub>; S), (R<sub>2</sub>; R<sub>1</sub>), (R<sub>2</sub>; S), (S; R<sub>1</sub>), (S; R<sub>2</sub>)}
Queremos analizar primeramente el conjunto solución de los intentos dependientes. Enumeremos ambas pelotillas rojas asi R<sub>1</sub> y R<sub>2</sub>. Se puede obtener los siguientes resultados:
<!--▼
:Ω* = {(R<sub>1</sub>; R<sub>2</sub>), (R<sub>1</sub>; S), (R<sub>2</sub>; R<sub>1</sub>), (R<sub>2</sub>; S), (S; R<sub>1</sub>), (S; R<sub>2</sub>)}
Ω
Definimos el evento A:primero se saca una pelota roja (R), luego una pelota negra (N), entonces A = R<sup>(1)</sup> ∧ S<sup>(2)</sup>.
Hay en Ω* dos soluciones que pertenecen a A, entonces la probabilidad es
:<math>P(A) = \frac{2}{6} = \frac{1}{3}▼
Este ejemplo es sencillo pero ahora podemos depender de la probabilidad para intentos dependientes para sucesos combinados en caso de renunciar a representaciones completas de eventos solución?
▲:<math>P(A) = \frac{2}{6}= \frac{1}{3}
▲\;.</math>
En intentos estocásticos dependientes, no se podría determinar la probabilidad por el simple producto de las probabilidades individuales de los sucesos. Se puede implementar sucesivamente el teorema de multiplicación de los sucesos que es conocido para las probabilidades condicionales: <math>P(A \cap B) = P(A) * P(A|B)</math>. La probabilidad que al primer intento obtengamos A y al segundo B sería:
▲:<math>P(A^{(1)} \wedge B^{(2)}) = P(A^{(1)}) \cdot P(B^{(2)}|A^{(1)})</math>
Y por la formula dada
{|
|<math>P(A)=P(R^{(1)} \cap S^{(2)}) =</math>
Línea 97 ⟶ 92:
|-
|
|Para el primer intento son 3 pelotas en la urna; dos son rojas
|
|
|}
Esta regla se puede extender para mas de dos sucesos:
===='''Ejemplo'''====
En un urna con
▲<!--
Aus einer Urne mit 10 roten (R) und 5 schwarzen (S) Kugeln sollen ohne Zurücklegen nacheinander drei rote Kugeln gezogen werden. Die Wahrscheinlichkeit dafür ist
|