INICIO

DISTRIBUCIONES DE PROBABILIDAD COMUNES | EJERCICIOS RESUELTOS

Acceso directo:

Para comprender bien este artículo antes tienes que saber qué es una variable aleatoria y qué es la distribución de probabilidad.

Ambas cosas se explican en el artículo ingredientes de un experimento aleatorio.

El caso es que en el día a día hay aleatoriedades cuya distribución de probabilidad se repite con frecuencia en otros casos similares.

Entonces tocaba darle nombre a las distintas distribuciones.

Así pueden reconocerse y aplicarse atajos directos (llámense fórmulas) para calcular características de estas.

Distribuciones de Variable Aleatoria Discreta

Ver: Definición de Variable Aleatoria Discreta.

Distribución Uniforme

Es la distribución en la que cada uno de los valores de la variable aleatoria discreta del experimento tiene la misma probabilidad.

Una variable aleatoria que sigue una distribución uniforme tendrá probabilidad de 1/k para cada uno de los valores que toma.

Lo que estamos aplicando es en realidad la Regla de Laplace, que refleja que la probabilidad de un suceso es directamente proporcional a las situaciones que lo favorecen, cuando todos los sucesos elementales son equiprobables.

La letra k se conoce como parámetro de la distribución, y es el número de valores que toma la variable.

Por ejemplo:

Si la variable aleatoria se llama X: “resultado de lanzar un dado” y toma los valores 1, 2, 3, 4, 5 ó 6, pues cada uno de esos valores tiene una probabilidad de un sexto.

Distribución de Bernoulli

Bernoulli fue un artista suizo. Su padre lo mandó a estudiar teología, pero él estudió mates porque le molaba más. Y ahí está el tío petrificado dentro de un concepto.

Un experimento de Bernoulli es un experimento aleatorio que tiene solo dos resultados posibles. O éxito, o fracaso. O pasa algo, o no pasa. Ni más ni menos.

La distribución de Bernoulli –o también llamada distribución dicotómica- es una distribución en la que la variable aleatoria toma dos valores.

Y la probabilidad de ambos valores se definen mediante el parámetro p de la distribución.

La probabilidad del éxito es el valor de la función de probabilidad asociada a la función variable aleatoria cuando esta pasa por el uno.

Es decir, f(X=1) = p

La probabilidad del fracaso es el valor que toma la función de probabilidad asociada a la variable aleatoria cuando esta toma el valor cero.

Es decir, f(X=0) = 1 – p

¿De dónde viene p?

Pues p es la probabilidad del éxito. La que sea. La probabilidad de que algo pase, p.

¿Por qué la probabilidad de que no pase; es decir, la probabilidad de que la variable aleatoria X tome el valor cero, es igual a 1 – p?

Porque si la probabilidad de que algo pase es p, y sabemos que la probabilidad de todo el todo todito bravo todo es 1, entonces la probabilidad de que no pase es la diferencia entre ambas cosas.

El suceso complementario.

Para gusto del consumidor, se suele llamar q al valor 1 – p.

Media y varianza:

Distribución Binomial

Cuando re-petimos un experimento de Bernoulli al menos una vez, de forma independiente, tenemos una distribución Binomial.

Por ejemplo, al lanzar un dado siete millones de veces, y definir una variable aleatoria que capture “el número de veces que hemos obtenido un seis en los siete millones de lanzamientos del dado”, tendríamos que esa variable sigue una distribución Binomial, compuesta por siete millones de experimentos o pruebas de Bernoulli: “lanzar un dado y obtener un seis”, que son independientes (porque el primer lanzamiento no afecta al siguiente, ni este al siguiente, y cétera.).

La probabilidad de obtener x éxitos en n pruebas de Bernoulli, resulta ser n sobre x veces la probabilidad del éxito del experimento de Bernoulli elevada a x, multiplicado por la probabilidad del fracaso elevada a n-x.

¿Por qué?

Pues es menos complicado de lo que parece.

Entonces, aplicando la regla de la multiplicación, tendríamos que la probabilidad de obtener x éxitos en n pruebas es la probabilidad del éxito x veces por la probabilidad del fracaso n-x veces. Super ultra mega lógico.

Repito.

[probabilidad de éxito x veces] multiplicada por [probabilidad de fracaso n-x veces]

Aquí nadie se inventa nada.

¿Y el n sobre x?

n sobre x es un número combinatorio, que viene de combinar las distintas formas de ordenar los éxitos y los fracasos.

¿Qué?

Pues que si repetimos la prueba cuarenta veces no es lo mismo acertar las treinta primera y fallar las diez últimas que al revés.

Son distintas combinaciones, y por eso hay un número combinatorio que las representa.

¿Cómo calculo el número combinatorio?

Pues sabiendo que el número combinatorio n sobre x es igual al factorial de n dividido por el producto del factorial de x y el factorial de la diferencia entre n y x.

Aviso: Si no sabes lo que es un número combinatorio o un factorial, aquí tienes un artículo que tienes que mirar antes de seguir: Factorial. Variaciones. Permutaciones. Combinaciones.

Vamos a ver un ejemplo:

Probabilidad de obtener 4 veces un 6 al lanzar un dado 25 veces.

Pues tenemos 25 pruebas de Bernoulli.

Variable aleatoria N: “Número de éxitos del experimento en 25 repeticiones”.

La probabilidad de sacar un seis 4 veces es igual a [la probabilidad de tener éxito 4 veces] por [la probabilidad de fracasar todas las demás veces] por [todas las posibles formas de ordenar los acontecimientos].

Es decir,

f(N=4)={(\frac{1}{6})}^{4}\times{(\frac{5}{6})}^{25-4}\times[\frac{25!}{4!\times(25-4)!}]

Media y varianza:

Ver: Ejercicio resuelto de distribución binomial.

Distribución Geométrica

¿Voy a conseguirlo si realizo n intentos?

Pues eso. Cuando repetimos el mismo experimento aleatorio de Bernoulli, podemos saber qué probabilidad hay de tener al menos un éxito al intentarlo n veces.

¿Y cómo calculo la probabilidad de que voy a conseguirlo con n intentos?

Pues calculándolo.

Conseguir algo en el n-ésimo intento significa fallar n menos 1 veces y luego acertar.

Es decir probabilidad del fracaso n-1 veces multiplicando a la probabilidad del éxito.

Es decir,

La probabilidad de obtener al menos un dos al lanzar un dado tres veces, sigue una distribución Geométrica de variable aleatoria X: “intentos necesarios para obtener un dos al lanzar un dado”.

Fracasamos dos veces y acertamos a la tercera, ¿cuál es la probabilidad?

f(X=3)=(\frac{5}{6})^2\times(\frac{1}{6})

¿Y la media y la varianza?

Media:

E(X)=\frac{1}{p}

Varianza:

Var(X)=\frac{q}{p}

Abrir: Ejercicios resueltos de problemas con Distribución Geométrica.

Distribución de Poisson

Siméon Poisson fue un estudioso de alta calidad.

Proceso de Poisson: en un punto determinado del tiempo o el espacio se dan eventos de manera aleatoria.

Por ejemplo,

Un proceso de Poisson es un experimento aleatorio al que se le asigna la siguiente variable aleatoria:

P: “Número de eventos que ocurren en un intervalo de tiempo o región especificada”.

Los valores que toma esta variable son, naturalmente, los números naturales. Del cero pa’lante.

Y la distribución de probabilidad asociada a dicha variable, se llama distribución de Poisson.

La función de probabilidad de una variable aleatoria discreta en distribución de Poisson es:

f(P=x)=\frac{e^{-\lambda}{\lambda^x}}{x!}

Donde λ es el número medio de veces que el evento ocurre en el intervalo o región especificada.

Si por ejemplo tenemos una carretera con un promedio de 6 baches por kilómetro, ¿cuál es la probabilidad de tener 10 baches en 2 km de esa carretera?

Probabilidad de que haya 10 baches en los 2 km de carretera:

f(P=10)=\frac{e^{-12}\times{12^{10}}}{10!}=0.1049

Bien.

Tanto la media como la varianza de esta distribución coinciden con el parámetro de la misma:

Media = Varianza = λ

Una gracia.

Ver: Ejercicios Resueltos sobre la Distribución de Poisson.

Distribuciones de Variable Aleatoria Continua

Ver: Definición de Variable Aleatoria Continua.

Distribución Uniforme Continua

De forma análoga al caso de la distribución Uniforme discreta, aquí tenemos un espacio equiprobable de elementos en un intervalo.

Por ejemplo, elegir al azar un número cualquiera del intervalo [5, 10] sería un experimento aleatorio.

La variable aleatoria X: “Número elegido” puede tomar cualquier valor entre el 5 y el 10.

De forma intuitiva podemos pensar que cualquier número es igualmente probable, pero no podemos asignarle una probabilidad porque ese intervalo contiene infinitos elementos.

¿Y qué pasa?

Observa:

Según lo mencionado para la distribución uniforme discreta, cada posible número de ese intervalo tendría una probabilidad de 1 partido por k, donde k es el número total de elementos posibles.

Aquí k es tan grande tan grande que podemos estar toda la vida contando y no terminar nunca.

Podríamos coger el 5, el 5.2, el 6.6252, el 8.63532382323.... etc...

Repartir la probabilidad total o certeza uno entre un número infinitamente grande sería un absurdo, puesto que la probabilidad de tomar cada elemento sería infinitamente cercana a cero.

Es una barrera entre la realidad y las ideas.

Ver: La mentira del Infinito.

Por eso no podemos definir una función de probabilidad.

¿Entonces no calculamos probabilidades?

Sí.

Pero en variable continua no se juega con números discretos, sino con trozos de esa continuidad, para saltarnos el problema que supone el fin del infinito.

Para nuestro ejemplo: “Elegir un número al azar del intervalo [5, 10]”.

Es intuitivo pensar que la probabilidad de sacar un número del intervalo [5, 6] sea de 1 quinto.

Sería como dividir el intervalo en cinco casos y querer saber cuál es la probabilidad de caer en uno de esos casos.

Bien, pues para dejar claro que esto no es la probabilidad de un elemento, sino la de un entorno, tenemos la función de densidad.

La función de densidad para una variable aleatoria continua de distribución uniforme en el intervalo [a, b] de números reales es:

f(x)=\frac{1}{b-a}

Es decir, repartir la unidad de probabilidad total entre todas las unidades (trozos continuos de infinitos valores) que hay en el intervalo.

La densidad de probabilidad en un número que no pertenezca al intervalo es cero. Está claro que un número que esté fuera del intervalo no va a salir nunca, ni ninguno en su entorno.

Si queremos conocer la función de distribución, tenemos que integrar la función de densidad a lo largo de todo el intervalo [a, b].

¿Por qué?

Porque estaremos integrando (sumando) todos los infinitos mini trozos continuos hasta cada punto, de forma que tenemos reflejada la probabilidad acumulada hasta ese punto.

Nota antifuriosos: Un matemático formal se enfadará mucho al leer estas cosas, pero es que para formalidades está la versión en Wikipedia. Aquí se pretende dar una interpretación con palabras que quepan en el bolsillo y que cualquiera pueda comerse.

Ok.

En cuanto a la media y la varianza:

Media:

E(X)=\frac{b+a}{2}

Los valores más esperados están cercanos al centro del intervalo.

Varianza:

E(X)=\frac{(b-a)^{2}}{12}

Wow.

Ver: Ejercicios resueltos sobre la distribución Uniforme continua.

Distribución Normal

Esta distribución es muy utilizada, tanto que he decidido hacerle una página propia a ella solita.

Ver: Información y ejemplos sobre la Distribución Normal.

Distribución Exponencial

De forma similar a la distribución de Poisson, habla de eventos que suceden en un una región del espacio o el tiempo.

Concretamente, habla del tiempo pasado hasta que se produce el primer evento, por lo que podemos decir también que es la versión análoga de la distribución geométrica discreta.

La función de densidad de una variable aleatoria con distribución exponencial es:

f(x)=\frac{1}{\beta}e^{\frac{-x}{\beta}}

Y su función de distribución es:

F(x)=1-e^{\frac{-x}{\beta}}

Obviamente, para x mayor que cero.

En otros casos la densidad de probabilidad es nula, pues no hay probabilidad en el entorno de que pase un tiempo negativo hasta el primer evento.

¿Y la media y la varianza?

Media:

El parámetro de esta distribución es β, que representa el tiempo medio que pasa hasta el primer evento, por lo que este coincide directamente con la media o esperanza de la variable aleatoria.

Varianza:

La varianza de una variable con distribución exponencial es β2.

Atención:

A veces se define esta distribución con el parámetro inverso.

Pero si tienes las ideas claras eso no supondrá un problema.

Ver: Ejemplo resuelto sobre la Distribución Exponencial.