jueves, 12 de abril de 2007

DISTRIBUCIONES DE PROBABILIDAD

Universidad Valle del Grijalva
"Lux Lucís Humanitate"

Estadística y probabilidad
En esta página se encontraran conceptos básicos de la asignatura de Estadística y probabilidad, así como algunos ejemplos de los temas y subtemas que en ella misma se encuentran
Objetivo
El objetivo es conocer las distribuciones de probabilidad, es decir los diversos tipos de probabilidad que se toman en un rango determinado. Para esto aquí se introducen ampliamente las variables aleatorias y a las distribuciones de probabilidad. Primero se tratara de conocer y aprender los valores de las variables, y por medio de las estadística nos interesaremos en uno o varios números que están relacionados con los experimentos y poder entender eventos como por ejemplo: al analizar una prueba en carretera puede preocuparnos solamente la velocidad promedio y el consumo promedio de combustible, y al estudiar un interruptor rotatorio.
Estos y otros ejemplos serán usados y vistos en los contenidos de esta información para poder comprender los sucesos o eventos de distribución.

DISTRIBUCIONES DE PROBABILIDAD

Distribución de probabilidad
Distribuciones de Bernoulli y distribución normal.
Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos modalidades, es por ello que el hecho de llamar éxito o fracaso a los posibles resultados de las pruebas obedece más una tradición literaria o histórica.
Distribución de Bernoulli
La distribución binomial, plantada por el matemático suizo Jacob i. Berboulli, es la mas sencilla de todas las distribuciones, pues solo estudia procesos en los cuales los resultados posibles son solo dos, tienen probabilidades constantes y son independientes entre si.
La variedad de esos casos en los cuales es apropiada la distribución binomial es muy amplia, por ejemplo: la selección de un artículo en una prueba de control de calidad, el sexo de un niño que esta por nacer etc.
La probabilidad de que un evento ocurra exactamente x veces al realizar n veces un proceso de bernoulli, en el cual la probabilidad de éxito es p y, en consecuencia probabilidad de fracaso es 1-p (conocida como q), esta dada por la siguiente formula:
N! P(X) = ______________ Px q n-x X! (N-X)!
En ella:
P(x) es la probabilidad de que sucedan exactamente x éxitos en un total de n intentos.
X es el número de éxitos deseados.
N es el número de veces que se realiza la operación.
P es la probabilidad de tener un éxito.
Q es la probabilidad de tener un fracaso, esto es el complemento de p, o sea, 1-p
Distribución normal
Entre las densidades de probabilidad especiales que estudiaremos en este capitulo, la densidad de probabilidad normal, conocida simplemente como, distribución normal, es con mucho la más importante. Fue estudiada por primera vez en el siglo XVIII cuando los científicos observaron con sorpresa el grado de regularidad en los errores de medición. Descubrieron que los patrones (distribuciones) eran aproximados a una distribución continua que denominaron “curva normal de errores” y le atribuyeron reglas de la probabilidad. La ecuación de densidad de probabilidad normal.
Uno de los ejemplos mas importantes de una distribución de probabilidad continua es la distribución normal o distribución gaussiana, esta se define por medio de la siguiente ecuación:
1 Y = ------------- e-1/2 (x-µ)² /σ² σ√2π
Donde µ = media
σ = desviación estándar
π = 3.14159
e = 2.71828
El área total limitada por la curva (3) y el eje x es 1; por consiguiente, el área bajo la curva entre dos ordenadas x=a y x=b, donde a < z =" (X" y =" -----------" 3 =" q" 4 =" 3" z =" -1" z =" -" z =" -3" z="0.

EJEMPLOS:

Ejemplos de la probabilidad de Bernoulli y la normal
Ejemplo 1: Suponga que 15% de la población es zurda. Determine la probabilidad que en un grupo de 50 individuos haya:
a) a lo sumo 10 zurdosb) al menos 5 zurdosc) entre 3 y 6 zurdos inclusive yd) exactamente 5 zurdos.
Utilice minitabla para resolverlo.
Solución
a) El resultado de minitabla se muestra a continuación: el comando cdf 10; con el subcomando binomial n = 50
y p =.15 da la probabilidad requerida. La probabilidad de que a lo sumo sean 10 zurdos en un grupo de 50 es 0.8801.
MTB > cdf 10;
SUB > binomial n = 50, p =.15.
b) El complemento del evento al menos 5 zurdos es el evento a lo sumo 4 zurdos. Usando el hecho de que p (evento) = 1-p (complemento del evento), se tiene p (x > 5) = 1 - p (x < 1121 =" 0.8879"> cdf 4;
SUB > binomial n = 50, p =.15.
c) P (3 < 0142 =" 0.3471"> cdf 6;
SUB > binomial n = 50, p =.15
d) De este, se puede ver que p (x=5) = 0.1072
MTB>cdf 5;
SUB> binomial n= 50, p=.15.

Ejemplo 2: De un total de 2000 familias con 4 hijos cada una, ¿cuantas se esperaría que tuvieran:
a) al menos 1 niñob) 2 niños,c) 1 o 2 niñasd) ninguna niña?
Solución.
a) numero esperado de familias con al menos 1 niño = 2000 (15/16) = 1875
b) numero esperado de familias con 2 niños = 2000. pr {2niños} = 2000 (⅜) = 750
c) pr {1 o 2 niñas} = pr {1 niña} + pr {2 niñas}= pr {1 niño} + pr {2 niños} = 1/4 ⅜ = ⅝. Numero esperado de familias con una o dos niñas = 2000 (⅝) = 1250.
d) Numero esperado de familias sin niñas= 2000 (1/16) = 125.

Ejemplo 3: Si la pobrabilidad de que cierta columna falle ante una carga axial especifica es 0.05. ¿Cuales son las probabilidades de que entre 16 de tales columnas:
a) a lo máximo dos fallen;b) Al menos cuatro fallen?
Solución:
a) por la tabla 1, B) (2:16,0.05) = 0.9571 16
b) puesto que ∑ b (x;16,0.05) = 1 - B (3;16,0.05) x=4
Mediante la tabla 1 tenemos que 1 - 0.9930 = 0.0070






Ejemplo 4: Si la probabilidad de que cualquier persona no le guste el sabor de una nueva pasta dental es 0.20, ¿Cuál es la probabilidad de que a 5 de 18 personas elegidas aleatoria mente no les guste?
Solución:
Usando la relación para las probabilidades acumuladas y buscando las probabilidades requeridas en la tabla 1, obtenemos
B (5;18,0.20) = B (5;18,0.20) - B (4;18,0.20) = 0.8671 - 0.7164 = 0.1507.

2.2 Distribuciones de probabilidad
Relación entre la distribución de Poisson y la binomial
Cuando n es relativamente grande y p pequeña, las pobrabilidades binomiales a menudo se aproximan por medio de la siguiente formula:
λee –λ F (x; λ) = ___________ para x = 0, 1,2…. XỊ
Siendo λ (lambda) igual al producto np. Antes de justificarse esta aproximación, señalaremos que x = 0, 1,2…., significa que existe un numero infinito y contable de posibilidades, y esto requiere que modifiquemos el axioma de probabilidad (si A y B son eventos que se excluyen mutuamente en S, entonces P (A U B) = P (A) + P (B)). En su lugar estableceremos el siguiente axioma:
Axioma 3` Si A1, A2, A3…es una sucesión finita o infinita de eventos mutuamente excluyentes en S, entonces
P (A1 U A2 U A3 U….) = P (A1) + P (A2) + P (A3) +…
La distribución binomial (1), si N es grande y la probabilidad p de ocurrencia de un evento se acerca a cero de tal manera que q = 1 - p se acerca a 1, entonces el evento se denomina suceso raro o inusual.
En la practica se debe considerar que un evento es raro si el numero de ensayos es de por lo menos 50 (N>50), mientras que Np es menor que 5. En tal caso, la distribución binomial (1) se aproxima estrechamente a la distribución de poisson (5), λ = Np. Esto se comprueba comparando las tablas 2.1 ya que, al poner al poner λ = Np, q = 1y p = 0 en la tabla 2.1, se obtienen los resultados de la tabla 2.2.
media
µ = λ
varianza
Σ2 = λ
Desviación estándar
Σ = √λ
Coeficiente momento de asimetría
∞3 = 1/√λ
Coeficiente momento de curtosis
∞4 = 3+1/λ




Tabla 2.2
La distribución de poisson puede utilizarse para obtener resultados aproximados de una aplicación propia de la distribución binomial. La distribución de poisson se ajusta perfectamente a las necesidades de calcular, por ejemplo la probabilidad de que un día cualquiera se presenten mas de un cierto número de reclamaciones por una póliza de seguros, o la probabilidad de que la demanda de servicios a la hora pico exceda la capacidad de los nuevos equipos.

EJEMPLOS:

Ejemplos de la distribución de poisson y la binomial
Ejemplo 1:Si un banco recibe en promedio λ=6 cheques falsos al día ¿Cuáles son las probabilidades de que reciba:
a) 4 cheques falsos en un día cualquiera;b) 10 cheuques falsos en dos días consecutivos cualesquiera?
Solución:
a) sustituyendo x = 4 y λ= 6 en la formula para la distribución de poisson, obtenemos f (4;6) = 64 .e-6 / 4!
= 1,296 (0.00248) = 0.134 2
b) aquí se desea calcular f (10;12), y para ello escribimos
f (10;12) = f (10;12) - f (9;12) = 0.347 – 0.242 = 0.105 donde los valores de f (10;12) y f (9;12) se obtuvieron de la tabla 2.

Ejemplo 2: al inspeccionar la aplicación de estaño por un proceso electrolítico continuo, se descubren en promedio 0.2 imperfecciones por minuto. Calculase las probabilidades de descubrir:
a) una imperfección en 3 minutos;
b) al menos dos imperfecciones en 5 minutos;
c) a lo sumo una imperfección en 15 minutos.
Solución:
Utilizando en todos los casos la tabla 2, obtenemos
F (1; 0.06) – f (0; 0.06) = 0.878 – 0.549 = 0.329
Para la parte a),
1 - f(1;1.0) = 1 - 0.736 = 0.264
Para la parte b),
Y por ultimo f (1; 3.0) = 0.199
Como respuesta de la parte c)

2.3 Distribuciones de probabilidad
Relación entre la distribución de Poisson y la normal
La distribución de Poisson puede simplificarse por medio de la distribución normal si se cumple que la media sea mayor de 10.
La media y la desviación estándar de la distribución normal se obtienen por medio de las siguientes formulas:
Media de la normal = media de poisson = µ
Desviación estándar de la normal = medía de poisson = √µ.
Dado que las distribución de poisson es discreta (solo acepta valores enteros), mientras que la distribución normal es continua (acepta cualquier valor), la variable normalizada (z) debe calcularse incluyendo un ajuste por continuidad equivalente a + 0.5. Si la expresión buscada es del tipo “menor o igual que” o “mayor que”, o a - 5 si la expresión buscada es del tipo “mayor o igual que” o “menor que”.
Como hay una relación entre la distribución binomial y la distribución de poisson y la distribución normal. De hecho, se puede demostrar que la distribución normal con variable estandarizada (x - λ) / √λ conforme se incrementa indefinidamente.

EJEMPLOS:


Ejemplos de la distribución de poisson y la normal
ejemplo 1: Encuéntrese las probabilidades de que una variable aleatoria con distribución normal estándar tome un valor
a) entre 0.87 y 1..28;b) entre - 0.34 y 0.62;c) mayor que 0.85d) menor que - 0.65
Solución:
Al buscar los valores necesarios en la tabla 3, se obtiene
F(1.28) – F(0.87) = 0.8997 - 0.8078 = 0.0919
Para la parte a),
F(0.62) - F(- 0.34) = 0.7324 - (1 - 0.6331) = 0.3655
Para la parte b),
1 - F(0.85) = 1 - 0.8023 = 0.1977
Para la parte c y d);
1 - F(- 0.65) = 1 - [1 - F(0.65)] = F(0.65) = 0.7422

ejemplo 2: Si Zx es un valor que ∞ sea la probabilidad de que una variable aleatoria con distribución normal estándar lo sobrepase, calcúlese
a) Z0.01 ;b) Z0.05
Solución:
a) Puesto que F (Z0.01) = 0.99, buscando el valor de la tabla 3 más cercano a 0.9901 que corresponde a z = 2.33 así, Z0.01 = 2.33
b) En vista de que FZ (0.05) = 0.95, buscamos el valor de la tabla 3 más cercano a 0.95 y obtenemos 0.9495 y 0.9505 que corresponden respectivamente a z = 1.64 y a z = 1.65. por lo tanto, Z0.05 = 1.645.

2.4 Distribuciones de probabilidad
Teorema del limite central
Si se obtiene una muestra de una población normal, entonces la media muestral tiene una distribución normal sin importar el tamaño de la muestra. Sin embargo, se puede demostrar que de hecho no importa el modelo de probabilidad del cual se obtenga la muestra; mientras la media y la varianza existan, la distribución de muestreo de `X se aproximará a una distribución normal conforme n aumente. Lo anterior constituye uno de los más importantes teoremas en inferencia estadística y se conoce como teorema de limite central
En muchos casos, puede concluirse en forma segura que la aproximación será buena mientras n > 30.
Para mostrar la validez del teorema del limite central veamos el siguiente ejemplo
Suponga que de una población consistente en los valores 0, 2, 4, 6 y 8, se toman muestras de tamaño 2 con remplazo.

EJEMPLOS:

ejemplos del tereoma de limite central
Ejemplo 1: En cierta ciudad, el número de interrupciones en el suministro eléctrico al mes es una variable aleatoria que tiene una distribución con µ = 11.6 y σ = 3.3. Si esta distribución puede aproximarse con una distribución normal, ¿cuál es la probabilidad de que haya al menos ocho interrupciones en cualquier mes?
Solución:
La respuesta esta dada por el área de la región blanca, el área a la derecha de 7.5, no de 8. Ello se debe a que el número de interrupciones es una variable aleatoria discreta, y si se desea aproximarla con la distribución normal, hay que “distribuir” sus valores sobre una escala continua. Se hace esto representando cada entero entre k - ½ y k+ ½. Por ejemplo, 3 está representando por el intervalo entre 2.5 y 3.5, 10 está representado por el intervalo 9.5 y 10.5

Ejemplo 2: Si el 20% de los diodos fabricados en cierta planta están defectuosos, ¿cuáles son las probabilidades de que en un lote de 100, aleatoriamente escogidos para revisión
a) a lo sumo 15 estén defectuosos;
b) exactamente 15 estén defectuosos?
Solución:

Puesto que µ = 100 (0.20) = 20 y σ = 100 (0.20) (0.80) = 4
Para la distribución normal con n = 100 y p = 0.20, encontramos que la aproximación normal a la distribución normal produce.
F(15.5-20) = F (- 1.13) 4 = 1 - F (1.13)
= 1 - 0.8708
= 0.1292
Para la parte a y b)
F (15.5 - 20) 4
F (15.5 - 20) - F (14.5 - 20) = F (1.13) 4 4 = F (- 1.38)
= F (1.38) - F (1.13)
= 0.9162 - 0.8708
= 0.0454

2.5 Distribuciones de probabilidad
Distribución uniforme
Se dice que una v.a. X posee una distribución uniforme en el intervalo [a, b],
si su función de densidad es la siguiente:

Con esta ley de probabilidad, la probabilidad de que al hacer un experimento aleatorio, el valor de X este comprendido en cierto subintervalo de [a,b] depende únicamente de la longitud del mismo, no de su posición. Cometiendo un pequeño abuso en el lenguaje, podemos decir que en una distribución uniforme la probabilidad de todos los puntos del soporte es la misma.
Teniendo en cuenta que si ,

la función de distribución de es:




La función característica es

Como esta distribución es muy simple, vamos a calcular sus momentos más usuales directamente a partir de la definición, en lugar de usar la función característica:



EJEMPLOS:

ejemplo de distribución uniforme
Ejemplo 1: La amplificación de corriente en ciertos transistores se mide en unidades que la hacen igual al algoritmo de Iه/I, o sea la razón de la corriente de la salida entre la corriente de entrada. Si está normalmente distribuida con µ = 2 y σ² = 0, calcúlese la probabilidad de que Iه/I, asuma un valor entre 6.1 y 8.2.
Solución
Dado que ∞ = 2 y ß = 0, obtenemos
F (In 8.2 - 2) - F (In 6.1 - 2) = F (1.0) - F (- 2.0) = 0.8185 0.1 0.1

Ejemplo 2: En relación con el ejemplo de la página 156, encuentra la media y la varianza de la distribución de la razón de la corriente de salida a la corriente de entrada.
Solución
Sustituyendo ∞ = 2 y ß = 0.1 en las fórmulas anteriores, se obtiene
µ = e² + (º·¹)²/² = 7.43
y además σ² = e4 + (º·¹) (e(º·¹)²-1) = 0.56

2.6 Distribuciones de probabilidad
La distribución expenoncial
La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que:
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.
Ejemplos de este tipo de distribuciones son:
El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14, C14;
El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente;
En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante.
Concretando, si una v.a. continua X distribuida a lo largo de , es tal que su función de densidad es
EJEMPLOS:

ejemplos de la distribución exponencial
Ejemplo 1: En un experimento de laboratorio se utilizan 10 gramos de . Sabiendo que la duración media de un átomo de esta materia es de 140 días, ¿cuantos idas transcurrirán hasta que haya desaparecido el de este material?
Solución: El tiempo T de desintegración de un átomo de es una v.a. de distribución exponencial:

Como el número de átomos de existentes en una muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por los tiempos de desintegración de cada uno de estos átomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el polígono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su
función de distribución F. Entonces el tiempo que transcurre hasta que el del material radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es decir

ejemplo 2: Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un paciente, ¿cuál es la probabilidad de que haya que cambiarlo antes de años?
Solución: Sea T la variable aleatoria que mide la duración de un marcapasos en una persona. Tenemos que

Entonces

En segundo lugar

Luego como era de esperar, por ser propio a un mecanismo exponencial,
o sea, en la duración que se espera que tenga el objeto, no influye en nada el tiempo que en la actualidad lleva funcionando. Es por ello que se dice que ``la distribución exponencial no tiene memoria".










ANEXOS:

Tabla de distribución Z


tabla de distribución T de student



SON LAS MAS USADAS QUE NOS SIRVEN PARA RESOLVER PROBLEMAS DE ESTIMACIONES Y OTROS EJERCICIOS.