Distribución exponencial

En teoría de probabilidad y estadística, la distribución exponencial (a.k.a. distribución exponencial negativa) es una familia de distribuciones de probabilidad continuas. Describe el tiempo entre acontecimientos en un proceso de Poisson, es decir un proceso en el cual los acontecimientos ocurren continuamente e independientemente a un precio medio constante. Es el análogo continuo de la distribución geométrica.

Note que la distribución exponencial no es lo mismo como la clase de familias exponenciales de distribuciones, que es una clase grande de distribuciones de probabilidad que incluye la distribución exponencial como uno de sus miembros, sino también incluye la distribución normal, distribución de dos términos, distribución gamma, Poisson y muchos otros.

Caracterización

Función de densidad de probabilidad

La función de densidad de probabilidad (pdf) de una distribución exponencial es

:

f (x; \lambda) = \begin {casos }\

\lambda e^ {-\lambda x}, & x \ge 0, \\

0, & x

O bien, esto se puede definir usando la función del paso de Heaviside, H (x).

:

f (x; ¡\lambda) = \mathrm \lambda e^ {-\lambda x} H (x) \!

</matemáticas>

Aquí λ &gt; 0 es el parámetro de la distribución, a menudo llamada el parámetro del precio. La distribución se apoya en el intervalo 0, ∞. Si una variable arbitraria X tiene esta distribución, escribimos X Exp (λ) ~.

La distribución exponencial expone la divisibilidad infinita.

Función de distribución acumulativa

La función de distribución acumulativa da

:

F (x; \lambda) = \begin {casos }\

1-e^ {-\lambda x}, & x \ge 0, \\

0, & x

O bien, esto se puede definir usando la función del paso de Heaviside, H (x).

:

F (x; ¡\lambda) = \mathrm (1-e^ {-\lambda x}) H (x) \!

</matemáticas>

Alternativa parameterization

Una alternativa comúnmente usada parameterization debe definir la función de densidad de probabilidad (pdf) de una distribución exponencial como

:

f (x; \beta) = \begin {casos }\

\frac {1} {\\beta} E^ {-x/\beta}, & x \ge 0, \\

0, & x

donde β> 0 es un parámetro de la escala de la distribución y está el recíproco del parámetro del precio, λ, definido encima. En esta especificación, el β es un parámetro de supervivencia en el sentido que si una variable arbitraria X es la duración del tiempo que un sistema biológico o mecánico dado logra sobrevivir y X ~ Exponencial (β) entonces E [X] = β. Es decir, la duración esperada de la supervivencia del sistema es unidades β del tiempo. La implicación de parameterisation del parámetro del "precio" se levanta en el contexto de acontecimientos llegando a un precio λ, cuando el tiempo entre acontecimientos (que se podría modelar usando una distribución exponencial) tiene un medio de β = λ.

La especificación alternativa es a veces más conveniente que un dado encima, y algunos autores la usarán como una definición estándar. Esta especificación alternativa no se usa aquí. Lamentablemente esto da ocasión a una ambigüedad notational. En general, el lector debe comprobar cual de estas dos especificaciones se está usando si un autor escribe "X ~ Exponencial (λ)", desde cualquiera la nota en el anterior (usando λ) o la nota en esta sección (aquí, usando β para evitar la confusión) se podrían querer.

Propiedades

Medio, desacuerdo, momentos y mediana

El valor esperado o medio de una variable arbitraria exponencialmente distribuida X con el parámetro del precio λ da

:

En la luz de los ejemplos dados encima, esto tiene sentido: si recibe llamadas telefónicas a un precio medio de 2 por hora, entonces puede esperar esperar la media hora cada llamada.

El desacuerdo de X da

:

Los momentos de X, para n=1,2..., da

:

La mediana de X da

:

donde el callejón se refiere al logaritmo natural. Así la diferencia absoluta entre el medio y mediano es

:

de acuerdo con el.

Memorylessness

Una propiedad importante de la distribución exponencial consiste en que es memoryless. Esto significa que si una variable arbitraria T exponencialmente se distribuye, su probabilidad condicional obedece

:

Esto dice que la probabilidad condicional que tenemos que esperar, por ejemplo, más que más 10 segundos antes de la primera llegada, dado que la primera llegada todavía no ha pasado después de 30 segundos, es igual a la probabilidad inicial que tenemos que esperar más de 10 segundos la primera llegada. De este modo, si esperáramos durante 30 segundos y la primera llegada no pasó (T> 30), la probabilidad que tendremos que esperar más 10 segundos la primera llegada (T> 30 + 10) es lo mismo como la probabilidad inicial que tenemos que esperar más de 10 segundos la primera llegada (T> 10). El hecho que Pr (T> 40 | T> 30) = Pr (T> 10) no supone que los acontecimientos T> 40 y T> 30 son independientes.

Resumir: "el memorylessness" de la distribución de probabilidad de la espera T hasta la primera llegada significa

:

No significa

:

(Que sería la independencia. Estos dos acontecimientos son bastante dependientes.)

Las distribuciones exponenciales y las distribuciones geométricas son las únicas distribuciones de probabilidad memoryless.

La distribución exponencial es por consiguiente también necesariamente la única distribución de probabilidad continua que tiene una Tasa de fallos constante.

Quantiles

La función de quantile (función de distribución acumulativa inversa) para el Exponencial (λ) es

:

Los quartiles son por lo tanto:

primer quartile: callejón (4/3)/λ\

mediana: callejón (2)/λ\

tercero quartile: callejón (4)/λ\

Divergencia de Kullback-Leibler

La divergencia Kullback–Leibler dirigida entre Exp (λ) (distribución 'verdadera') y Exp (λ) ('acercándose' la distribución) da

:

\Delta (\lambda_0 || \lambda) = \log (\lambda_0) - \log (\lambda) + \frac {\\lambda} {\\lambda_0} - 1.

</matemáticas>

Distribución de la entropía máxima

Entre todas las distribuciones de probabilidad continuas con el apoyo la distribución exponencial con λ = 1/μ tiene la entropía más grande. O bien, es la distribución de probabilidad de la entropía máxima para una variante aleatoria arbitraria X para que se fija y mayor que el cero.

Distribución de mínimo de variables arbitrarias exponenciales

Deje X..., X ser variables arbitrarias independientes exponencialmente distribuidas con parámetros del precio λ..., λ. Entonces

:

\min\{\\, X_1, \dots, X_n \,\}\

</matemáticas>

también exponencialmente se distribuye, con el parámetro

:

\lambda = \lambda_1 +\cdots +\lambda_n. \,

</matemáticas>

Esto se puede ver considerando la función de distribución acumulativa complementaria:

:

Los \begin {alinean }\

\Pr (\min\{\\, X_1, \dots, X_n \,\}> x) & = \Pr\left (X_1> x \text {y }\\dots\text {y} X_n> x\right) \\

\prod_ {yo

1\^n \Pr (X_i> x) & = \prod_ {i=1} ^n \exp (-x\lambda_i) = \exp\left (-x\sum_ {i=1} ^n \lambda_i\right).

Los \end {alinean }\

</matemáticas>

El índice de la variable que consigue mínimo se distribuye según la ley

:

Note esto

:

\max\{\\, X_1, \dots, X_n \,\}\

</matemáticas>

exponencialmente no se distribuye.

Valoración del parámetro

Suponga que una variable dada exponencialmente se distribuye y el parámetro del precio el λ se debe estimar.

Probabilidad máxima

La función de probabilidad para λ, considerando una muestra independiente e idénticamente distribuida x = (x..., x) dibujado de la variable, es

:

donde

:

es la muestra media.

El derivado del logaritmo de la función de probabilidad es

:

Por consiguiente la estimación de probabilidad máxima para el parámetro del precio es

:

Mientras esta estimación es la reconstrucción más probable del parámetro verdadero λ, es sólo una estimación, y como tal, uno puede suponer que más funciones de datos están disponibles el mejor la estimación será. Así resulta que uno puede calcular un intervalo de confianza exacto – es decir un intervalo de confianza que es válido para todo el número de muestras, no sólo grande. Los 100 (1 − α) % intervalo de confianza exacto para esta estimación da

:

que también es igual a:

:

donde está la estimación de MLE, es el valor real del parámetro y es el porcentaje del chi cuadró la distribución con niveles de la libertad.

Inferencia de Bayesian

El previo conjugado para la distribución exponencial es la distribución gamma (de que la distribución exponencial es un caso especial). Parameterization siguiente de la gamma pdf es útil:

:

La distribución posterior p se puede expresar entonces en términos de función de probabilidad definida encima y una gamma previa:

:

Los \begin {alinean }\

& {} \qquad p (\lambda) \propto L (\lambda) \times \mathrm {Gamma} (\lambda \; \, \alpha, \beta) \\

{} & = \lambda^n \, \exp (-\lambda \, n\overline {x}) \times \frac {\\beta^ {\\alfa}} {\\Gamma (\alpha)} \, \lambda^ {\\alfa 1\\, \exp (-\lambda \,\beta) \\

& {} \propto \lambda^ {(\alpha+n)-1} \, \exp (-\lambda \, (\beta + n\overline {x})).

Los \end {alinean }\

</matemáticas>

Ahora la densidad posterior p se ha especificado hasta una ausencia que se normaliza constante. Ya que tiene la forma de una gamma pdf, esto se puede fácilmente rellenar, y uno obtiene

:

Aquí el parámetro α se puede interpretar como el número de observaciones previas y β como la suma de las observaciones previas.

Intervalo de confianza

Un método simple y rápido de calcular un intervalo de confianza aproximado para la valoración de λ está basado en la aplicación del teorema de límite central. Este método proporciona una aproximación buena de los límites del intervalo de confianza, para muestras que contienen al menos 15 – 20 elementos. Denotando por N el tamaño de la muestra, dan por los límites más bajos y superiores del intervalo de confianza del 95%:

:

:

Generación de variantes aleatorias exponenciales

Un método conceptualmente muy simple para generar variantes aleatorias exponenciales está basado en el inverso transforman la prueba: Considerando una variante aleatoria arbitraria U dibujado de la distribución uniforme en el intervalo de la unidad (0, 1), la variante aleatoria

:

tiene una distribución exponencial, donde F es la función de quantile, definida por

:

Además, si U es uniforme en (0, 1), entonces también es 1 − U. Esto significa que uno puede generar variantes aleatorias exponenciales así:

:

De

otros métodos para generar variantes aleatorias exponenciales hablan Knuth y Devroye.

El algoritmo ziggurat es un método rápido para generar variantes aleatorias exponenciales.

Un método rápido para generar un juego de variantes aleatorias exponenciales pedidas del modo listo sin usar una rutina de clasificación también está disponible.

Distribuciones relacionadas

  • La distribución exponencial es cerrada bajo el escalamiento por un factor positivo. Si entonces
  • Si y luego
  • Si entonces
  • La distribución Benktander Weibull reduce a una distribución exponencial truncada
  • Si entonces (distribución de Benktander Weibull)
  • La distribución exponencial es un límite de una distribución de la beta escalada:
  • Si entonces (Distribución del erlang)
  • Si entonces (Distribución del valor extremo generalizada)
  • Si entonces (distribución gamma)
  • Si y luego (distribución de Laplace)
  • Si y luego
  • Si entonces
  • Si entonces (distribución logística)
  • Si y luego (distribución logística)
  • Si entonces (distribución de Pareto)
  • Si entonces
  • La distribución exponencial es un caso especial del tipo 3 distribución de Pearson
  • Si entonces (ley de poder)
  • Si entonces (distribución de Rayleigh)
  • Si entonces (distribución de Weibull)
  • Si entonces (distribución de Weibull)
  • Si (Distribución uniforme (continua)) entonces
  • Si (distribución de Poisson) donde entonces (distribución geométrica)
  • Si y luego (K-distribución)
  • La distribución Hoyt se puede obtener de distribución Exponencial y distribución de Arcsine
  • Si y luego
  • Si y luego
  • Si, entonces: ver sesgan - distribución logística.
  • , es decir. El Y tiene una distribución de Gumbel, si y.
  • , es decir. X tiene una distribución chi-cuadriculada con 2 niveles de la libertad, si.
  • Deje y sea independiente. Entonces tiene la función de densidad de probabilidad. Esto puede ser usado para obtener un intervalo de confianza para.

Otras distribuciones relacionadas:

  • La distribución hiperexponencial – la distribución cuya densidad es una suma ponderada de densidades exponenciales.
  • Distribución de Hypoexponential – la distribución de una suma general de variables arbitrarias exponenciales.
  • distribución de exGaussian – la suma de una distribución exponencial y una distribución normal.

Aplicaciones

Acontecimiento de acontecimientos

La distribución exponencial ocurre naturalmente describiendo las duraciones de las interhoras de llegada en un proceso de Poisson homogéneo.

La distribución exponencial se puede ver como un equivalente continuo de la distribución geométrica, que describe el número de juicios de Bernoulli necesarios para un proceso distinto para cambiar el estado. En contraste, la distribución exponencial describe el tiempo para un proceso continuo para cambiar el estado.

En guiones de mundo real, la asunción de un precio constante (o probabilidad por unidad de tiempo) raramente se satisface. Por ejemplo, el precio de llamadas telefónicas de entrada se diferencia según el tiempo del día. Pero si nos concentramos en un intervalo de tiempo durante el cual el precio es aproximadamente constante, tal como de las 14:00 a las 16:00 durante días de trabajo, la distribución exponencial se puede usar como un modelo aproximado bueno para el tiempo hasta que la siguiente llamada telefónica llegue. Las advertencias similares se aplican a los ejemplos siguientes que ceden variables aproximadamente exponencialmente distribuidas:

  • El tiempo hasta una partícula radiactiva decae, o el tiempo entre chasquidos de un contador Geiger
  • El tiempo toma antes de su siguiente llamada telefónica
  • El tiempo hasta la falta (en el pago a poseedores de la deuda de la compañía) en el crédito de la forma reducido arriesga de modelar

Las variables exponenciales también pueden estar acostumbradas a situaciones modelas donde ciertos acontecimientos ocurren con una probabilidad constante por unidad de longitud, como la distancia entre mutaciones en un hilo del ADN, o entre roadkills en un camino dado.

En la teoría que hace cola, los tiempos del servicio de agentes en un sistema (p.ej cuanto toma para un cajero de banco etc. para servir a un cliente) a menudo se modelan como variables exponencialmente distribuidas. (La interllegada de clientes por ejemplo en un sistema es típicamente modelada por la distribución de Poisson en la mayor parte de libros de texto de ciencias de gestión.) La duración de un proceso de que pueden pensar como una secuencia de varias tareas independientes es mejor modelada por una variable después de distribución del Erlang (que es la distribución de la suma de varias variables independientes exponencialmente distribuidas).

La teoría de fiabilidad y la ingeniería de fiabilidad también hacen el uso extensivo de la distribución exponencial. A causa de la propiedad memoryless de esta distribución, es el modelo que conviene bien la parte del precio de riesgo constante de la curva de la bañera usada en la teoría de fiabilidad. También es muy conveniente porque es tan fácil añadir tasas de fallos en un modelo de fiabilidad.

La distribución exponencial no es sin embargo apropiada para modelar la vida total de organismos o dispositivos técnicos, porque las "tasas de fallos" aquí no son constantes: más fracasos ocurren para el muy joven y para muy viejos sistemas.

En la física, si observa un gas a una temperatura fija y presión en un campo gravitatorio uniforme, las alturas de varias moléculas también siguen una distribución exponencial aproximada. Esto es una consecuencia de la propiedad de la entropía mencionada abajo.

En la hidrología, la distribución exponencial es usada para analizar valores extremos de tales variables como valores máximos mensuales y anuales de precipitación diaria y volúmenes de descarga del río.

El:The cuadro azul ilustra un ejemplo de encajar la distribución exponencial al clasificado anualmente precipitaciones antiguas máximas que muestran también el cinturón de confianza del 90% basado en la distribución de dos términos. Los datos de la precipitación se representan trazando posiciones como la parte del análisis de frecuencia acumulativo.

Predicción

Habiendo

observado una muestra de funciones de datos n de una distribución exponencial desconocida una tarea común es usar estas muestras para hacer predicciones sobre futuros datos de la misma fuente. Una distribución profética común sobre futuras muestras es la llamada distribución enchufable, formada tapando una estimación conveniente para el parámetro del precio λ en la función de densidad exponencial. Una opción común de la estimación es la que proporcionada por el principio de la probabilidad máxima, y usando esto cede la densidad profética sobre una futura muestra x, condicionado en las muestras observadas x = (x..., x) dado por

:

El enfoque de Bayesian proporciona una distribución profética que tiene la incertidumbre en cuenta del parámetro estimado, aunque esto pueda depender de forma crucial de la opción de previo.

Una distribución profética sin las cuestiones de elegir priors que se levantan bajo el enfoque de Bayesian subjetivo es

:,

que se puede considerar como

(1) una distribución de confianza frequentist, obtenida de la distribución de la cantidad fundamental;

(2) un perfil probabilidad profética, obtenida eliminando el parámetro de la probabilidad conjunta de y por maximización;

(3) Bayesian objetivo distribución posterior profética, utilización obtenida de Jeffreys no informativo previo;

y (4) Conditional Normalized Maximum Likelihood (CNML) distribución profética, de la información consideraciones teóricas.

La exactitud de una distribución profética se puede medir usando la distancia o divergencia entre la distribución exponencial verdadera con el parámetro del precio, λ, y la distribución profética basada en la muestra x. La divergencia Kullback–Leibler está un comúnmente usada, parameterisation la medida libre de la diferencia entre dos distribuciones. El piso de alquiler Δ (λp) denotan la divergencia Kullback–Leibler entre un exponencial con el parámetro del precio λ y una distribución profética p se puede mostrar esto

:

Los \begin {alinean }\

{\\rm E\_ {\\lambda_0} \left [\Delta (\lambda_0 || p_ {\\rm ML}) \right] &= \psi (n) + \frac {1} {n-1} - \log n \\

{\\rm E\_ {\\lambda_0} \left [\Delta (\lambda_0 || p_ {\\rm CNML}) \right] &= \psi (n) + \frac {1} {n} - \log n \\

Los \end {alinean }\

</matemáticas>

donde la expectativa se toma con respecto a la distribución exponencial con el parámetro del precio y es la función de digamma. Está claro que la distribución profética CNML es estrictamente superior a la distribución del enchufe de unión de probabilidad máxima en términos de divergencia de Kullback-Leibler media para todos los tamaños de la muestras.

Véase también

  • Tiempo improductivo – una aplicación de distribución exponencial a análisis del detector de la partícula.
  • Distribución de Laplace o la "doble distribución exponencial".

Enlaces externos


El hombre en el castillo High / Más allá de este horizonte
Impress & Privacy