U 03 Variable Aleatoria - Resumen de Contenidos Teóricos

de probabilidad o función de probabilidad. 2.1 Definición de Distribución de Probabilidad: Sea X la variable aleatoria d
128KB Größe 3 Downloads 41 Ansichten
ESTADISTICA I UNIDAD 3: VARIABLES ALEATORIAS1 RESUMEN DE CONTENIDOS TEÓRICOS D.E.A. Mariano Lanza 1. VARIABLE ALEATORIA Dado un experimento aleatorio E y su correspondiente espacio muestral U; se llama variable aleatoria a la relación que existe entre cada elemento del espacio muestral con un número real. La variable es aleatoria porque los valores que puede tomar y que corresponden a los diferentes resultados de un experimento son eventos fortuitos. Supongamos que a cada punto del espacio muestral (o evento) le asignamos un número. Tenemos entonces una función definida en el espacio muestral. Dicha relación recibe el nombre de Variable Aleatoria o estocástica. Supongamos que el experimento es lanzar una moneda dos veces. Así, el espacio muestral es: U= {(c;c);(c;x);(x;c);(x;x)}. Si denominamos al evento X como “cantidad de caras al lanzar la moneda dos veces”, queda definida entonces la variable aleatoria X, que puede tomar, en este caso, los valores 0, 1, 2, donde será: 0 si sale (xx) 1 si sales (x;c) o (c;x) 2 si sale (c;c). 2. DISTRIBUCIÓN DE PROBABILIDAD DISCRETA Podemos expresar la relación existente entre el valor de la variable aleatoria con la probabilidad de ocurrencia de obtener dicho valor. Esta relación se denomina distribución de probabilidad o función de probabilidad. 2.1 Definición de Distribución de Probabilidad: Sea X la variable aleatoria discreta y supongamos que los valores posibles están dados por x1, x2, x3, xn, con determinado orden. Supongamos también que estos valores se asumen con probabilidades dadas por: P(X=xh) = f(xh)

h=1,2,3……n.

Entonces la relación P(X=x)=f(x) representa la función de probabilidad y se denomina “DISTRIBUCIÓN DE PROBABILIDAD” 1

Bibliografía consultada: Spiegel M. R y Stephens L. J. (2001): “Estadística”. McGraw-Hill. México. Lind D. A, Marachal W. G. y Mason R. D. (2004): “Estadística para Administración y Economía”. Ed. Alfaomega. México. De la Horra Navarro J. (2003): “Estadística Aplicada”. Ediciones Díaz de Santos. España. Moore D. S. ( 2000): “Estadística Aplicada Básica”. Antoni Bosch Editor S.A. España. Navidi William (2006): “Estadística para Ingenieros y Científicos”. Ed. McGraw-Hil.

1

2.2 Propiedades de la distribución de Probabilidad a) f ( x) ≥ 0 n

b)

∑ f (x j =0

j

) = 1 , es decir, la suma de todos los valores posibles de x es igual a la unidad

(relacionar con eventos mutuamente excluyentes y completamente exhaustivos de la unidad correspondiente a Probabilidad) Para el caso del ejemplo, tenemos entonces que:

P ( X = 0) = P (cruz1 ∩ cruz 2 ) =

1 1 1 * = 2 2 4

P ( X = 1) = P (cara1 ∩ cruz 2 ) ∪ P (cruz1 ∩ cara 2 ) =

1 1 1 1 1 * + * = 2 2 2 2 2

1 1 1 * = 2 2 4 Cuya representación en una tabla de la distribución de probabilidades queda representada de la siguiente forma: P ( X = 2) = P (cara1 ∩ cara 2 ) =

X f(x) F(x)

0 ¼ ¼

1 ½ ¾

2 ¼ 4/4

Donde f(x) representa la función de probabilidad y F(x) representa la “Función de Distribución Acumulada” o de Probabilidades Acumuladas” y está definida como: F(x)= P ( X ≤ x) = ∑a =−∞ P( X =a) x

2.3 Propiedades de la Función de Distribución Acumulada. a) F(x) es no decreciente b) lim x →−∞ F ( x) = 0 ; lim x →∞ F ( x) = 1

3. VARIABLES ALEATORIAS CONTINUAS: 3.1 Función de Densidad Para el caso de las V.A. discretas, se definía a la función de probabilidad como la asociación de cada valor de la variable con su correspondiente probabilidad de ocurrencia. Pero en el caso de las variables V.A. continuas, al tener un recorrido infinito, los valores que puede tomar la variable no son contables. Así, en lugar de trabajar con la función de probabilidad se trabaja con una función f(x) definida para todos los valores de la variable. A esa función se la denomina “FUNCIÓN DE DENSIDAD”.

3.2 Características de la función de densidad a) f(x) ≥ 0 ∞

b)

∫ f ( x)dx = 1

(condición de cierre)

−∞

2

c) Si X es una variable aleatoria continua, entonces la probabilidad de que X toma cualquier valor particular es cero, mientras que la probabilidad de intervalo de que X se encuentre entre dos valores diferentes a y b, donde a < b, está dado por: b

P(a ≤ x ≥ b) = ∫ f ( x)dx a

3.3 Función de Distribución Acumulada Al igual que en el caso de V.A. discretas, representa la probabilidad de que la variable aleatoria X tome valores menores o iguales a un valor de x, y se expresa como: x

F ( x) = P ( X ≤ x) =

∫ f (u )du

∀x ⊂ R

−∞

4. ESPERANZA MATEMÁTICA DE VARIABLES ALEATORIAS 4.1 Esperanza Matemática para Variables Aleatorias Discretas Se define como “esperanza matemática” al operador E(). De esta manera, aplicar la esperanza matemática a la variable aleatoria X, implica realizar la siguiente operación: E( X ) =

∑ xi * fi

n Pero en el caso que trabajemos con el concepto de variable aleatoria y su función de distribución de probabilidades, entonces el operador de esperanza matemática es:

E ( X ) = ∑ xi p( x) =m1( x ) 4.2 Esperanza matemática de Variables aleatorias Continuas Sea la variable aleatoria X continua, cuya función de densidad es f (x) , entonces la esperanza matemática de la variable aleatoria es: ∞

E(X)= m x =

∫ xf ( x)dx

−∞

4.3 Propiedades de la Esperanza Matemática: a)

E(a)= a, donde a = constante.

b)

E(aX)= aE(X), donde a = constante y X es una V.A.

Demostración: ∑ (axi) fi = a ∑ xifi = am E (ax) = 1( x ) n n c)

E(X+Y)= E(X) + E(Y), donde X e Y son V.A.

Demostración:

3

E ( x + y) =

∑ ( x + y) = ∑ x + ∑ y = m

d)

1( x ) + m1( y ) n n E(X-Y)= E(X) – E(Y), Donde X e Y son V.A.

e)

E(aX+bY)= aE(X) + bE(Y), donde X e Y son V.A. y a, b = constantes

5. VARIANZA DE VARIABLES ALEATORIAS 5.1 Varianza de Variables Aleatorias Discretas Se define como Varianza al operador V() o σ 2 . Al aplicar el operador varianza a una variable aleatoria, supongamos X, entonces la varianza, tal como ya se ha visto en unidades anteriores, surge de aplicar la siguiente operación: ∞

σ x2 =

∑ (x

i = −∞

i

− m x ) 2 fi n

=



∑ (x

i = −∞

i

− m x ) 2 p ( xi ) = m2 x − m12x

Pero en el caso que trabajemos con el concepto de variable aleatoria y su función de distribución de probabilidades, entonces el operador de varianza es:

σ x2 =



∑ (x

i = −∞

i

− m x ) 2 p ( xi ) = m2 x − m12x

σ x2 = m2 − m12 = E ( x 2 ) − [E ( x) 2 ] x

x

o alternativamente:

[

]

  σ = E ( x ) − E ( x ) = ∑ x * P ( X = x i ) − ∑ x i * P ( X = x i )    2 x

2

2

2

2 i

5.2 Varianza de Variables Aleatorias Continuas Sea la variable aleatoria X continua, cuya función de densidad es f (x) , entonces la esperanza matemática de la variable aleatoria es: ∞

σ = ∫ ( x − µ x ) 2 f ( x)dx 2 x

−∞

O alternativamente como:

σ x2 =





−∞

−∞

2 2 2 ∫ x f ( x)dx − ( ∫ x f ( x)dx) = m2 − m1

4

5.3 Propiedades de la Varianza: a)

V(a) = 0, donde a =constante.

b)

V(a X) = σ (2ax ) = a 2σ x2 donde a =constante y X una V.A.

Demostración: ∞

σ

2 ( ax )

= E[(ax) ] − [ E (ax)] = 2

2

∑ (ax ) i

i = −∞

n



2

fi −(

∑ (ax ) fi i

i = −∞



a ) = 2

n

2

∑ (x ) i

i = −∞



2

fi

n

−(

a ∑ ( xi ) fi i = −∞

n

)2 =

a 2 m2 x − (am1x ) 2 = a 2 m2 x − a 2 m12x = a 2 (m2 x − m12x ) = a 2σ x2

c)

+

σ 2 + = σ x2 + σ y2 2Cov( x; y ) (forma general) ( x y) −



Demostración 1 : σ (2x + y ) :

σ (2x + y ) = E[( x + y ) 2 ] − [ E ( x + y )]2 = E[( x 2 + 2 xy + y 2 )] − [ E ( x) + E ( y )] 2 = E ( x 2 ) + 2 E ( xy ) + E ( y 2 )] − [ E ( x) + E ( y )] 2 = m2 ( x ) + 2m1( xy ) + m2( y ) − [m1( x ) + m1( y ) ]2 m2( x ) + 2m1( xy ) + m2( y ) − [m12( x ) + 2m1( x ) m1( y ) + m12( y ) ] = Reordenando tenemos que:

σ (2x + y ) = (m2( x ) − m12( x ) ) + (m2( y ) − m12( y ) ) + 2(m xy − m x m y ) Como : Cov( xy ) = E ( xy ) − E ( x) E ( y ) = m xy − m x m y

σ x2 = (m2( x ) − m12( x ) ) σ y2 = (m2( y ) − m12( y ) ) Entonces: σ (2x + y ) = σ x2 + σ y2 + 2Cov( x; y )

Demostración 2 : σ (2x − y )

σ (2x − y ) = E[( x − y ) 2 ] − [ E ( x − y )]2 = E[( x 2 − 2 xy + y 2 )] − [ E ( x) − E ( y )] 2 = E ( x 2 ) − 2 E ( xy ) + E ( y 2 )] − [ E ( x) − E ( y )] 2 = m2( x ) − 2m1( xy ) + m2( y ) − [m1( x ) − m1( y ) ] 2 m2( x ) − 2m1( xy ) + m2( y ) − [m12( x ) − 2m1( x ) m1( y ) + m12( y ) ] = Reordenando tenemos que: (m2( x ) − m12( x ) ) + (m2 ( y ) − m12( y ) ) − 2(m xy − m x m y )

5

Como: Cov( xy ) = E ( xy ) − E ( x) E ( y ) = m xy − m x m y Cov( xy ) = E ( xy ) − E ( x) E ( y ) = m xy − m x m y

σ x2 = (m2( x ) − m12( x ) ) σ y2 = (m2( y ) − m12( y ) ) Entonces: σ (2x − y ) = σ x2 + σ y2 − 2Cov( x; y ) Ahora bien, la propiedad (c ) de la varianza, puede modificarse si las variables aleatorias X e Y son independientes (condición particular): Si X e Y son independientes, entonces Cov(x, y) =0, entonces la propiedad (c ) queda como2: d)

σ (2x + y ) = σ x2 + σ y2 , si X e Y son V.A. independientes.

e)

σ (2x − y ) = σ x2 + σ y2 , si X e Y son V.A. independientes.

6. VARIABLE ALEATORIA MULTIDIMENSIONAL A veces puede interesar analizar dos o más características de un experimento aleatorio al mismo tiempo. En este caso llamamos a la variable aleatoria como MULTIDIMENSIONAL. En el caso de VA multidimensionales, si analizamos, por ejemplo, dos características, entonces llamamos a la variable aleatoria BIDIMENSIONAL. En éstas, tendremos dos V.A., X e Y que definen un experimento E. Las propiedades que cumplen cada una de estas V.A. son específicas en términos de sus propias funciones de f(x), f(y) y F(x) y F(y). Sin embargo, existen algunas propiedades que no son determinadas por cada V.A. por separado, como por ejemplo, la “función de distribución conjunta” F(x,y).

6.1 Función de Distribución Conjunta Acumulada F(x;y) Esta función está definida para todos los valores de x e y. Permite calcular la probabilidad de que la variable X tome los valores menores e iguales a un valor “x” determinado y que la variable Y toma valores menores o iguales a un valor “y” determinado.

6.2 V.A. conjuntamente discretas: F ( x, y ) = P ( X ≤ x ∩ Y ≤ y ) =

y

x

∑ ∑ P( X , Y )

i = −∞ j = −∞

Ley de cierre: 1= F ( x, y ) =





j

∑ ∑ P ( x, y ) = 1

x = −∞ y = −∞

2

i

∀X i ≤ x y YJ ≤ y ∀X i ≤ x y YJ ≤ y

Ello puede demostrarse fácilmente si en las demostraciones 1 y 2 del acápite anterior, se igualan las covarianzas a cero (por ser X e Y dos V.A. independientes). 6

6.3 Función de Probabilidad Marginal De la función de distribución conjunta pueden obtenerse las funciones de distribución individuales, tanto de X como de Y, las que llamaremos Funciones de probabilidades marginales.

P( x) = P ( X = x) =



∑ P ( x, y )

y = −∞

P ( y ) = P (Y = y ) =



∑ P ( x, y )

x = −∞

¿Que representa? Supongamos el siguiente ejemplo3: Se analizaron las longitudes y los anchos de la bandeja de plástico rectangular para un CD que está instalada en una computadora personal. Las mediciones se redondearon al milímetro más cercano. Sea X la longitud e Y el ancho. Los valores posibles de X son 129, 130, 131 y los valores posibles para Y son 15 y 16. Hay seis valores posibles para el par ordenado (X,Y): (129,15); (129,16); (130,15); (130;16); (131,15); (131,16). Supongamos que se hicieron 12 observaciones las cuales arrojaron la siguiente tabla de frecuencias:

(X;Y)

Frecuencia

Frecuencia Relativa (Probabilidad)

129,15 129,16 130,15 130,16 131,15 131,16

2 4 3 2 0 1

0,17 0,33 0,25 0,17 0,00 0,08

Otra forma de presentar los datos es mediante una tabla de doble entrada, la que denominamos “Tabla de Contingencia”

Tabla de Contingencia para las frecuencias

3

X/Y

15

16

Suma x

129 130 131 Suma y

2 3 0 5

4 2 1 7

6 5 1 12

Extraído de Navidi Williams (2006).

7

Tabla de Contingencia para las probabilidades (frecuencias relativas) X/Y 129 130 131 P(y)

15 0,17 0,25 0,00 0,42

16 0,33 0,17 0,08 0,58

P(x) 0,50 0,42 0,08

Como vemos, la probabilidad conjunta de P(X=129 y Y=16) = 0,33 También podemos averiguar, por ejemplo P(X=129) o alternativamente P(Y=15), que son justamente las probabilidades marginales definidas anteriormente: Para el primer caso tenemos que: P(X=129) = P(X=129;Y=15)+P(X=129 y Y=16)=0,17+0,33=0,5. (4) Para el segundo caso tenemos: P(Y=15)=P(X=129 y Y=15)+P(X=130 y Y=15)+P(X=131 y Y=15)=0,17+0,25+0=0,42 .(5)

6.4 V.A. conjuntamente continuas: b d

F ( x, y ) = P(a ≤ X ≤ b ∩ c ≤ Y ≤ d ) = ∫ ∫ f ( x, y )dxdy

∀a < b y c < d

a c ∞ ∞

Ley de cierre para la función de densidad conjunta:

∫ ∫ f ( x, y)dxdy = 1

− ∞− ∞

Las respectivas funciones de densidad de probabilidad marginal de X e Y son: f ( x) = f ( y) =



∫ f ( x; y)dy

−∞ ∞

∫ f ( x; y )dx

−∞

4

Como vemos, esta relación puede representarse analíticamente mediante la expresión:

P( x) = P ( X = x) =



∑ P( x, y ) , de modo que para este ejemplo nos queda:

y = −∞

P(129) = P( X = 129) =



∑ P(129, y ) = P(129,15) + P(129,16) = 0,17 + 0,33 = 0,5

y = −∞

5

Relación que puede representarse analíticamente mediante:

P( y ) = P(Y = y ) = ∑ P( x, y ) , de modo que para este ejemplo nos queda: x

P(Y=15)=P(X=129 y Y=15)+P(X=130 y Y=15)+P(X=131 y Y=15)=0,17+0,25+0=0,42

Py (15) = P(Y = 15) = ∑ P(129;15) = P(130;15) + P(131;15) = 0,17 + 0,25 + 0 =0,42 x

8

6.5 Covarianza El concepto de covarianza que se analizó en la unidad anterior fue el siguiente:

∑ [( x n

Cov( xy ) =

i =1

i

− m x )( y i − m y )

]

. n Si operamos algebraicamente (aplicamos propiedad distributiva para las variables, distribuimos sumas y el n para cada término, despejamos constantes y reemplazamos los conceptos obtenidos en las definiciones de momentos, tenemos:

∑ [( x n

Cov( xy ) =

∑ [x y n

i

i =1

i

i =1

i

− m x )( yi − m y ) n

− xi m y − y i m x + m x m y

]

n n

∑ xi y i i =1

n

n



∑ xi m y i =1

n

n

∑ xi y i i =1

n m x; y

]

n



∑ yi m x i =1

n

n

− my

∑ xi i =1

=

= n

+

∑m m i =1

x

n

n

− mx

∑ yi i =1

y

=

n

+ mx m y

n n − m y mx − mx m y + mx m y =

∑1 i =1

n

=

m xy − m x m y = E ( xy ) − E ( x) E ( y ) O alternativamente

∑ [( x n

Cov( xy ) =

i =1

i

− m x )( yi − m y ) n n

E ( xy ) − E ( x) E ( y ) =

∑ xi y i i =1

n

]

= m xy − m x m y = E ( xy ) − E ( x) E ( y ) =

n  n  ∑ xi ∑ y i −  i =1 * i =1  n n  

     

Ahora bien, cuando trabajamos con variables aleatorias (continuas o discretas) el concepto de esperanza cambia, o mas bien, debemos utilizar las funciones de distribución de probabilidades o de densidad de las variables, de modo que:

a) Para el caso de variables aleatorias discretas, la covarianza queda representada como:      Cov( xy ) = E ( xy ) − E ( x) E ( y ) = ∑∑ x y f ( x; y ) * −∑ x f ( x) * ∑ y f ( y )   x x y   y   b) Para el caso de variables aleatorias Continuas, tenemos: ∞ ∞  ∞  ∞   Cov( xy ) = E ( xy ) − E ( x) E ( y ) = ∫ ∫ x y * f ( x; y ) * dxdy −  ∫ xf ( x)dx  *  ∫ yf ( y )dy  − ∞− ∞   −∞   −∞ 9

6.6 Propiedades de la Covarianza: a) Cov(a;b)= 0, para a y b constantes. Si X e Y son independientes: b) Cov(X;b)= 0, donde b es una constante.

c) Cov(X;Y)= 0, si Si X e Y son variables aleatorias independientes. Demostración: Cov( xy ) = E ( xy ) − E ( x) E ( y ) Si X e Y son Independientes, entonces E (xy ) = E ( x) * E ( y ) 6 Si sustituimos dicho resultado en la fórmula de covarianza, nos queda: Cov( xy ) = E ( x) * E ( y ) − E ( x) * E ( y ) = 0 d) Cov(a+X; c+Y)= Cov(X;Y) , para a y c constantes

e) Cov(bX; dY)= bdCov(X;Y), para b y d constantes Las propiedades b) y c) pueden resumirse en: f) Cov(a+bX ; c+dY)= bd*Cov(X;Y) para a, b, c y d constantes

6

Si

E ( xy ) = ∑∑ xyf ( x; y ) , debe recordarse que f ( x; y ) no es mas que la probabilidad conjunta, es

decir, la probabilidad de que ocurra el evento x e y al mismo tiempo. Entonces:

f ( x; y ) = P ( X = x ∧ Y = y )

Por las propiedades de probabilidad, se ha visto que si X e Y son independientes, entonces son independientes los valores particulares que tomen las respectivas variables (x y y). Así, si x es n evento e y otro, tenemos: f ( x; y ) = P ( X = x ∧ Y = y ) = P ( X = x) * P (Y = y ) . Si sustituimos esto en la relación inicial, tenemos que

E ( xy ) = ∑∑ xyf ( x; y ) = ∑∑ xyP ( X = x ∧ Y = y ) = x

y

x

y

∑∑ xyP( X = x) * P(Y = y) = ∑ [xP( X = x)]* ∑ [ y * P(Y = y)] = ∑ xf ( x)∑ yf ( y ) ⇒ x

y

x

y

x

y

E ( xy ) = ∑ xf ( x)∑ yf ( y ) = m x m y x

y

10

7. MOMENTOS DE UNA VARIABLE ALEATORIA 4.1 Momentos Absolutos Se define como momento absoluto de orden k de la V.A. X a la esperanza matemática de la potencia k-ésima de la variable aleatoria. Se define al operador esperanza matemática E(), donde E(X) = visto en la unidad correspondiente a Estadística Descriptiva:

∑ xP(x) o tal como se ha

∑ xi * fi n

Si la V.A. es discreta, entonces:

mk = E ( X k ) = ∑ x k P( x) De ello puede deducirse que:

m0 = E ( X 0 ) = ∑ x i P ( xi ) = 1 0

m1 = E ( X 1 ) = ∑ xi P( xi ) = m (media aritmética) 1

m 2 = E ( X 2 ) = ∑ xi P ( xi ) 2

Si la V.A. es continua, entonces:

mk = E ( X k ) =



∫x

k

f ( x)dx

−∞

4.2 Momentos Centrados Se llama momento centrado de orden k de la V.A. X a la esperanza matemática de la potencia k-ésima de los desvíos de la variable aleatoria respecto de su media. Si la V.A. es discreta, entonces: mc k = [ E ( x − m) ] = ∑i =1 ( xi − m) n

x

k

∑ P( x ) =

n i =1

i

( xi − m) k fi n

Entonces; mc0 = E[( x − m) 0 ] = ∑ ( xi − m) 0 P ( xi ) = 1 mc1 = E[( x − m)] = ∑ ( xi − m) P ( xi ) = 0 mc 2 = E[( x − m) ] = ∑ ( x − m) 2

2

∑ ( x − m) P( x) = n

2

fi

= σ x2

Si la variable aleatoria es continua, entonces: mc k = E[( x − m) ] = k



∫ ( x − m)

k

f ( x)dx

−∞

A su vez, es posible expresar los momentos centrados en momentos absolutos de las variables realizando algunas operaciones elementales. Por ejemplo, partiendo del momento centrado de orden 2, que representa también la varianza de la variable X tenemos lo siguiente:

11

∑ (x =

mc 2

i

− m) 2 fi

= σ x2

n Descomponiendo el binomio cuadrado tenemos:

mc 2

∑ =



i = −∞

( xi − m) 2 fi n

∑ =



i = −∞

( xi − 2 xi m + m 2 ) fi 2

n

= σ x2

Aplicando distributiva y reordenando la sumatoria tenemos: ∞



mc 2 = σ = 2 x

∑i=−∞ ( xi ) fi



2

n



∑i =−∞ (2 xi m) fi n

+

∑m

2

fi

i = −∞

n

Descomponiendo cada término tenemos que:





2

( xi ) fi

= m2 ; n ∞ ∑i =−∞ (2 xi m) fi = 2m ∑i xi fi = 2m 2 = 2m 2 1 n n i = −∞



∑m

2

fi = m 2 = m12

i = −∞

n

De manera que: mc 2 = σ x2 = m2 − 2m12 + m12 = m2 − m12 Visto de otra forma, la varianza puede expresarse como la diferencia entre el momento absoluto de orden dos y el cuadrado del momento absoluto de orden uno, tal como se expresa a continuación: ∞

mc 2 = σ

2 x

= m 2 − m = E ( x ) − [ E ( x )] = 2 1

2

2

∑ ( x i2 ) fi

i = −∞

n



−(

∑x

i = −∞

n

i

fi )2

Generalizando y aquí se obviarán los pasos elementales tenemos que: mc3 = m3 − 3m1 m 2 + 2m13

mc 4 = m 4 − 4 m 1 m 3 + 6 m 12 m 2 − 3 m 14 Recordemos que los momentos centrados de orden tres y cuatro nos sirven para calcular la asimetría y curtosis que presenta una distribución, donde: As=

K=

mc3 (mc 2 ) mc 4

(mc 2 )

4 2

3 2

(Asimetría) y

-3 (Kurtosis)

12