jueves, 7 de octubre de 2010

LICENCIATURA. MEDIDAS DE POSICIÓN Y DISPERSIÓN

2. MEDIDAS DE POSICIÓN

A. CUARTILES

Los cuartiles se definen como medidas de tendencia central o de posición relativa, porque determina la concentración y la posición de ciertos valores que en relación con el resto de la distribución, a la que dividen en cuatro partes iguales y le corresponde a cada una el 25% de los casos.

La distribución tiene 4 cuartiles, pero únicamente se calculan el primero, el segundo y el tercero. El cuarto es innecesario su cálculo, porque al final de la distribución se le localiza.

Los cuartiles son necesarios para calcular la distribución cuartil y cuando se requiere dividir la serie de datos en cuatro partes iguales, para analizar con mayor detalle el comportamiento de la tendencia central en las cuatro posiciones. Estos se calculan con el mismo procedimiento de la mediana.

Son los valores que dividen a los datos en 4 partes iguales. Estos valores representados por Q1, Q2 y Q3; se llaman primero, segundo y tercer cuartil.




L = Límite inferior del intervalo en donde se encuentra el cuartel buscado
N = Total de casos
fai = Frecuencia acumulada anterior al intervalo en donde se encuentra el cuartel buscado
f = Frecuencia del intervalo en donde se encuentra el cuartel buscado
i = Amplitud del intervalo


El rango intercuartil: Es la diferencia entre el tercer cuartil y el primero








El rango semi – intercuartílico o desviación cuartil: es la mitad del rango intercuartílico ( Qd )







A. DECILES

Los deciles se definen más como medidas de posición relativa que de tendencia central, porque determinan a la concentración y posición de ciertos valores en relación con el resto de la distribución, a la que dividen en 10 partes iguales y le corresponde a cada una el 10% de los casos.
La distribución tiene diez deciles, pero únicamente se calculan desde el primero hasta el noveno, el décimo es innecesario su cálculo, porque al final de la distribución se localiza.

Los deciles son útiles cuando se requiere dividir la serie de datos en 10 partes iguales, lo que permite analizar con mayor detalle el comportamiento de la tendencia central en las diez posiciones.

Decil 1
Decil 5
Decil 7






C. PERCENTILES

Los percentiles se definen más como medidas de posición relativa que de tendencia central, porque determinan la posición de ciertos valores en relación con el resto de la distribución, a la que dividen en 100 partes iguales y le corresponde a cada una el 1% de los casos.

La distribución tiene 100 percentiles, pero únicamente se calculan desde el primero hasta el 99, el 100 es innecesario su cálculo, porque al final de la distribución se le localiza.

Los percentiles se calculan con el mismo procedimiento de la mediana, de los cuartiles y de los deciles. Los percentiles son útiles cuando se requiere proporcionarle mayor significación a los valores individuales.

Para datos agrupados en intervalos.

El porcentil p de una distribución de frecuencias agrupadas en intervalos, es el valor que tiene el p por ciento de los elementos u observaciones tienen un valor inferior a ese valor.
Por ejemplo el primer porcentil que deja por debajo de él el uno por ciento de los casos y por encima el 99% ; el 17% porcentil, que deja por debajo el 17% de los casos y por encima el 83%.




Cálculo de los percentiles de distribuciones agrupadas en intervalos

L = Es el límite inferior del intervalo en donde se encuentra el percentil buscado
y = percentil buscado
N = Total de casos o suma de las frecuencias
fai = Frecuencia acumulada anterior al intervalo en donde se encuentra el percentil buscado
f = Frecuencia del intervalo en donde se encuentra el percentil buscado
ii = Amplitud del intervalo


1. MEDIDAS DE DISPERSIÓN O DE VARIABILIDAD

Si la tendencia central es la característica que tienen los fenómenos colectivos de agruparse en un punto de la escala. La variabilidad es la forma en que esos mismos fenómenos se dispersan desde ese punto central hacia otros de la escala.

En Estadística a esa orientación o forma se le denomina con cualquiera de los tres términos sinónimos: desviación, variabilidad o dispersión.

Así como se establecen medidas para determinar un punto en la escala, las de desviación establecen una distancia, que generalmente se mide desde ese punto hacia otro de la escala.

La variabilidad está íntimamente relacionada con la tendencia central y ambas constituyen las características estadísticas esenciales de grandes masas de datos, por eso no pueden darse independientemente una de la otra.

En resumen la variabilidad es la tendencia de los elementos de un conjunto a dispersarse alrededor del valor central.

La medida de dispersión o de variabilidad es un solo número que representa el desarrollo de la dispersión en un conjunto de datos.

A. Rango o amplitud.

Mide la extensión total de un conjunto de datos y lo vamos a calcular utilizando únicamente dos números, al determinar la diferencia entre el dato mayor y menor del conjunto.

Explicado de otra manera: para lograr una medida de dispersión rápida, pero aproximada, podríamos buscar lo que se conoce como el rango ®, o sea la diferencia entre le puntaje el más alto y el más bajo de la distribución: Rango: medición más grande–medición más pequeña

B. DESVIACIÓN

Es la distancia entre cualquier porcentaje no procesado y su media, también podemos decir que la desviación de un dato es la diferencia entre él y la media aritmética del grupo o de la distribución de la cual se extrae.

B.1. Desviación media

La desviación media se define como la media de las desviaciones desde la media, porque la variabilidad se establece partiendo de la media, aunque desde el punto de vista teórico el promedio más adecuado es la mediana.

Al comparar la diferencia de la desviación media obtenida de la media y de la mediana, es relativamente insignificante.
El enunciado de que la desviación media es la media de las desviaciones desde la media, es fácil de comprobar al sumar las desviaciones positivas desde la media es igual a la suma de las desviaciones negativas desde esa misma media.
B.1.1. En una serie de datos simples.

La desviación media llamada también desviación promedio, es la suma de las desviaciones absolutas de las observaciones desde su media aritmética, dividida entre el número de observaciones o es el promedio de las distancias entre los datos y la media.

Para determinar la desviación media es preciso tomarlas en magnitud, es decir, en valor absoluto, sin tener en cuenta los signos, porque la suma algebraica de estas desviaciones es nula.






B.1.2. En una serie de datos agrupados en una distribución de frecuencias simples






B.1.3. Para datos agrupados en intervalos.

Cuando los datos están agrupados en intervalos utilizaremos la fórmula anterior, pero en ella las desviaciones que consideraremos serán las desviaciones con respecto a la media de los puntos medios de los intervalos.

VARIANZA (S²)

Si elevamos al cuadrado las desviaciones, logramos que todas las desviaciones den resultados positivos, luego si sumamos los cuadrados de las desviaciones y las dividimos entre N, obtenemos la varianza que sirve de base para calcular la desviación estándar que es la más importante de todas las medidas de dispersión.
La varianza es la media aritmética de los cuadrados de las desviaciones respecto a la media aritmética.
B.2. DESVIACIÓN ESTÁNDAR O TÍPICA

La desviación estándar se le define como la raíz cuadrada media de las desviaciones desde de la media.

La desviación estándar es considerada como la medida de variabilidad más importante, firme y confiable, sus cálculos aritméticos y algebraicos le proporcionan estas características esenciales de una medida estadística.

La desviación estándar, típica o cuadrática media, es la media cuadrática de las desviaciones con respecto al promedio aritmético, también la podemos definir como la raíz cuadrada de la media de las desviaciones de la media de una distribución elevada al cuadrado.
La desviación estándar representa la variabilidad promedio de una distribución, porque mide el promedio de las desviaciones de la media. Debemos tomar en cuenta , que mientras mayor sea la dispersión alrededor de la media en una distribución, mayor será la desviación estándar. Por ejemplo si S = 4.4. nos indica una mayor variabilidad que si S = 2.4




Coeficiente de variabilidad:

El coeficiente de variabilidad o de dispersión se considera como la característica más relevante de una variable aleatoria, porque permite obtener un índice entre la desviación estándar y la media aritmética, para medir la variabilidad de una serie, lo que constituye uno de los objetivos de la Estadística Moderna.

El coeficiente de variabilidad permite eliminar la influencia que proporciona la naturaleza misma de las variables que se estudien y la unidad de la medida utilizada.







CUÁNDO UTILIZAR CADA UNA DE LAS MEDIDAS DE VARIABILIDAD

Es conveniente siempre seleccionar la medida de dispersión o de variabilidad más adecuada, dependiendo de la naturaleza de los datos y los propósitos estadísticos que se determinen.

Extensión: Si el propósito estadístico es únicamente determinar la variabilidad de la serie de un extremo a otro o para establecer controles de fabricación industrial, la medida más adecuada es la extensión.

Desviación cuartil: Si anteriormente la serie ha sido trabajada con base en cuartiles es fácil obtener la desviación cuartil o intercuartil

Además, si la variabilidad que se requiere es que tenga relación con la posición relativa de ciertos valores dentro de la escala, la medida más recomendable es la desviación cuartil.

Desviación media: Si la serie de datos no está agrupada en intervalos de clase y se requiere una medida no muy compleja de variabilidad, lo más recomendable es calcular la desviación media.

Desviación estándar: Si por el contrario, se requiere una medida más compleja, firme y precisa de variabilidad y anteriormente se ha trabajado la serie agrupada en intervalos de clase con la media aritmética, lo más recomendable es calcular la desviación estándar.

Por otra parte, la media aritmética permite obtener el coeficiente de variabilidad con una simple división.

MEDIDAS DE ASIMETRÍA Y CURTOSIS

En las distribuciones que toman la forma de una curva normal, nos interesa muchas veces obtener dos medidas adicionales a las de tendencia central y dispersión. Estas medidas son las de asimetría y curtosis. Antes de estudiar estas medidas, nos detendremos en el concepto y cálculo de los “momentos”, ya que los mismos nos servirán para calcular una medida de asimetría y una de curtosis.

Momentos: El concepto de “momentos” tiene su origen en la mecánica. Hay tres tipos de momentos: los potenciales, los factoriales y los exponenciales. En este caso nos interesaremos únicamente por los potenciales.

El momento de orden k con respecto a un valor A se denomina como la suma de las potencias de grado k de las diferencias de los términos con respecto a A, (X-A). La definición anterior corresponde al momento absoluto; el momento relativo es igual al absoluto dividido entre el número de términos, o sea que es el promedio aritmético de las potencias de grado k de las diferencias de los términos con respecto a A






Momentos centrados

Si tomamos como punto de referencia el promedio aritmético para los momentos relativos (A = X), entonces tendremos los momentos centrados, que los representaremos con la letra griega µ




Cálculo de los coeficientes β y β

Con base en los momentos del segundo al cuarto, calculados con respecto a la media aritmética, podremos calcular dos parámetros que nos serán de utilidad, para calcular las medidas de asimetría y de curtosis.





Medidas de asimetría

Nos interesa conocer en estadística, si una distribución de frecuencias se aleja más o menos de la forma simétrica, para lo cual conocemos que existen tres tipos de curvas, una asimétrica, hacia la derecha (asimetría positiva y otra asimétrica hacia la izquierda (asimetría negativa y la otra normal




Para determinar esto, existen varias medidas:

1) Esta es la más simple. Es la diferencia entre la media aritmética y la moda
2) Es el equivalente de la anterior, cuando la curva es moderadamente aritmética.
3)





Las medidas anteriores son términos absolutos, por lo que para comparar lo haremos en términos relativos, abstractos, dividiendo las dos fórmulas entre las desviación estándar correspondiente, así:







Vemos entonces que si la asimetría es positiva el signo será más y si es negativa, el signo será menos.

Nota: Sk. Viene de la palabra inglesa skewness, que significa asimetría. Una medida que tiene la ventaja de oscilar entre -1 y +1, es:






En la que podemos observar que la simetría resulta de dividir la diferencia de las desviaciones de los cuartiles con respecto a la mediana entre la suma de dichas desviaciones.


Para muchas curvas moderadamente asimétricas, la asimetría según la fórmula:



Se puede calcular también la fórmula basada en los parámetros β y β que ya explicamos,





Curtosis

La curtosis es la agudeza de la curva normal, ésta agudeza puede ser alta, baja o intermedia, dando lugar a diferentes tipos de curvas: leptocúrticas, platicúrticas y mesocúrticas










Para calcular la curtosis se utiliza el parámetro β2. Si el valor de dicho parámetro es 3, se considera que la curva es mesocúrtica, si es mayor que 3, la curva es leptocúrtica y si es menor que 3 la curva es platicúrtica.

Otra media de curtosis que se puede emplear, está basada en los cuartiles y percentiles y está dada por la fórmula:





Donde



Es el rango semiintercuartílico, también se le conoce con el nombre de coeficiente de curtosis percentílico.

No hay comentarios:

Publicar un comentario