if you want to remove an article from website contact us from top.

    muestran la variabilidad de un conjunto de datos, indicando la mayor o menor concentración de datos respecto a las medias de centralización.

    Santiago

    Chicos, ¿alguien sabe la respuesta?

    obtenga muestran la variabilidad de un conjunto de datos, indicando la mayor o menor concentración de datos respecto a las medias de centralización. de este sitio.

    Probabilidad y Estadistica

    Contenido en linea, acerca del diseño experimental

    Probabilidad y Estadística

    Docente: Henry Mendoza Rivera

    Inicio Legal Contenido Recursos Bibliografía

    Cómo citar el material

    Índice

    Capítulo 1 : ESTADÍSTICA DESCRIPTIVA

    Medidas de variabilidad

    Medidas de variabilidad - introducción

    Una medida de dispersión o variabilidad nos determina el grado de acercamiento o distanciamiento de los valores de una distribución frente a su promedio de localización, sobre la base de que entre más grande sea el grado de variación menor uniformidad tendrán los datos (sinónimo de heterogeneidad) y por lo tanto menor representatividad o confiabilidad del promedio de tendencia central o localización por haber sido obtenido de datos dispersos. Por el contrario, si este valor es pequeño (respecto a la unidad de medida) entonces hay una gran uniformidad entre los datos. Cuando es cero quiere decir que todos los datos son iguales.

    Hay básicamente dos tipos de medidas de dispersión: Medidas Absolutas y Medidas Relativas. Las absolutas se caracterizan por ser números concretos, es decir, valores expresados en las mismas unidades de la variable en estudio y que por lo tanto no permiten comparaciones o análisis respecto a la mayor o menor dispersión de series expresadas en diferentes unidades. Estas medidas son: la varianza, la desviación estándar y el rango intercuartilico.

    Las medidas relativas de dispersión son valores abstractos, es decir, medidas adimensionales y por lo tanto no expresadas en ninguna unidad especifica, obviando así el inconveniente señalado para las medidas absolutas. La principal medida es el coeficiente de variación.

    Universidad Nacional de Colombia

    Carrera 30 No 45-03 - Edificio 477

    Bogotá D.C. - Colombia

    Aviso Legal - Copyright

    fuente : red.unal.edu.co

    Medidas de dispersión

    Medidas de dispersión

    Ir a la navegación Ir a la búsqueda

    Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.

    Este aviso fue puesto el 15 de enero de 2014.

    Ejemplo de muestras de dos poblaciones con la misma media pero diferente dispersión media. La población azul está mucho más dispersa que la población roja.

    En estadística, las medidas de dispersión (también llamadas variabilidad, dispersión o propagación) es el grado en que una distribución se estira o se comprime.1​ Ejemplos comunes de medidas de dispersión estadística son la varianza, la desviación estándar y el rango intercuartil.

    Las medidas de dispersión se contrastan con la ubicación o la tendencia central, y juntas son las propiedades más utilizadas de las distribuciones.

    Índice

    1 Medidas 2 Fuentes

    3 Un orden parcial de dispersión

    4 Véase también 5 Referencias 6 Enlaces externos

    Medidas[editar]

    Una medida de dispersión estadística es un número real no negativo que es cero si todos los datos son iguales y aumenta a medida que los datos se vuelven más diversos.

    La mayoría de las medidas de dispersión tienen las mismas unidades que la cantidad que se mide. En otras palabras, si las medidas están en metros o segundos, también lo es la medida de dispersión. Los ejemplos de medidas de dispersión incluyen:

    Desviación Estándar

    Rango intercuartil (IQR)

    Rango

    Diferencia absoluta media (también conocida como diferencia absoluta media de Gini)

    Mediana desviación absoluta (MDA)

    Desviación media absoluta (o simplemente llamada desviación media)

    Desviación estándar de distancia

    Estos se usan con frecuencia (junto con factores de escala) como estimadores de parámetros de escala, en cuya capacidad se denominan estimaciones de escala. Las medidas de escala robustas no se ven afectadas por un pequeño número de valores atípicos, e incluyen el IQR y el MAD.

    Todas las medidas anteriores de dispersión estadística tienen la propiedad útil de que son invariantes de ubicación y de escala lineal. Esto significa que si una variable aleatoria X tiene una dispersión de SX, entonces una transformación lineal Y = aX + b para real a y b debería tener una dispersión SY = | a | SX, donde | a | es el valor absoluto de a, es decir, ignora un signo negativo anterior -.

    Otras medidas de dispersión son adimensionales. En otras palabras, no tienen unidades, incluso si la variable en sí tiene unidades. Éstos incluyen:

    Coeficiente de variación

    Coeficiente de dispersión cuartil

    Diferencia media relativa, igual al doble del Coeficiente de Gini

    Entropía: mientras que la entropía de una variable discreta es invariante de ubicación e independiente de la escala, y por lo tanto no es una medida de dispersión en el sentido anterior, la entropía de una variable continua es invariante de ubicación y escala aditiva: si Hz es la entropía de variable continua z e y = ax + b, luego Hy = Hx + log (a).

    Existen otras medidas de dispersión:

    Varianza (el cuadrado de la desviación estándar): invariante de ubicación pero no lineal en escala.

    Relación de varianza a media: se utiliza principalmente para los datos de conteo cuando se usa el término coeficiente de dispersión y cuando esta relación no tiene dimensiones, ya que los datos de conteo son adimensionales, de lo contrario.

    Algunas medidas de dispersión tienen fines especializados, entre ellos la varianza de Allan y la varianza de Hadamard.

    Para las variables categóricas, es menos común medir la dispersión por un solo número; ver variación cualitativa. Una medida que lo hace es la entropía discreta.

    Fuentes[editar]

    En las ciencias físicas, dicha variabilidad puede ser el resultado de errores de medición aleatorios: las mediciones de instrumentos a menudo no son perfectamente precisas, es decir, reproducibles, y existe una variabilidad adicional entre los evaluadores al interpretar e informar los resultados medidos. Se puede suponer que la cantidad que se está midiendo es estable y que la variación entre las mediciones se debe a un error de observación. Un sistema de un gran número de partículas se caracteriza por los valores medios de un número relativamente pequeño de cantidades macroscópicas, como la temperatura, la energía y la densidad. La desviación estándar es una medida importante en la teoría de la fluctuación, que explica muchos fenómenos físicos, incluido por qué el cielo es azul.2​

    En las ciencias biológicas, la cantidad que se mide rara vez es inmutable y estable, y la variación observada también puede ser intrínseca al fenómeno: puede deberse a la variabilidad interindividual, es decir, miembros distintos de una población que difieren entre sí. Además, puede deberse a la variabilidad intraindividual, es decir, un mismo sujeto que difiere en las pruebas tomadas en diferentes momentos o en otras condiciones diferentes. Tales tipos de variabilidad también se ven en el campo de los productos manufacturados; incluso allí, el científico meticuloso encuentra variación.

    En economía, finanzas y otras disciplinas, el análisis de regresión intenta explicar la dispersión de una variable dependiente, generalmente medida por su varianza, utilizando una o más variables independientes, cada una de las cuales tiene dispersión positiva. La fracción de varianza explicada se llama coeficiente de determinación.

    fuente : es.wikipedia.org

    Medidas de dispersión

    Medidas de dispersión

    7 comentarios / Descriptiva / Por Bernat Requena Serra

    (10 votos, promedio: 3,50 de 5)

    Cargando... ANUNCIOS

    Las medidas de dispersión o medidas de variabilidad muestran la variabilidad de un conjunto de datos, indicando la mayor o menor concentración de datos respecto a las medias de centralización.

    Rango

    El rango (R) o recorrido estadístico es la diferencia entre el valor máximo y el mínimo de un conjunto de elementos.

    Rango intercuartílico

    El rango intercuartílico (IQR) (o rango intercuartil) es una estimación estadística de la dispersión de una distribución de datos. Consiste en la diferencia entre el tercer y el primer cuartil. Mediante esta medida se eliminan los valores extremadamente alejados. El rango intercuartílico es altamente recomendable cuando la medida de tendencia central utilizada es la mediana (ya que este estadístico es insensible a posibles irregularidades en los extremos).

    En una distribución, encontramos la mitad de los datos, el 50 %, ubicados dentro del rango intercuartílico.

    Conforme aumente el IQR, indicará que la dispersión será mayor.

    Con el IQR podremos elaborar los diagramas de caja, que es un instrumento muy visual para evaluar la dispersión de una distribución.

    Varianza

    ANUNCIOS

    La varianza (S2) mide la dispersión de los datos de una muestra respecto a la media, calculando la media de los cuadrados de las distancias de todos los datos.

    Al elevar las diferencias al cuadrado se garantiza que las diferencias absolutas respecto a la media no se anulan entre si. Además, resaltan los valores alejados.

    Siempre se cumple que la varianza es mayor o igual que cero (SX2 ≥ 0). La varianza es cero cuando todos los datos son el mismo (ejemplo: {1,1,1,1,1}).

    Para datos agrupados, la fórmula de la varianza muestral será:

    Si en vez de tratarse de una muestra, la varianza se refiere a la población, el denominador será N.

    La fórmula de la varianza poblacional, de símbolo σ², es:

    La razón de las dos expresiones de la varianza es que de una población se pueden extraer diversas muestras. No tiene por qué coincidir sus varianzas con la varianza de la población, ni siquiera las varianzas muestrales entre sí. Normalmente, en la varianza muestral, dividiendo por N se obtendrían varianzas ligeramente menores. Por eso, se corrige, dividiendo por N – 1. A esta varianza muestral corregida, SX2, se le denomina también cuasivarianza. Reduce el sesgo, (se le llama estadístico insesgado).

    Cuanto mayor sea N menor será la diferencia entre el resultado de la fórmula SX2 y la de σ2.

    Un inconveniente de la varianza es que sus unidades son las unidades de los datos al cuadrado.

    Desviación típica

    La desviación típica es la medida de dispersión (S) asociada a la media. Mide el promedio de las desviaciones de los datos respecto a la media en las mismas unidades de los datos.

    El cuadrado de la desviación típica es la Varianza.

    Desviación media

    La desviación media es la media de los valores absolutos de la diferencia de cada valor de la distribución con la media aritmética.

    Su fórmula es:

    Cuando los datos están agrupados en frecuencias:

    La desviación media es igual o menor que la desviación estándar:

    No confundir la desviación media con la desviación absoluta de un dato respecto a la media:

    Coeficiente de variación de Pearson

    El coeficiente de variación de Pearson (r) mide la variación de los datos respecto a la media, sin tener en cuenta las unidades en la que están.

    El coeficiente de variación, en la mayoría de los casos, salvo en algunas distribuciones probabilísticas, toma valores entre 0 y 1. Si el coeficiente es próximo al 0, significa que existe poca variabilidad en los datos y es una muestra muy compacta. En cambio, si tienden a 1 es una muestra muy dispersa y la media pierde confiabilidad. De hecho, cuando el coeficiente de variación supera el 30% (0,3) se dice que la media es poco representativa, al ser los datos poco homogéneos.

    Para interpretar fácilmente el coeficiente, podemos multiplicarlo por cien para tenerlo en tanto por cien.

    fuente : www.universoformulas.com

    ¿Quieres ver la respuesta o más?
    Santiago 12 day ago
    4

    Chicos, ¿alguien sabe la respuesta?

    haga clic para responder