En estadística, la desviación típica (también conocida como desviación estándar y desvío típico y representada de manera abreviada por la letra griega minúscula sigma σ o la letra latina s, así como por las siglas SD (de standard deviation, en algunos textos traducidos del inglés)) es una medida que se utiliza para cuantificar la variación o la dispersión de un conjunto de datos numéricos.
Una desviación estándar baja indica que la mayor parte de los datos de una muestra tienden a estar agrupados cerca de su media (también denominada el valor esperado), mientras que una desviación estándar alta indica que los datos se extienden sobre un rango de valores más amplio.
Fórmulas fundamentales
Variable aleatoria discreta:
Expresiones equivalentes:
Variable aleatoria continua:
La desviación estándar de una variable aleatoria, población estadística, conjunto de datos o distribución de probabilidad es la raíz cuadrada de su varianza. Es algebraicamente más simple, aunque en la práctica menos robusta, que la desviación media. Una propiedad útil de la desviación estándar es que, a diferencia de la varianza, se expresa en las mismas unidades que los datos a partir de los que se calcula.
Además de expresar la variabilidad de una población, la desviación estándar se usa comúnmente para medir la fiabilidad de las conclusiones estadísticas. Por ejemplo, el margen de error en los datos de los sondeos de opinión se determina calculando la desviación estándar esperada en los resultados si la misma encuesta se llevara a cabo varias veces. Esta interpretación de la desviación estándar a menudo se denomina "error estándar" de la estimación o "error estándar de la media" (cuando se refiere a una media). Se calcula como la desviación estándar de todas las medias que se calcularían a partir de esa población si se extrajera un número infinito de muestras y se calculase la media para cada muestra.
Es muy importante tener en cuenta que la desviación estándar de una población y el error estándar de una estadística obtenida a partir de esa población (como la media) son bastante diferentes, pero están relacionados (relacionados por la inversa de la raíz cuadrada del número de observaciones). El margen de error de una encuesta se calcula a partir del error estándar de la media (o, alternativamente, del producto de la desviación estándar de la población y la inversa de la raíz cuadrada del tamaño de la muestra, que es lo mismo) y es por lo general, aproximadamente el doble de la desviación estándar: la mitad del ancho de un intervalo de confianza del 95 por ciento.
En ciencia, muchos investigadores analizan la desviación estándar de los datos experimentales, y solo los efectos que se alejan mucho más de dos desviaciones estándar de lo que sería esperable, se consideran estadísticamente significativos: el error aleatorio normal o la variación en las mediciones se distinguen de esta manera de los efectos genuinos o asociaciones probables. En finanzas también es un indicador importante, puesto que la desviación estándar de la tasa de retorno de una inversión da una medida de su volatilidad.
Cuando solo está disponible una muestra de datos de una población, el término desviación estándar de la muestra o desviación estándar muestral, puede referirse a la cantidad mencionada anteriormente aplicada a esos datos, o también a una cantidad sobre la que se realiza un ajuste que sirve de estimación no sesgada de la desviación estándar de la población (es decir, de la desviación estándar de toda la población).
El libro de Murray Logan "Biostatistical Design and Analysis Using R" da el ejemplo siguiente:
Los naturalistas Furness y Bryanttasa metabólica en reposo de 8 petreles reproductivos y de 6 hembras. La tabla muestra el conjunto de datos obtenidos por Furness.
midieron laLa desviación estándar de la muestra de la tasa metabólica para las hembras de petrel se calcula como se explica a continuación. La fórmula para calcular la desviación estándar de la muestra es
donde son los valores observados de los elementos de la muestra, es el valor medio de estas observaciones, y N es el número de observaciones de la muestra.
En la fórmula de la desviación estándar de la muestra, para este ejemplo, el numerador es la suma de las desviaciones al cuadrado de la tasa metabólica de cada animal respecto a la tasa metabólica media. La siguiente tabla muestra el cálculo de esta suma de desviaciones al cuadrado para los petreles hembra, cuya suma es de 886047.09, como se muestra en la tabla.
El denominador en la fórmula de la desviación estándar de la muestra es N-1, donde N es el número de hembras. En este ejemplo, hay N = 6 hembras, por lo que el denominador es 6-1 = 5. Por lo tanto, la desviación estándar de la muestra para los petreles hembra, es
Para los petreles macho, un cálculo similar proporciona una muestra de desviación estándar de 894.37, aproximadamente el doble que la desviación estándar para las hembras. La gráfica muestra los datos de la tasa metabólica, las medias (puntos rojos) y las desviaciones estándar (líneas rojas) para machos y hembras.
El uso de la desviación estándar de la muestra implica que estos 14 petreles son una muestra de una población mayor. Si estos 14 petreles comprendieran toda la población (si fueran los últimos 14 petreles sobrevivientes), entonces se podría hablar de la desviación estándar de la población, en lugar de la desviación estándar de la muestra. En la fórmula de la desviación estándar de la población, el denominador es N en lugar de N-1. No siempre es posible tomar medidas de una población completa, por lo que de manera predeterminada, las aplicaciones informáticas de estadística suelen calcular la desviación estándar de la muestra (es decir, dividiendo por N-1). De manera similar, los artículos de revistas se refieren a la desviación estándar de la muestra, a menos que se especifique lo contrario.
Supóngase que toda la población estudiada son ocho alumnos determinados de una clase en particular. Para un conjunto discreto de datos, la desviación estándar de la población se determina calculando la raíz cuadrada de la media de las desviaciones de los valores restados de su valor promedio, elevadas al cuadrado. Las calificaciones de la clase de ocho estudiantes (es decir, de la población estadística completa) son los siguientes ocho valores:
Estos ocho datos tienen una media (promedio) de 5:
En primer lugar, se calculan las desviaciones de cada dato respecto a la media, y se eleva al cuadrado el resultado de cada una:
La varianza es la media de estos valores:
y la desviación estándar de la población es igual a la raíz cuadrada de la varianza:
Esta fórmula es válida solo si los ocho valores con los que se trabaja forman la población completa. Si los valores, en cambio, fueran una muestra aleatoria extraída de una gran población de alumnos (por ejemplo, fueron 8 calificaciones elegidas al azar e independientemente de un censo de 2 millones de alumnos), entonces el resultado se obtendría dividiendo por 7 (que es N − 1) en lugar de por 8 (que es N) en el denominador de la última fórmula. En ese caso, el resultado de la fórmula original se denominaría la desviación estándar de la muestra. Dividir por N - 1 en lugar de por N da una estimación imparcial de la varianza de una población más grande. Esta modificación se conoce como corrección de Bessel.
Aquí se muestra cómo calcular la desviación estándar de un conjunto de datos. Los datos representan la edad de los miembros de un grupo de niños: {4, 1, 11, 13, 2, 7}
1. Calcular el promedio o media aritmética
En este caso, n = 6:
2. Calcular la desviación estándar
Si la población estudiada tiene una distribución aproximadamente normal, la desviación estándar proporciona información sobre la proporción de las observaciones que se sitúan por encima o por debajo de ciertos valores. Por ejemplo, la estatura media de los hombres adultos en los Estados Unidos es de aproximadamente 177.8 cm, con una desviación estándar de alrededor de 7.62 cm. Esto significa que la mayoría de los hombres (alrededor del 68%, suponiendo un distribución normal) tienen una altura dentro de un intervalo de 7.62 cm alrededor de la media (entre 170.18 y 185.42 cm) y que casi todos los hombres (alrededor del 95%) tienen una altura dentro de los 15.24 cm alrededor de la media (entre 162.56 y 193.04 cm), un intervalo de dos desviaciones estándar de radio. Si la desviación estándar fuera cero, entonces todos los hombres tendrían una altura de exactamente 177.8 cm (el valor medio). Si la desviación estándar fuera de 50.8 cm, entonces los hombres tendrían alturas mucho más variables, con un rango típico de aproximadamente entre 127 y 228.6 cm. Un intervalo de tres desviaciones estándar de radio representa el 99.7% de la población de la muestra que se estudia, asumiendo que posee una distribución normal (en forma de campana). Consúltese la regla 68-95-99.7, o "regla empírica" para obtener más información.
Sea X una variable aleatoria con valor medio:
Aquí el operador E denota el promedio o la esperanza matemática de X. Entonces la desviación estándar de X es la cantidad
(deducida utilizando las propiedades de la media).
En otras palabras, la desviación estándar σ (σ) es la raíz cuadrada de la varianza de X; es decir, es la raíz cuadrada del valor promedio de (X - μ)2.
La desviación estándar de una distribución de probabilidad (de una variable) es la misma que la de una variable aleatoria que tiene esa distribución. No todas las variables aleatorias tienen una desviación estándar, ya que estos valores no siempre existen necesariamente. Por ejemplo, la desviación estándar de una variable aleatoria que sigue una distribución de Cauchy no está definida, porque su valor esperado μ no está definido.
En el caso donde X toma valores aleatorios de un conjunto de datos finito x1, x2, ..., xN, con cada valor con la misma probabilidad, la desviación estándar es
o, usando la notación con un sumatorio,
Si, en lugar de poseer probabilidades iguales, los valores poseen probabilidades diferentes, entonces se tiene que x1 tiene la probabilidad p1, x2 tiene una probabilidad p2, ..., xN tiene una probabilidad pN. En este caso, la desviación estándar será
La desviación estándar de una variable aleatoria continua real X con una función de densidad de probabilidad p(x) es
donde las integrales en x se extienden sobre el todo el conjunto de valores posibles de la variable aleatoria X.
En el caso de una familia paramétrica de distribuciones, la desviación estándar se puede expresar en términos de sus parámetros. Por ejemplo, en el caso de la distribución log-normal con los parámetros μ y σ2, la desviación estándar es
La desviación estándar de una distribución de probabilidad de una sola variable es igual a la desviación estándar de una variable aleatoria con la misma distribución. No todas las variables aleatorias tienen desviación estándar, ya que los valores esperados pueden no existir. Por ejemplo, la desviación estándar de una variable que sigue una distribución de Cauchy es indefinida, porque el valor de la media de la distribución es indefinida.
Es posible encontrarse con la desviación estándar de una población completa en casos donde se conoce el valor de todos y cada uno de los miembros de una población. En los casos en que esto no se puede hacer (en general, por tratarse con poblaciones muy grandes), la desviación estándar σ se estima examinando una muestra de la población tomada aleatoriamente, y calculando un tratamiento estadístico de la muestra dada, que se utiliza como una estimación de la desviación estándar de la población. Dicha estadística se denomina un estimador, y el estimador (o el valor del estimador, a saber, la estimación) se denomina desviación estándar de la muestra y se denota con s (posiblemente con modificadores). Sin embargo, a diferencia del caso de estimar la media poblacional, para la que la media muestral es un estimador simple con muchas propiedades deseables (sin sesgo, eficiente y con máxima probabilidad), no existe un estimador único para la desviación estándar con todas estas propiedades, y la estimación de la desviación estándar no sesgada es un problema con muchas implicaciones técnicas. La mayoría de las veces, la desviación estándar se calcula utilizando la desviación estándar de la muestra corregida (usando N - 1, definida a continuación), y que a menudo se conoce simplemente como la "desviación estándar de la muestra", sin calificadores. Sin embargo, otros estimadores son mejores en algunos aspectos: el estimador no corregido (que usa N) produce un error cuadrático medio más bajo, mientras que el uso de N − 1.5 (para una distribución normal) elimina el sesgo casi por completo.
La fórmula para la desviación estándar de una población (de una población finita) se puede aplicar a la muestra, utilizando el tamaño de la muestra como el tamaño de la población (aunque el tamaño real de la población de la que se extrae la muestra sea mucho más grande). Este estimador, denotado por sN, se conoce como la desviación estándar de la muestra no corregida, o algunas veces como la desviación estándar de la muestra (considerada como la población total), y se define como sigue:
donde son los valores observados de los elementos de la muestra y es el valor medio de estas observaciones, mientras que el denominador N representa el tamaño de la muestra: esta es la raíz cuadrada de la varianza de la muestra, que es el promedio de las desviaciones al cuadrado respecto a la media muestral.
Este es un estimador consistente (porque converge en probabilidad al valor de la población cuando el número de muestras llega al infinito), y posee la máxima verosimilitud estimada cuando la población está normalmente distribuida.
Sin embargo, posee un sesgo estadístico, ya que el número de observaciones es generalmente demasiado bajo. El sesgo disminuye a medida que crece el tamaño de la muestra, disminuyendo como 1/N, y por lo tanto es más significativo para tamaños de muestra pequeños o moderados; para el sesgo es inferior al 1 %. Por lo tanto, para tamaños de muestra muy grandes, la desviación estándar de la muestra no corregida es generalmente aceptable. Este estimador también tiene un error cuadrático medio uniformemente más pequeño que la desviación estándar corregida de la muestra.
Si la varianza sesgada (el segundo momento central de la muestra, que es una estimación sesgada hacia abajo de la varianza de la población) se utiliza para calcular una estimación de la desviación estándar de la población, el resultado es
Aquí, al tomar la raíz cuadrada se introduce un sesgo más hacia abajo, por la desigualdad de Jensen, debido a que la raíz cuadrada es una función cóncava. El sesgo en la varianza se corrige fácilmente, pero el sesgo de la raíz cuadrada es más difícil de corregir y depende de la distribución en cuestión.
Se obtiene un estimador no sesgado de la varianza aplicando la corrección de Bessel, usando N − 1 en lugar de N para obtener la varianza de la muestra no sesgada, denotada por s2:
Este estimador es insesgado si existe la varianza y los valores de la muestra se extraen independientemente con reemplazo (es decir, cada elemento de la muestra se devuelve a la población antes de elegir el siguiente elemento). N - 1 corresponde al número de grados de libertad del vector de desviaciones de la media,
Al calcular la raíz cuadrada se reintroduce un sesgo (porque la raíz cuadrada es una función no lineal, que no posee la propiedad commutativa con respecto a la media), lo que produce la desviación estándar de la muestra corregida, denotada por s:
Como se explicó anteriormente, mientras que s2 es un estimador no sesgado de la varianza poblacional, s sigue siendo un estimador sesgado para la desviación estándar de la población, aunque es notablemente menos sesgado que la desviación estándar de la muestra no corregida. Este estimador se usa comúnmente y generalmente se conoce simplemente como la "desviación estándar de la muestra". El sesgo aún puede ser grande para muestras pequeñas (N menor de 10). A medida que aumenta el tamaño de la muestra, el valor del sesgo disminuye. A medida que se dispone de más información, la diferencia entre y se hace cada vez más pequeña.
Para la estimación de la desviación estándar no sesgada, no existe una fórmula que funcione en todas las distribuciones, a diferencia de lo que sucede con la media y con la varianza. En su lugar, s se usa como base y se escala según un factor de corrección para producir una estimación no sesgada. Por ejemplo, para la distribución normal, un estimador no sesgado viene dado por s/c4, donde el factor de corrección (que depende de N) se da en términos de la función gamma, y es igual a:
Esto se debe a que la distribución de la desviación estándar de la muestra sigue una distribución χ (escalada), y el factor de corrección es la media de la distribución χ.
Se puede dar una aproximación reemplazando N − 1 por N − 1.5, dando como resultado:
El error en esta aproximación decae de forma cuadrática (como 1/N2), y es adecuado para todas las muestras, excepto las más pequeñas o cuando se requiere una precisión máxima: para N = 3, el sesgo es igual al 1.3%, y para N = 9 el sesgo ya es menor del 0.1%.
Una aproximación más precisa es reemplazar el anterior por . Para otras distribuciones, la fórmula correcta depende de la distribución, pero una regla de oro es usar el refinamiento adicional de la aproximación:
donde γ2 denota la curtosis de la población. El exceso de curtosis puede ser conocido de antemano para ciertas distribuciones, o estimado a partir de los datos.
La desviación estándar que se obtiene de una muestra de una distribución no es del todo precisa, por razones matemáticas (de acuerdo con el intervalo de confianza) y por razones prácticas de medición (error de medición). El efecto matemático puede ser descrito por el intervalo de confianza o CI.
Para mostrar cómo una muestra más grande hace que el intervalo de confianza sea más estrecho, considérense los siguientes ejemplos:
Una pequeña población de N = 2 tiene solo 1 grado de libertad para estimar la desviación estándar. El resultado es que un IC del 95% de la desviación estándar se extiende desde 0.45 × s a 31.9 × s; los factores son aquí los siguientes:
donde es el p-cuantil de la distribución χ² con k grados de libertad, y es el nivel de confianza. Esto es equivalente a lo siguiente:
Con k=1, y . Los recíprocos de las raíces cuadradas de estos dos números proporcionan los factores 0.45 y 31.9 dados anteriormente.
Una población mayor de N = 10 tiene 9 grados de libertad para estimar la desviación estándar. Los mismos cálculos anteriores proporcionan en este caso un IC del 95%, que va desde 0.69 × SD a 1.83 × SD. Por lo tanto, incluso con una población de 10 muestras, la desviación estándar real puede ser casi dos veces mayor que la de la muestra. Para una población con una muestra de N = 100, esto se reduce a 0.88 × SD a 1.16 × s. Para estar más seguros de que la desviación estándar de la muestra queda cerca de la real, se necesita una muestra con un gran número de datos.
Estas mismas fórmulas se pueden usar para obtener intervalos de confianza con la varianza de los residuos de un ajuste por mínimos cuadrados según la teoría normal estándar, donde k sería el número de grados de libertad del error.
La desviación estándar es invariante bajo los cambios del origen de coordenadas utilizado para la toma de los datos, y es directamente proporcional con respecto a la escala de la variable aleatoria. Por lo tanto, para una constante c y variables aleatorias X e Y:
La desviación estándar de la suma de dos variables aleatorias se puede relacionar con sus desviaciones estándar individuales y la covarianza entre ellas:
donde y representan la varianza y la covarianza respectivamente.
El cálculo de la suma de las desviaciones al cuadrado se puede relacionar con los momentos calculados directamente a partir de los datos. En la siguiente fórmula, la letra E se interpreta como el valor esperado, es decir, la media.
La desviación estándar de la muestra se puede calcular como:
Para una población finita con probabilidades iguales en todos los puntos, se tiene
Esto significa que la desviación estándar es igual a la raíz cuadrada de la diferencia entre el promedio de los cuadrados de los valores y el cuadrado del valor promedio.
Consúltese la fórmula de cálculo de la varianza para un resultado análogo con la desviación estándar de la muestra.
Una gran desviación estándar indica que los puntos de datos pueden extenderse lejos de la media y una pequeña desviación estándar indica que están agrupados cerca de la media.
Por ejemplo, cada una de las tres poblaciones {0, 0, 14, 14}, {0, 6, 8, 14} y {6, 6, 8, 8} tiene una media de 7. Sus desviaciones estándar son 7, 5 y 1, Respectivamente. La tercera población tiene una desviación estándar mucho más pequeña que las otras dos porque sus valores son todos cercanos a 7. La desviación estándar posee las mismas unidades que los propios datos. Si, por ejemplo, el conjunto de datos {0, 6, 8, 14} representa las edades de una población de cuatro hermanos en años, la desviación estándar es de 5 años. Como otro ejemplo, la población {1000, 1006, 1008, 1014} puede representar las distancias recorridas por cuatro atletas, medidas en metros. Tiene una media de 1007 metros y una desviación estándar de 5 metros.
La desviación estándar puede servir como una medida de incertidumbre. En física, por ejemplo, la desviación estándar de un conjunto de mediciones sucesivas de una misma magnitud (como por ejemplo, de la velocidad de la luz), indica la precisión de esas mediciones. Al determinar si las mediciones concuerdan con una predicción teórica, la desviación estándar de esas mediciones es de crucial importancia: si la media de las mediciones está demasiado alejada de la predicción (con la esta distancia medida según la desviación estándar), entonces la teoría que se está probando probablemente necesita ser revisada. Esto tiene sentido, ya que se encuentran fuera del rango de valores que podrían esperarse razonablemente si la predicción fuera correcta y la desviación estándar se cuantificara adecuadamente (véase intervalo de predicción).
Si bien la desviación estándar determina en qué medida se alejan los datos de la media, hay otras medidas disponibles. Un ejemplo es la desviación media, que podría considerarse una medida más directa de la distancia promedio, en comparación con la raíz de las distancias al cuadrado inherente a la desviación estándar.
Para un conjunto de datos finito, la desviación estándar se calcula a partir de la raíz cuadrada de la media de las desviaciones entre los valores y el promedio de los valores de los datos elevado al cuadrado.
A continuación, se incluye el desarrollo numérico del ejemplo gráfico mostrado en la ilustración de la derecha:
Sean las notas de 8 estudiantes () 2, 4, 4, 4, 5, 5, 7, 9. La media de las notas de los 8 estudiantes es:
Las desviaciones entre las notas y la media de las notas elevadas al cuadrado son:
La varianza o el promedio de todos los valores es:
La desviación estándar o la raíz cuadrada de la varianza es . Esto es, la desviación estándar es igual a 2.
Para obtener algunas ideas y aclaraciones geométricas, se plantea una población con tres valores, x1, x2 y x3. Esto define un punto P = (x1, x2, x3) en R3. Considérese la recta L = {(r, r, r): r ∈ R}. Esta es la "diagonal principal" pasando por el origen. Si los tres valores dados fueran todos iguales, entonces la desviación estándar sería cero y P estaría en L. Por lo tanto, es lógico suponer que la desviación estándar está relacionada con la distancia de P con respecto a L. Ese es de hecho el caso. Para desplazarse ortogonalmente desde L hasta el punto P, se comienza en el punto:
cuyas coordenadas son la media de los valores de partida.
Sea . está en , por lo tanto, con
La línea debe ser ortogonal al vector de a . Por lo tanto:
Mediante un poco de álgebra, se demuestra que la distancia entre P y M (que es la misma que la distancia ortogonal entre P y la recta L) es igual a la desviación estándar del vector (x1, x2, x3), multiplicado por la raíz cuadrada del número de dimensiones del vector (3 en este caso).
El valor práctico de comprender la desviación estándar de un conjunto de valores reside en apreciar su grado de variación con respecto a la media.
La desviación estándar a menudo se usa para comparar datos del mundo real con un modelo para probar el modelo. Por ejemplo, en aplicaciones industriales, el peso de los productos que salen de una línea de producción puede necesitar cumplir con un valor legalmente requerido. Al pesar alguna fracción de los productos, se puede determinar un peso promedio, que siempre será ligeramente diferente al promedio a largo plazo. Al utilizar la desviación estándar, se puede calcular un valor mínimo y máximo tales que el peso promedio estará dentro en un porcentaje muy alto de las ocasiones (un 99.9% o más). Si cae fuera del rango, es posible que el proceso de producción deba corregirse. Pruebas estadísticas como estas son particularmente importantes cuando la obtención de medidas es relativamente cara. Por ejemplo, si el producto necesita ser abierto y drenado para pesarse, o si el producto es alterado por la prueba.
En la ciencia experimental, se utiliza un modelo teórico de la realidad. Por ejemplo, la física de partículas usa convencionalmente un estándar de "5 sigma" para la declaración de un descubrimiento. Un nivel de cinco sigma se traduce en una posibilidad entre 3.5 millones de que una fluctuación aleatoria produzca el resultado predicho. Este nivel de certeza era necesario para afirmar que se había descubierto una partícula consistente con el bosón de Higgs en dos experimentos independientes realizados por la Organización Europea para la Investigación Nuclear, y este fue también el nivel de relevancia que llevó a la declaración de la detección de ondas gravitacionales por primera vez.
Como ejemplo simple, considérense las temperaturas máximas promedio diarias de dos ciudades, una interior y otra en la costa. Es útil comprender que el rango de temperaturas máximas diarias para las ciudades cercanas a la costa es menor que para las ciudades del interior. Por lo tanto, si bien estas dos ciudades pueden tener la misma temperatura máxima promedio, la desviación estándar de la temperatura máxima diaria para la ciudad costera será menor que la de la ciudad interior, ya que, en cualquier día en particular, la temperatura máxima real es más probable que se sitúe más lejos de la temperatura máxima promedio en la ciudad interior que en la costera.
En finanzas, la desviación estándar se usa a menudo como una medida del riesgo asociado con las fluctuaciones de precio de un activo determinado (acciones, bonos, propiedad, etc.), o con el riesgo de una cartera de activos (fondos mutuos administrados activamente, índice mutuo de fondos, o fondos cotizados). El riesgo es un factor importante para determinar cómo administrar de manera eficiente una cartera de inversiones porque determina la variación en los rendimientos del activo y/o la cartera y brinda a los inversores una base matemática para tomar decisiones de inversión (según una disciplina conocida como teoría moderna de carteras). El concepto fundamental de riesgo es que a medida que aumenta, el rendimiento esperado de una inversión también debería aumentar, según un aumento conocido como la prima de riesgo. En otras palabras, los inversores deben esperar un mayor rendimiento de una inversión cuando esa inversión conlleva un mayor nivel de riesgo o incertidumbre. Al evaluar las inversiones, los inversores deben estimar tanto el rendimiento esperado como la incertidumbre de los rendimientos futuros. La desviación estándar proporciona una estimación cuantificada de la incertidumbre de los rendimientos futuros.
Por ejemplo, supongase que un inversor tiene que elegir entre dos acciones. Las acciones A en los últimos 20 años tuvieron un rendimiento promedio del 10 por ciento, con una desviación estándar de 20 puntos porcentuales (pp) y las acciones B, durante el mismo período, tuvieron rendimientos promedio del 12 por ciento, pero una desviación estándar más alta de 30 pp. Como base del riesgo y la rentabilidad, un inversor puede decidir que la acción A es la opción más segura, ya que los dos puntos porcentuales adicionales de la acción B no valen la desviación estándar adicional de 10 pp (mayor riesgo o incertidumbre de la rentabilidad esperada). Es probable que las acciones B no alcancen la inversión inicial (pero también que excedan la inversión inicial) con mayor frecuencia que las acciones A en las mismas circunstancias, y se estima que en promedio solo retornarán un dos por ciento más. En este ejemplo, se espera que la acción A gane alrededor del 10 por ciento, más o menos 20 pp (un rango del 30 por ciento al -10 por ciento), aproximadamente dos tercios de los rendimientos del año futuro. Al considerar rendimientos o resultados más extremos en el futuro, un inversor debe esperar resultados de hasta un 10 por ciento más o menos 60 pp, o un rango del 70 por ciento al 50 por ciento, que incluye los resultados en un rango de tres desviaciones estándar del rendimiento promedio (alrededor del 99.7 por ciento de los rendimientos probables).
El cálculo del promedio (o media aritmética) del rendimiento de un valor en un período determinado generará el rendimiento esperado del activo. Para cada período, se resta el rendimiento esperado de los resultados reales con respecto de la media. Al elevar al cuadrado la diferencia en cada período y tomar el promedio, se obtiene la varianza general del rendimiento del activo. Cuanto mayor sea la variación, mayor será el riesgo que conlleva. Calculando la raíz cuadrada de esta variación se obtiene la desviación estándar de la herramienta de inversión en cuestión.
La desviación estándar de la población se usa para establecer el ancho de las bandas de Bollinger, una herramienta de análisis técnico ampliamente utilizada. Por ejemplo, la banda superior de Bollinger se da como x + nσx.. El valor más comúnmente usado para n es 2; hay un cinco por ciento de posibilidades de obtener un valor por fuera de la banda, asumiendo una distribución normal de los rendimientos.
Se sabe que las series temporales financieras son series no estacionarias, mientras que los cálculos estadísticos anteriores, como la desviación estándar, se aplican solo a las series estacionarias. Para aplicar las herramientas estadísticas anteriores a las series no estacionarias, la serie primero debe transformarse en una serie estacionaria, permitiendo el uso de herramientas estadísticas con una base válida desde la que poder trabajar en términos homogéneos.
El teorema del límite central establece que la distribución de un promedio de muchas variables aleatorias independientes e idénticamente distribuidas tiende hacia la famosa distribución normal en forma de campana con una función de densidad de probabilidad de
donde μ es la esperanza matemática de las variables aleatorias, σ equivale a la desviación estándar de su distribución dividida por n1/2, y n es el número de variables aleatorias. Por lo tanto, la desviación estándar es simplemente una variable de escala que ajusta la amplitud de la curva, aunque también aparece en la constante de normalización.
Si una distribución de datos es aproximadamente normal, entonces la proporción de valores de datos dentro de z desviaciones estándar de la media, se define por:
donde es la función error. La proporción que es menor o igual a un número, x, viene dada por la función de distribución:
Si una distribución de datos es aproximadamente normal, cerca del 68 por ciento de los valores de los datos estarán dentro de una desviación estándar de la media (matemáticamente, μ ± σ, donde μ es la media aritmética), del orden del 95 por ciento estarán dentro de dos desviaciones estándar, y en torno a un 99.7 por ciento estarán dentro de tres desviaciones estándar (3σ ). Esto se conoce como la regla 68-95-99.7, o la regla empírica.
Para varios valores de z, el porcentaje de valores que se espera que se encuentren dentro y fuera del intervalo simétrico, CI = (-zσ, zσ), son los siguientes:
Una observación cualquiera rara vez se sitúa a más de unas pocas desviaciones estándar de la media. La desigualdad de Chebyshov garantiza que, para todas las distribuciones para las que se define la desviación estándar, la cantidad de datos dentro de una serie de desviaciones estándar de la media es al menos la que se indica en la siguiente tabla.
En estadística descriptiva, la media y la desviación estándar de un conjunto de datos son generalmente facilitadas juntas. En cierto sentido, la desviación estándar es una medida "natural" de las medidas de dispersión si el centro de los datos se mide alrededor de la media. Esto se debe a que la desviación estándar respecto a la media es menor que desde cualquier otro punto. La declaración precisa es la siguiente:
Supóngase que x1, ..., xn son números reales y se define la función:
Usando el cálculo infinitesimal o completando el cuadrado, es posible demostrar que σ(r) tiene un mínimo único en la media:
La variabilidad también puede medirse mediante el coeficiente de variación, que es la relación de la desviación estándar con respecto a la media. Es una magnitud adimensional.
A menudo, se requiere información sobre la precisión de la media obtenida. Este parámetro se puede obtener determinando la desviación estándar de la media de la muestra. Suponiendo una independencia estadística de los valores de la muestra, la desviación estándar de la media está relacionada con la desviación estándar de la distribución por:
donde N es el número de observaciones de la muestra utilizada para estimar la media. Esto se puede probar fácilmente con (véanse las propiedades básicas de la varianza):
(se supone la independencia estadística de los datos).
por lo tanto
De aquí se deduce que:
Se debe enfatizar que para estimar la desviación estándar de la media es necesario conocer de antemano la desviación estándar de toda la población . Sin embargo, en la mayoría de las aplicaciones este parámetro es desconocido. Por ejemplo, si se realiza una serie de 10 mediciones de una cantidad previamente desconocida en un laboratorio, es posible calcular la media de la muestra resultante y la desviación estándar de la muestra, pero es imposible calcular la desviación estándar de la media.
Las dos fórmulas siguientes permiten calcular una desviación estándar agregando datos. Un conjunto de dos sumas de potencias s1 y s2 se calculan sobre un conjunto de N valores de x, denotado como x1, ... , xN:
Dados los resultados de estas sumas en ejecución, los valores N, s1, s2 se pueden usar en cualquier momento para calcular el valor actual de la desviación estándar de ejecución:
Donde N, como se mencionó anteriormente, es el tamaño del conjunto de valores (o también puede considerarse como s0).
Del mismo modo, para la desviación estándar de la muestra,
En un programa de ordenador, a medida que las sumas de tres sj se hacen grandes, se debe considerar el error de redondeo y el desbordamiento aritmético (por rebosamiento de grandes cantidades o por la pérdida de la mantisa). El siguiente método calcula el método de las sumas con errores de redondeo reducidos. Se trata de un algoritmo de "una pasada" para calcular la varianza de n muestras sin la necesidad de almacenar los datos anteriores durante el cálculo. La aplicación de este método a una serie devuelve valores sucesivos de la desviación estándar correspondiente a n datos a medida que n crece con cada nueva muestra, en lugar de un cálculo que requiera analizar en su totalidad el nuevo conjunto de datos.
Para k = 1, ..., n:
donde A es el valor medio.
Nota: desde o
Varianza de la muestra:
Varianza de la población:
Cuando los valores xi se ponderan con pesos desiguales wi, las sumas de potencias s0, s1, s2 se computan como:
y las ecuaciones de la desviación estándar se mantienen sin cambios. Téngase en cuenta que s0 es ahora la suma de los pesos y no el número de muestras N.
El método incremental con errores de redondeo reducidos también se puede aplicar, con cierta complejidad adicional.
Se debe calcular una suma de pesos para cada k desde 1 hasta n:
y los lugares donde se usa 1/n anteriormente deben reemplazarse por wi/Wn:
En la división final,
y
o
donde n es el número total de elementos, y n' es el número de elementos con ponderaciones distintas de cero. Las fórmulas anteriores se hacen iguales a las fórmulas más simples dadas arriba si los pesos se toman como iguales a uno.
El término desviación estándar fue utilizado por primera vez en un escrito por Karl Pearson, en una comunicación a la Royal Society de 1894, aunque ya lo había utilizado en sus clases. Esta denominación sustituyó a otros nombres anteriores de la misma idea: por ejemplo, Gauss usó la expresión error medio.
Escribe un comentario o lo que quieras sobre Desviación típica (directo, no tienes que registrarte)
Comentarios
(de más nuevos a más antiguos)