¿Cuál es la diferencia entre la varianza y la desviación típica?

Jaigar 11 respuestas
Si pudieras darme la respuesta a esta pregunta, sería estupendo.... No he entendido bien lo que me ha explicado el profesor de matemáticas en clase.
{0} / {1} caracteres recomendados
La respuesta debe contener algún carácter
Respuestas
David Palacio Velásquez
Primero hay que entender qué son ambas cosas. En un conjunto, la varianza es un cálculo que te dice qué tan alejados están los datos con respecto a su media. También podría decirse que es el promedio de las diferencias (elevadas al cuadrado) entre cada dato y el promedio simple de todos los datos. Por ejemplo, tenemos los precios de 3 gomas de mascar diferentes: $5, $6 y $7. Su promedio simple sería: 5+6+7/3 = 18/3 = 6 Ahora tomamos las diferencias entre cada dato y el promedio simple, y luego las elevamos al cuadrado: (5–6)^2=1 (6–6)^2=0 (7–6)^2=1 Y sumamos los resultados: 1+0+1=2 Entonces dividimos este 2 entre el número de gomas de mascar que teníamos inicialmente (3): 2/3=0.66 Nuestra varianza es 0.66 dólares/pesos/euros al cuadrado (sí, suena raro, pero es al cuadrado). ¿Por qué elevamos las diferencias al cuadrado para tener unidades al cuadrado? Porque si no lo hiciéramos, el resultado sería 0 y ese valor no nos sirve para nada, pues sería como decir que todos los datos son iguales o que no se alejan de 6, lo cual es falso. Así es la estadística. Mientras tanto, la desviación estándar (o típica) simplemente es la raíz cuadrada de la varianza. Entonces, la desviación típica sería √0.66 = 0.81 dólares/pesos/euros aproximadamente. ¿Cuál es además la diferencia entre una y otra? Sirven para casi lo mismo, pero la desviación típica es útil para tener simples dólares/pesos/euros, nada de eso elevado al cuadrado. Depende de lo que estemos haciendo, será más rápido encontrar alguna u otra cosa con cada medida. ¿Y entonces qué cosas puedo encontrar con la varianza, si la desviación típica ya me indica algo más concreto en sí? Pues para encontrar medidas como la misma desviación típica, la covarianza, la correlación lineal y modelos como la recta de regresión y los de efectos fijos o aleatorios, los cuales forman parte de un panomara más amplio de la estadística.
Escribe una respuesta
Luca Massolini
La varianza es el desvío al cuadrado.
Escribe una respuesta
Juan José Anzola Vera
La varianza y la desviación estándar son dos medidas de dispersión que se utilizan comúnmente en estadística para describir la variabilidad o la dispersión de un conjunto de datos. La principal diferencia entre ellas radica en la unidad de medida y la interpretación. Varianza: La varianza es una medida de dispersión que representa la media de las diferencias al cuadrado entre cada punto de datos y la media del conjunto de datos. Matemáticamente, la varianza se calcula como la suma de los cuadrados de las diferencias entre cada observación y la media, dividida por el número total de observaciones. Desviación estándar: La desviación estándar es simplemente la raíz cuadrada de la varianza. Proporciona una medida de dispersión que está en la misma escala que los datos originales, lo que la hace más fácil de interpretar en comparación con la varianza.
Escribe una respuesta
Laura Karina eppens
Varianza: La varianza es la medida de dispersión que representa la media de las diferencias al cuadrado entre cada valor de un conjunto de datos y la media del conjunto. Se calcula tomando la diferencia entre cada valor de datos y la media, elevándola al cuadrado, sumando estos cuadrados y luego dividiendo por el número total de valores en el conjunto de datos. La varianza es útil para entender qué tan dispersos están los datos, pero como está en unidades cuadradas, puede ser difícil de interpretar directamente. Desviación estándar (o típica): La desviación estándar es simplemente la raíz cuadrada de la varianza. Se calcula tomando la raíz cuadrada del valor de la varianza. La desviación estándar proporciona una medida de dispersión que está en las mismas unidades que los datos originales, lo que la hace más fácil de interpretar que la varianza. Es una medida de cuánto se desvían los valores individuales de la media del conjunto de datos. En resumen, mientras que la varianza da una idea de la dispersión de los datos cuadrados, la desviación estándar proporciona una medida más intuitiva de la dispersión en las mismas unidades que los datos originales.
Escribe una respuesta
Como la varianza es el promedio de las distancias al cuadrado que van desde las observaciones a la media, la desviación estándar es la raíz cuadrada del promedio de las distancias al cuadrado que van desde las observaciones a la media.
Escribe una respuesta
Ricardo Jose Zamora Barrios
¡Claro! Voy a explicarte la diferencia entre varianza y desviación típica de una manera sencilla para que puedas entenderlo mejor. 1. Varianza: La varianza mide cuánto se alejan los valores de una serie de datos (como notas en un examen) con respecto a su valor medio. Imagina que tienes las notas de tus cinco exámenes: 8, 7, 9, 6 y 10. El valor medio (promedio) de estas notas es 8. Para calcular la varianza, primero restamos cada nota del valor medio (8), luego elevamos al cuadrado cada diferencia y finalmente promediamos esos cuadrados. En este caso, la varianza nos diría cuánto varían las notas con respecto al promedio. 2. Desviación Típica: La desviación típica es simplemente la raíz cuadrada positiva de la varianza. Siguiendo con el ejemplo de las notas, si calculamos la varianza y obtenemos un valor de 4, la desviación típica sería la raíz cuadrada de 4, que es 2. La desviación típica nos dice cuánto se alejan, en promedio, las notas individuales de la media. En resumen: La varianza mide la dispersión de los datos. La desviación típica es una forma más fácil de entender esa dispersión, ya que está en las mismas unidades que los datos originales (por ejemplo, si las notas son en puntos, la desviación típica también será en puntos).
Escribe una respuesta
Magella
Como ya te dijeron. La varianza es una medida de dispersión es el promedio de las diferencias al cuadrado de cada observación menos la media, la desviación típica es la raíz cuadrada de la varianza y nos ayuda a entender cuánto varían los datos de un conjunto promedio. Ahora la desviación estándar o la desviación típica son el mismo concepto. Es mucho mas usual hablar de desviación estándar que desviación típica tal vez por eso surja la confusión ya que algunos textos ponen desviación típica y otros opten por desviación estándar.
Escribe una respuesta
Magella Altamirano
Como ya te dijeron. La varianza es una medida de dispersión es el promedio de las diferencias al cuadrado de cada observación menos la media, la desviación típica es la raíz cuadrada de la varianza y nos ayuda a entender cuánto varían los datos de un conjunto promedio. Ahora la desviación estándar o la desviación típica son el mismo concepto. Es mucho mas usual hablar de desviación estándar que desviación típica tal vez por eso surja la confusión ya que algunos textos ponen desviación típica y otros opten por desviación estándar.
Escribe una respuesta
Sergio celurzo
Hola Jaigar, la forma mas simple de comprender la varianza es sabiendo que lo que mide es cuanto se separan o dispersan los dato alrededor del promedio o media aritmetica. Cuanto mas alta sea la varianza mas dispersos o separados estan los datos. la desviacion tipica o desvio estandar es la raiz de la varianza y muchas veces se omite, ademas miden lo mismo ya que cuanto mas alta es la desviacion tipica mas separados estan los datos de la media y viceversa
Escribe una respuesta
Ana DIAZ-AGERO
Profesor Verificado
La desviación típica es la raíz cuadrada de la varianza.
Escribe una respuesta
La desviación típica o desviación estándar mide la dispersión de los datos con respecto a media. La desviación tapiza es la raiz cuadrada de la varianza.
Escribe una respuesta
Jaigar
© 2007 - 2024 Tus clases particulares Mapa web: Profesores particulares| Academias y centros