Analisis De Varianza

Analisis De Varianza

Análisis de la varianza

De Wikipedia, la enciclopedia libre

En estadística, el análisis de la varianza (ANOVA, A Nalysis? Of V Ariance?, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.

Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como “Anova de Fisher” o “análisis de varianza de Fisher”, debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.

Introducción

El análisis de la varianza parte de los conceptos de regresión lineal. Un análisis de la varianza permite determinar si diferentes tratamientos muestran diferencias significativas o por el contrario puede suponerse que sus medias poblacionales no difieren. El análisis de la varianza permite superar las limitaciones de hacer contrastes bilaterales por parejas que son un mal método para determinar si un conjunto de variables con n > 2 difieren entre sí. El primer concepto fundamental es que todo valor observado puede expresarse mediante la siguiente función:

    y i j = μ + τ i + ϵ i j 

Donde:

y i j y_sería el valor observado (variable dependiente) [valor j-ésimo del tratamiento i-ésimo], y τ i es el efecto del tratamiento i.

μ sería una constante que en la recta de regresión equivale a la ordenada en el origen,

τ i es una variable que varía de tratamiento a tratamiento. ϵ i j es una variable aleatoria que añade a la función cierto error que desvía la puntuación observada de la puntuación pronosticada.

Por tanto, a la función de pronóstico la podemos llamar “media del tratamiento i”:

y i = μ + τ i

Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones esperadas, más el error aleatorio ( y i j = y i + e i j A partir de esa idea, se puede operar:

Restamos a ambos lados de la ecuación (para mantener la igualdad) la media de la variable dependiente:

Tipos de modelo Modelo I: Efectos fijos

El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las que el experimentador ha sometido al grupo o material analizado a varios factores, cada uno de los cuales le afecta sólo a la media, permaneciendo la “variable respuesta” con una distribución normal.

Este modelo se supone cuando el investigador se interesa únicamente por los niveles del factor presentes en el experimento, por lo que cualquier variación observada en las puntuaciones se deberá al error experimental. Modelo II: Efectos aleatorios (componentes de varianza)

Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren diferencias incomparables en el material o grupo experimental. El ejemplo más simple es el de estimar la media desconocida de una población compuesta de individuos diferentes y en el que esas diferencias se mezclan con los errores del instrumento de medición.

Este modelo se supone cuando el investigador está interesado en una población de niveles, teóricamente infinitos, del factor de estudio, de los que únicamente una muestra al azar (t niveles) están presentes en el experimento. Grados de libertad

Los grados de libertad pueden descomponerse al igual que la suma de cuadrados. Así, G Ltotal? = G Lentre? + G Ldentro?. Los G Lentre se calculan como: a - 1, donde a es el número de tratamientos o niveles del factor. Los G Ldentro se calculan como N a, donde N es el número total de observaciones o valores de la variable medida (la variable respuesta). Pruebas de significación

El análisis de varianza lleva a la realización de pruebas de significación estadística, usando la denominada distribución F de Snedecor.

Obtenido de «https://es.wikipedia.org/w/index.php?title=Análisis_de_la_varianza&oldid=92404950»


Mis sitios nuevos:
Emprendedores
Politica de Privacidad