Estadística en Microcomputadores/otros casos de Análisis de variancia

5.3 OTROS CASOS DE ANALISIS DE VARIANCIA

5.3.1 Análisis de Covariancia

Esta técnica constituye una variante del Análisis de Variancia, en la que también se considera una variable respuesta y variables independientes o factores. Su diferencia principal consiste en que se define además una (o más) variable cuantitativa, denominada covariable, que se supone tiene una relación lineal con la variable respuesta. La inclusión de esta (o estas) variable en el modelo de Análisis de Variancia permite en ciertas aplicaciones reducir la magnitud de los términos de error ei.

Un ejemplo de modelo en este caso, considerando dos factores X y W y una covariable Z es el siguiente:

yi = + j + k + jk + a(zi - z) + ei

siendo: yi observación i de la variable respuesta Y.

valor medio general de la variable respuesta.

j, k, jk efectos diferenciales debido a los factores X y W.

zi observación i de la covariable Z.

z valor medio de la covariable Z.

a coeficiente de relación entre la variable Z y la Y.

La estimación de los coeficientes del modelo y la evaluación de la significación de los efectos es similar a la del Análisis de Variancia, debiendo ahora estimar otros coeficientes más, los de relación entre las covariables y la variable respuesta. Para la resolución del modelo se hace practicamente necesaria en todos los casos la aplicación del concepto de Modelo Lineal General.


5.3.3 Análisis de Variancia no paramétricos

La verificación de la significación de los efectos de los diferentes factores sobre la variable respuesta consituye el aspecto central en la mayor parte de las aplicaciones del Análisis de Variancia. En dicha verificación suponíamos como punto de arranque que la variable respuesta sigue una distribución normal.

Cuando ello no ocurre los procedimientos de verificación vistos no resultan válidos, debiéndose recurrir a otros que, por extensión de la denominación usada en las pruebas estadísticas (Capítulo 4) se conocen usualmente como no paramétricos. Los métodos específicos que veremos seguidamente requieren como única condición para su aplicación que la variable respuesta sea por lo menos de tipo ordinal.

a) Prueba de Kruskal-Wallis

Esta verificación se puede aplicar a casos en los que se define un único factor y utiliza, como la mayor parte de las pruebas estadísticas no paramétricas vistas en el capítulo 4, el concepto de rango asociado a un conjunto de observaciones de una variable.

De acuerdo a ello se obtiene el rango de cada observación del juego de datos considerado, sobre la base de los valores de la variable respuesta Y. A partir de esta determinación se calcula la suma de los rangos para cada submuestra definida por un valor específico del factor. Como función de dichas sumas se obtiene el valor de una estadística de prueba, que sigue una distribución Chi2 si los efectos diferenciales debidos a los diversos valores del factor son nulos.

b) Prueba de Friedman

Esta verificación se aplica a casos en los que se definen dos factores sin repetición, es decir, en los que se cuenta con una sola observación de la variable respuesta por cada combinación de valores de los factores.

Aquí se aplica también el concepto de rango, calculándolo sobre la base de los valores de la variable respuesta Y, pero ahora en forma independiente para cada grupo de observaciones definido por un valor específico del factor X1. A partir de ello se obtienen sumas de dichos rangos, pero para cada conjunto de observaciones determinado por los valores del factor X2. Como función de estas sumas se calcula una estadística de prueba, que sigue una distribución "Chi2" si los factores no afectan a la variable respuesta.