Archivo del Autor: estadisticallopis

Situación 43: Problema de ANOVA

Se quiere evaluar cómo afecta a una variable sanguínea el nivel de ejercicio continuado durante una hora. Para ello se toman 6 varones muy similares en cuanto a edad e historia clínica. Se trata de 6 personas que en un análisis previo han dado valores muy similares de la variable que se quiere estudiar.

Después de toda una mañana de reposo a tres de esos participantes en el estudio se les ha medido esta variable y se ha analizado la variable dos veces en cada una de las muestras de sangre porque se quiere saber la dispersión residual de esta técnica analítica.

A los otros tres participantes en el estudio se les ha sometido a un ejercicio de una hora de duración en una bicicleta estática. Después se les ha tomando muestra de sangre y se ha realizado en cada una de ellas un análisis por duplicado de la variable estudiada.

Los resultados obtenidos son los siguientes:

IMG_7171

Resolver el diseño.

Y supongamos, también, que estuviéramos interesados en saber cuál es la probabilidad de que el valor de esta variable sea superior a 59, en un individuo de estas características, y después de haber hecho un esfuerzo del orden del estudiado en este experimento.

Solución Situación 42

La primera parte del problema es un caso de dos factores aleatorios cruzados. Ver el modelo ANOVA de dos factores a efectos aleatorios.

Si se comprueba la normalidad con el Test de Shapiro-Wilk y la homogeneidad de las varianzas con el Test de Barlett se comprueba que estamos bajo las condiciones exigidas para la aplicación de los contrastes de hipótesis asociados a un modelo ANOVA.

La tabla ANOVA con los cocientes de cuadrados medios adecuados y la estimación de los parámetros son los siguientes:

IMG_7172

Tanto el factor Preparación como el factor Operario son factores significativos. La interacción no lo es.

El cálculo de las componentes de la varianza será esencial a la hora de ver cuál es el elemento que introduce más variación. La interacción ya vemos que la variación que introduce no es significativa. La variación residual es 4.25. Ahora lo que hace falta ver es las otras dos. Por eso se estiman. El -1.95 de la interacción es un artefacto de la forma de estimación. En realidad, se considera 0. Veamos cómo se realiza, a partir de las esperanzas de los cuadrados medios, la estimación de estas componentes de la varianza:

IMG_7174

Como puede apreciarse la principal componente de la varianza es la aportada por la preparación. La forma en la que hacemos la preparación es realmente lo que hay que plantearse porque es lo que realmente introduce una variación enorme. Si queremos reducir la variabilidad debemos focalizar en el método seguido en las preparaciones.

Veamos, ahora, la segunda parte del problema. Ahora, al trabajar con 6 operarios que analizan dos a dos para preparación, el modelo para a ser de dos factores anidados. Ver el modelo ANOVA de dos factores anidados a efectos aleatorios.

La tabla ANOVA y las componentes de la varianza son, ahora:

IMG_7175

El factor significativo es, ahora, únicamente la Preparación. Operario ya no lo es. Podemos estimar las componentes de la varianza. Incluso la de Operario dentro de Preparación, aunque no sea significativa y seguimos viendo que la principal componentes de la varianza se la lleva la preparación, como antes.

A continuación puede verse cómo se calculan estas estimaciones de las componentes de la varianza:

IMG_7176

Situación 42: Problema de ANOVA

Se quiere evaluar la variabilidad introducida en una medida en base a la preparación de la muestra y en base al operario que acaba realizando la medida. Se quiere saber cuál es la contribución de cada uno de esos dos factores en la variabilidad final de los resultados. Para ello se elaboran tres preparaciones y se toman dos operarios al azar. Los resultados obtenidos son los siguientes:

IMG_7170

Resolver el diseño.

Supongamos ahora que el problema es el mismo pero ahora en lugar de tomar dos operarios, tomamos seis, pero dos de ellos evalúan el primer preparado, otros dos el segundo preparado y los dos últimos evalúan el tercer preparado.

Resolver el nuevo diseño.

Test de la Q de Cochran

El Test de la Q de Cochran es un test para comprobar la igualdad de varias muestras relacionadas en una variable dicotómica. Es un test equivalente al test de McNemar pero para más de dos poblaciones.

El contraste de hipótesis tiene como hipótesis nula la igualdad de proporciones.

El estadístico de test usado en este contraste de hipótesis es el siguiente:

 IMG_7167

Como puede apreciarse, para que el test funcione bien se necesita un determinado valor de tratamientos y de muestra.

Veamos dos casos de aplicación de este test.

La tabla de datos consta de cinco filas porque son cinco los individuos usados y de cuatro columnas, porque vamos a suponer que hemos ensayado cuatro tratamientos distintos a esos cinco individuos. En la tabla consta un 1 ó un 0 dependiendo si hay o no respuesta a la variable dicotómica que estamos estudiando.

Veamos, en primer lugar, un caso de no diferencias:

IMG_7168

En el siguiente caso, sí que hay diferencias entre los cuatro tratamientos:

IMG_7169

Observemos que en las condiciones de aplicación se pide que k sea mayor o igual a 4 (esto se cumple), pero también se pide que nk sea mayor o igual que 24 y en este ejemplo nk=20. Aquí la distribución ji-cuadrado supuesta es dudosa. Pero lo he hecho así para que sea más fácil entender los cálculos.

Test de Friedman

El Test de Friedman es un test para comprobar la igualdad de tratamientos en medidas repetidas. Es un test que no necesita de la normalidad de los datos. Es un test, pues, no paramétrico.

Supongamos que aplicamos a un grupo de n individuos k tratamientos diferentes, en distintos momentos. Y lo que queremos es contrastar la Hipótesis nula de igualdad entre esos tratamientos. Ahora la igualdad no será de medias, como en el ANOVA paramétrico, sino que será igualdad de medianas o de distribuciones.

El estadístico usado en este test de Fridman es el siguiente:

IMG_7166

Este test se usa,en ocasiones, para casos de dos factores cruzados donde no hay ajuste a las suposiciones habituales del ANOVA.

¿Media y Desviación estándar o Mediana y Rango intercuartílico?

En el Tema 2: Estadística descriptiva ya hemos visto que son muchos los estadísticos, los descriptores, que podemos calcular a una muestra de una variable cuantitativa. Pero es muy habitual resumir una muestra mediante sólo dos descriptores. Lo más habitual es hacerlo mediante la Media y la Desviación estándar. En estos casos se suele escribir mediante la estructura  Media±Desviación estándar. Es muy habitual en revistas científicas ver descripciones de una variable en términos, por ejemplo, como de 10±3, 134±23 ó 2345±123. Sin embargo, esta generalización que se viene usando es problemática. Veamos por qué.

Si una variable se ajusta bien a una distribución normal lo más conveniente es describir esa variable, efectivamente, mediante la Media y la Desviación estándar, porque con estos dos valores tenemos perfectamente caracterizada la distribución de la población que hay detrás de la muestra que tenemos.

Si una variable, por el contrario, no se ajusta a una distribución normal es muy problemático describirla en estos términos, de esta forma. Es mucho más razonable describirla mediante la Mediana y el Rango intercuartílico.

La tendencia habitual si se tiene una variable descrita en los términos de la Media±Desviación estándar es a hacer aquellas típicas inferencias que sólo son ciertas si la variable se ajusta bien a la distribución normal: M±1DE supone el 68.5% aproximadamente de la población, M±2DE supone el 95% aproximadamente de la población y M±3DE supone el 99.5% aproximadamente de la población. Si la variable no se ajusta a una distribución normal esas inferencias en absoluto son ciertas. Para evitar esta muy habitual inferencia inconsciente es mejor trabajar, evidentemente, en estos casos de no ajuste a la normalidad, con la Mediana y el Rango intercuartílico que son medidas que digamos están más próximas a la descripción propiamente dicha y no tienen tantas connotaciones inferenciales como las tienen la Media y la Desviación estándar.

No es un problema, como suele pensarse en ocasiones, de tamaño de muestra. Hay una creencia establecida, por parte de muchos usuarios de la Estadística, que si una muestra es pequeña deben usarse descriptores tipo mediana y percentiles y si la muestra es grande puede usarse y debe usarse la media y la desviación estándar. Esto no es así. El uso de unos u otros descriptores no depende del tamaño muestral, depende de la normalidad de la muestra, de su ajuste a la campana de Gauss.

Veamos dos ejemplos que nos pueden ayudar:

El primero es una muestra de tamaño 1000 de personas adultas a las que se les ha medido la variable Altura. Veamos unos cuantos descriptores calculados a esa muestra, el Box-Plot y un interesante gráfico donde simplemente se representan todos los valores de la muestra en su posición respecto a la recta de números de abajo. Los valores se elevan con la intención que se visualice mejor la distribución de valores. Observemos que en este caso dar la Media y la Desviación estándar es muy correcto. Los valores muestrales se ajustan bien a una normal. Vemos perfectamente que si a la media le sumamos y restamos 1DE ó 2DE vemos que efectivamente quedan, dentro de esos dos intervalos, el 68.5 y el 95% de valores. Vaya, que estos valores son factibles y razonables:

IMG_7100

La Asimetría estandarizada de esta muestra es -0.46 y la Curtosis estandarizada es 0.19. Esto es una forma más objetiva de valorar el ajuste a la distribución normal. Ambos valores están dentro del intervalo que va del -2 al 2.

El segundo ejemplo es una muestra de las edades de 1129 alumnos de la Universidad de Barcelona. Ahora observemos que si representamos esa muestra mediante la Media y la Desviación estándar corremos el peligro de que si hacemos esos intervalos nos encontremos con errores importantísimos. La media son 22.2 años y la DE es 3.89. Si ahora construimos los típicos intervalos nos encontramos con inferencias que no son reales. Simplemente por la no normalidad de los datos:

IMG_7101

La Asimetría estandarizada de esta muestra es 67.26 y la Curtosis estandarizada es 269.24. Esto es una forma más objetiva de valorar el ajuste a la distribución normal. Ambos valores están fuera claramente del intervalo que va del -2 al 2. Por lo tanto, claramente se trata de una variable que no se ajusta a la distribución normal.

La Desviación estándar es un magnífico descriptor, pero peligroso. Debe usarse con cuidado. Demasiadas veces el no introducido con los problemas que aquí comento comete errores de inferir a partir de ella cosas que sólo son ciertas si la variable se ajusta a una distribución normal. Es por eso que estos casos suele recomendarse el uso de la median y el rango intercuartílico. En este último caso podríamos describir la variable Edad mediante los valores: 22 (20-23). Observemos que aunque se habla en estos casos de Mediana y Rango intercuartílico, en realidad, más que darse el Rango intercuartílico propiamente, suele darse primer y tercer cuartil. De esta forma se está dando el rango intercuartílico y los dos valores concretos a partir de los cuales se calcula. Por lo tanto, se está dando más información.

Es por lo tanto muy importante saber en qué momentos tiene sentido usar uno u otro sistema descriptivo. Y es muy importante, también, saber usar bien la desviación estándar, saber qué papel juega, saber cuándo puede tener mucho protagonismo y cuándo debe quedar más en un segundo plano.

Resumiendo:

1. Si la variable se ajusta bien a la distribución normal el cálculo de la Media y la Desviación estándar es la mejor opción puesto que mediante ellos se tiene perfectamente caracterizada la distribución de la población de donde se ha tomado la muestra.

2. Si la variable no se ajusta bien a una distribución normal es conveniente dar la Mediana y el Rango intercuartílico. La media y la desviación estándar, en este caso, pueden llevar a inferencias rutinarias peligrosas. De hecho, la desviación estándar es muy buen descriptor pero peligroso. Bien usado perfecto, pero mal usado puede llevar a inferencias muy alejadas de la realidad.

Observemos en la siguiente tabla de un artículo de medicina cómo se presenta la información en una Estadística descriptiva. Las variables cualitativas con la frecuencia absoluta y, entre paréntesis, la frecuencia relativa. Las variables cuantitativas cuando no se dice lo contrario se expresa la media más menos la desviación estándar y, en muchas ocasiones, indicándolo, se expresa con la mediana y el rango intercuartílico (IQR). Observemos, también, que, a veces, se presenta el rango, expresado mediante el mínimo y el máximo:

Captura de pantalla 2015-10-15 a las 10.11.53

Captura de pantalla 2015-10-15 a las 10.12.20

Solución Situación 41

El experimento está configurado por tres factores. El factor Tipo de Hospital, fijo, y a dos niveles. El factor Aparato o Sistema de desinfección, fijo, también, y a dos niveles. El factor Sala, aleatorio y anidado en Hospital. Por lo tanto, Hospital y Aparato están cruzados y Aparato y Sala también.

El modelo es el siguiente:

captura-de-pantalla-2016-12-23-a-las-11-06-13

Si aplicamos el Algoritmo de Bennet-Franklin tenemos las siguientes esperanzas de los cuadrados medios:

IMG_7091

A partir de estas esperanzas de los cuadrados medios debemos hacer los siguientes cocientes en los contrastes de hipótesis de este modelo:

IMG_7092

La tabla ANOVA es, pues, la siguiente:

IMG_7094

Esto nos da la siguiente estimación de los parámetros y de las componentes de la varianza:

IMG_7095

El cálculo de la componente de la varianza del residuo sale del valor de cuadrado medio del residuo en la tabla ANOVA. Las otras dos de los siguientes cálculos a partir de las esperanzas de los cuadrados medios:

IMG_7093

Evidentemente la componente de la varianza de la interacción entre Aparato y Sala, anidado dentro de Hospital, ya hemos visto que no era significativa, en la tabla ANOVA. La estimo para que se vea cómo se realiza. En ocasiones aunque no sea significativa es interesante estimarla y dar el valor de esa estimación. Evidentemente, si la estimación es negativa en ningún caso se dará tal estimación. Una varianza nunca puede ser negativa. Es un artefacto de la estimación. Al ser la componente tan insignificante, puede que por azar la estimación sea negativa. En este caso no se diría que la componente de la varianza estimada es -3,04 sino que se diría que es, simplemente, 0.

Situación 41: Un problema de ANOVA

Supongamos que se ha ensayado en dos Hospitales (Uno de segundo y otro de tercer nivel) dos aparatos (A y B) para eliminar, en las salas, la contaminación ambiental. Para ello se toman al azar tres salas en cada uno de esos dos Hospitales. Se ensaya un día (un viernes por la tarde) mediante un aparato. Antes de empezarse con el tratamiento se toma una muestra de un metro cúbico de aire y se inicia entonces el proceso que dura una hora. Una vez finalizado el proceso se espera tres horas y entonces se toman dos muestras de un metro cúbico cada una y se evalúa el porcentaje de reducción de las unidades formadoras de colonias (ufc)/m3 en cada una de ellas. La semana siguiente, también un viernes por la tarde, se sigue exactamente el mismo procedimiento con el otro aparato.

Los datos obtenidos son los siguientes:

IMG_7081

Se quiere saber si hay diferencias significativas en cuanto a la eficacia del tratamiento entre Hospitales de segundo y tercer nivel, entre los dos aparatos y entre salas. Se quiere saber, también, si hay alguna interacción destacable.

Solución Situación 40

La respuesta correcta es la «c». Cuando se comparan dos métodos diagnósticos mediante curvas de este tipo el criterio es que es mejor método el que tiene una mayor área bajo la curva. Y la VS tiene un área mayor que la VTD.

Las curvas COR o ROC (en el orden de palabras inglés) es un mecanismo globalizado para poder evaluar una variable como método diagnóstico. En el Tema 23: Análisis ROC se explica cómo es la confección de esas curvas. En resumen, dado un método diagnóstico, lo que se hace es ir cambiando el umbral, el punto de corte, del valor de una variable para clasificar a un paciente entre dos opciones (tener o no la patología que se pretende diagnosticar). De esta forma se establece una medida de calidad del método diagnóstico. El área bajo la curva creada es uno de esos criterios.

La opción «a» no es cierta porque no es cierto que sean similares porque el área bajo la curva sea superior al 50% (generalmente los valores de área bajo la curva se dan en tanto por 1; en este caso diríamos, pues, 0.5). El criterio es que el área bajo la curva sea lo más próximo a 1, lo que indica que el método consigue una mejor calidad diagnóstica.

La opción «b» no es cierta porque la curva se aproximará más al ángulo superior izquierdo si él área es mayor y quien tiene un área bajo la curva mayor es la VS y no la VTD.

La opción «d» no es cierta porque la prevalencia no afecta ni a la sensibilidad ni a la especificidad, que son los dos conceptos con los que se configuran las curvas ROC. Afecta, eso sí, al Valor predictivo positivo y al Valor predictivo negativo, como puede verse en el artículo Sensibilidad, Especificidad, Valor predictivo positivo y Valor predictivo negativo.

La opción «e» no es cierta, tampoco. Precisamente el principal uso de esas curvas es para valorar la calidad de alguna variable cuantitativa, como las dos propuestas, para establecer un mecanismo diagnóstico. La RMN aparece, aquí, como el Gold standard que actúa como referencia de calidad de las dos variables obtenidas mediante el eco-doppler. El mecanismo que nos dice si realmente hay o no estenosis. Estenosis que queremos diagnosticar mediante esas dos mediciones que estamos comparando. Hemos de tener en cuenta que para valorar la calidad de un método diagnóstico debemos basarnos en una muestra de pacientes con la patología y otra muestra sin ella, para evaluar la calidad de la variable estudiada como método diagnosticador.

Situación 40: Una pregunta del MIR sobre curvas ROC

Queremos validar el eco-doppler carotídeo como prueba de cribado de la estenosis carotídea asintomática. Para ello comparamos los parámetros velocimétricos del eco-doppler velocidad sistólica (VS) y velocidad telediastólica (VTD), frente al resultado de la RMN (estenosis sí/no). En una curva COR se obtiene un área bajo curva para la VS de 82% y para la VTD de 70%. Señale la correcta:

1) Estos resultados indican que ambos test son similares, ya que en ambos el área bajo la curva es superior al 50%.
2) La curva VTD se aproxima más al ángulo superior izquierdo de la gráfica COR.
3) La VS es un mejor test diagnóstico.
4) Nos falta conocer la prevalencia de la enfermedad para poder saber qué parámetro es mejor.
5) El empleo de curvas COR no es apropiado para valorar la validez de parámetros cuantitativos frente a la RMN.

Solución