Archivo del Autor: estadisticallopis

Test HSD de Tukey

El Test HSD (Honestly-significant-difference) de Tukey es un test de comparaciones múltiples. Permite comparar las medias de los t niveles de un factor después de haber rechazado la Hipótesis nula de igualdad de medias mediante la técnica ANOVA. Es, por lo tanto, un test que trata de perfilar, trata de especificar, una Hipótesis alternativa genérica como la de cualquiera de los Test ANOVA.

Se basa en la distribución del rango estudentizado que es la distribución que sigue la diferencia del máximo y del mínimo de las diferencias entre la media muestral y la media poblacional de t variables normales N(0, 1) independientes e idénticamente distribuidas.

Se establece así un umbral, como en otros métodos, como el Test LSD (Ver Herbario de técnicas). Se calculan todas las diferencias de medias muestrales entre los t niveles del factor estudiado. Las diferencias que estén por encima de ese umbral se considerarán diferencias significativas, las que no lo estén se considerarán diferencias no significativas.

IMG_4998

Observemos que el test está diseñado para el mismo tamaño muestral por nivel, por esto aparece esta n común. Si tenemos tamaños muestrales distintos se toma entonces como n la media armónica de esas medias. La media armónica de dos medias es la siguiente:

IMG_5003

Para nuestro caso debería generalizarse a t medias simplemente sustituyendo el 2 por el número t.

Para ver cómo funciona la distribución del rango estudentizado veamos una tabla donde se buscarían estos valores:

IMG_4999

Observemos que en la tabla hay un valor de el número de medias, en la nomenclatura seguida por nosotros sería la t, los t niveles del factor. En la tabla le llama k. Los grados de libertad son el N-t nuestro. La tabla da umbrales para dos niveles de significación alfa: 0.05 y 0.01.

Finalmente, para poder comparar esta técnica de comparaciones múltiples con las otras que suelen utilizarse leer el artículo Comparación entre técnicas de comparaciones múltiples.

Test LSD de Fisher

El Test LSD (Least significant difference) de Fisher es un test de comparaciones múltiples. Permite comparar las medias de los t niveles de un factor después de haber rechazado la Hipótesis nula de igualdad de medias mediante la técnica ANOVA. Todos los tests de comparaciones múltiples son tests que tratan de perfilar, tratan de especificar, tratan de concretar, una Hipótesis alternativa genérica como la de cualquiera de los Test ANOVA.

El Test se basa en la creación de un valor común, un umbral, basado en un test de la t de Student. Se realizan todas las diferencias entre medias de los t niveles. Las diferencias que estén por encima de este umbral indicarán una diferencia de medias significativa y las diferencias que estén por debajo indicarán una diferencia no significativa:

IMG_4997

Los paquetes estadísticos calculan este valor de LSD y a partir de él, calculan todas las diferencias de medias posibles y valoran cuáles están por encima y cuáles están por debajo de este umbral. Así acaban diseñando cuál es el perfil de la Hipótesis alternativa elegida mediante el ANOVA previo.

Para comparar las diferentes técnicas de comparaciones múltiples es recomendable leer el artículo Comparación entre técnicas de comparaciones múltiples.

Ejemplo de determinación del tamaño de muestra

Veamos un ejemplo en un artículo científico de cómo se cita la determinación del tamaño de muestra:

IMG_4979

Al calcular el tamaño muestral en un estudio con una variable dicotómica, como la de este trabajo: mortalidad (La gente tratada o no tratada se valora si muere o no muere después de un tiempo determinado), se necesita tener un valor estimado de la proporción de uno de los grupos. En este caso hablan del grupo control y dicen que anticipan que debe ser del 45%.

Establecen un error alfa (Aceptar la Hipótesis alternativa siendo cierta la Hipótesis nula) del 0.05 y un error beta (Aceptar la Hipótesis nula siendo cierta la Hipótesis alternativa) del 0.2. Digo 0.2 porque dicen que la potencia es al menos del 80% (=0.8, en tanto por uno).

Normalmente el error alfa se coge de este orden, 0.05, y el error beta de 0.2 ó menor. El que se tome un error beta superior al alfa es por la razón de que es más grave, en Ciencia, rechazar una Hipótesis nula cierta que no aceptar una Hipótesis alternativa cierta.

Consideran que para detectar una reducción del 20%; o sea, pasar del 45% del control al 36% del grupo de los tratados (El 20% de 45 es 9; si a 45 le restamos 9 tenemos 36), con estos errores alfa y beta.

El artículo dice que esto valdría para incluso que al final el valor de la mortilidad del grupo control sea del 37%. Y, como mínimo, se considera que la reducción de la mortalidad entre los tratados debe ser del 20% estaremos pasando de un 37% del grupo control a un 29.6% de los tratados (El 20% de 37 es 7.4; si a 37 le restamos 7.4 tenemos 29.6).

Vamos estos cálculos hechos con el calculador del link que aparece en el tema dedicado a la Determinación del tamaño de muestra.

Primero veamos la muestra que se requiere si el control tuviera el 45% y el tratamiento al menos con una reducción del 20%:

IMG_4980

Para esto necesitaríamos 466 valores de cada grupo, como puede leerse en el calculador.

Veamos qué pasaría si el grupo control tuviera una mortalidad del 37%:

IMG_4981

Ahora el tamaño de muestra necesario sería 635 por grupo.

Ellos en el artículo dicen 1200 (600+600). En realidad, en este caso más bajo, si la proporción del control fuera del 37% y hubiera una reducción del 20%, debería tomarse una muestra de tamaño 1270 entre los dos grupos.

Odds ratio versus Hazard ratio

Dos conceptos estadísticos muy usuales en el lenguaje de la Medicina son el concepto de Odds ratio (Ver el tema dedicado a las Medidas de la relación entre variables cualitativas) y el concepto de Hazard ratio (Ver los temas dedicados al Análisis de supervivencia y a la Regresión de Cox).

Vamos a delimitar uno y otro a través de un ejemplo que espero que aclare las similaridades y las diferencias entre ellos.

Supongamos dos tratamientos contra un determinado tipo de cáncer: El tratamiento 0 y el tratamiento 1. Supongamos, también, que a los 10 años se analiza cuántos de los tratados de una forma u otra, en un estudio clínico, han presentado metástasis y cuántos no la han presentado. Supongamos que los datos son los siguientes:

IMG_4991

En cada tratamiento, de los 20 tratados, a los 10 años 10 tienen metástasis y 10 no. Esto nos da una Odds ratio (OR) de 1. No hay ventaja de un tratamiento respecto de otro, visto desde los 10 años, y sin más perspectiva temporal que esa, la de los 10 años.

La OR es una mirada a una relación en un momento temporal, prescindiendo de lo que ha pasado en el recorrido hasta llegar allí. Es una mirada estática. La Hazard ratio (HR) es, por el contario, una mirada dinámica, es una mirada al recorrido, es una relación entre recorridos. Diferentes estudios pueden tener una misma OR pero con HR muy diferentes, como vamos a ver en este ejemplo.

Veamos, pues, ahora la información no desde los 10 años, sino durante los 10 años. Veamos el recorrido de cada tratamiento durante esos 10 años. Supongamos que las 10 metástasis de cada grupo de tratamiento se producen a lo largo de estos años según uno de los tres patrones distintos A, B y C que se muestran a continuación:

IMG_4993

Las cosas, evidentemente, son bien distintas según tengamos un patrón u otro. En A, en B y en C la relación entre los dos tratamientos es completamente distinta. Viendo cuidadosamente los datos ya se puede apreciar perfectamente la diferencia. En A no hay diferencias, en B es mejor el tratamiento 1, porque la metástasis llega más tarde. En C, finalmente, el mejor es el tratamiento 0, porque es ahora en él que las metástasis llegan más tarde. Pero, veámoslos con más detalles.

En A el perfil es muy similar en ambos tratamientos, es prácticamente igual. El Hazard ratio (HR) es, entonces, 1. Observemos la curva de supervivencia y la función de riesgo de los dos tratamientos. En ambos casos, la función de un tratamiento y la del otro son prácticamente iguales. El HR lo que hace es establecer una relación entre ambas curvas, entre ambas funciones, y, en este caso, la relación es 1, porque están prácticamente solapadas:

IMG_4994

En B los perfiles de un tratamiento y del otro son, ahora, muy distintos. El tratamiento 1 tiene menor riesgo que el tratamiento 0. La función de riesgo del tratamiento 1 va por debajo de la del tratamiento 0. La curva de supervivencia del tratamiento 1 va, entonces, lógicamente por encima. El HR es 0.25. La HR es una relación entre curvas, entre funciones; es una cuantificación de la posición relativa de una función respecto de la otra. En este caso la relación es entre la curva del tratamiento 1 respecto a la del tratamiento 0 y se hace, siempre, respecto a la función de riesgo. Veamos las curvas de supervivencia y las funciones de riesgos de ambos tratamientos, especialmente las funciones de riesgo donde vemos que la del tratamiento 1 está unas cuatro veces, en promedio, por debajo de la del tratamiento 0:

IMG_4995

En C los perfiles de los dos tratamientos también son muy distintos. Pero ahora ocurre justo todo lo contrario (porque, observemos, que los datos son los mismos pero cambiados de posición). El tratamiento 1 tiene ahora mayor riesgo que el tratamiento 0. El HR es ahora 4, porque la relación entre la función de riesgo del tratamiento 1 y la función de riesgo del tratamiento 0 es, en promedio, 4. Veamos ahora las curvas de supervivencia y las funciones de riesgos de ambos tratamientos y veamos cómo la función de riesgo del tratamiento 1 va unas cuatro veces por encima de la función de riesgo de la función del tratamiento 0:

IMG_4996

La HR, por lo tanto, cuantifica la posición relativa de una función de riesgo respecto de la otra. Es un cociente de funciones. Tiene en cuenta no el final de un recorrido sino la dinámica de ese recorrido. Esto es un elemento claramente diferencial respecto a la OR que mira las cosas en un punto estático. Digamos, pues, que la OR es estática y la HR es dinámica.

Tanto en OR como en HR hay que prestar siempre mucha atención qué está en el numerador del cociente y qué está en el denominador de la relación. Porque que sea la OR o la HR mayor que 1 o menor que 1 cambia completamente el sentido de la relación. En nuestro caso, la HR está dando la relación entre la función de riesgo del tratamiento 1 respecto a la función de riesgo en el tratamiento 0.

En muchos artículos de Medicina donde se exponen OR o HR se acostumbra a informar de qué tratamiento o condición tiene más o menos riesgo a la derecha y a la izquierda del 1, para que no haya dudas en la interpretación.

Observemos, también, un fenómeno también común de la OR y de la HR: la distinta escala a la izquierda y a la derecha del 1 pero con valores paralelos: observemos en nuestro caso que una HR da 0.25 y la otra da 4. Porque son equivalentes (valores intercambiados en el caso B y el C): una hacia la izquierda y la otra hacia la derecha del 1 (1/4 ó 4/1). Cuatro veces menos riesgo de una respecto a la otra o cuatro veces más riesgo de una respecto de la otra.

Las escalas en la Odds ratio

La Odds ratio es una medida del grado de relación entre dos variables cualitativas (Ver Tema dedicado a esas medidas) o entre una cualitativa y una cuantitativa (Ver el Tema dedicado a la Regresión logística).

Es una medida muy habitual en Medicina. En este ámbito la variable cualitativa: tener o no tener una determinada patología, por ejemplo, es nuclear.

La Odds ratio es una medida que va de 0 a infinito. Con el 1 como punto donde cambia el sentido del tipo de relación entre las variables relacionadas. Del 0 al 1 tenemos un significado opuesto al de la zona del 1 al infinito.

Son, de hecho, dos zonas con escalas distintas. Como estamos hablando de una relación (una ratio): el 10 es equivalente a 0.1, el 100 lo es de 0.01, y así sucesivamente. Equivalente en cuanto a magnitud de la relación pero opuesto en cuanto al sentido de la relación. El la correlación de Pearson (Ver el Tema dedicado a la Correlación) el signo es lo que marca este distinto sentido.

Es habitual ver en artículos de Medicina una representación de las Odds ratio en gráficos con un cambio de escala a izquierda y derecha del 1, como el que se muestra en el gráfico siguiente extraído de un artículo de una importante revista en Medicina:

IMG_4982

Suelen dibujarse intervalos de confianza del 95%. Aquí, evidentemente lo importante, para evaluar la significación es, como ya hemos visto en el tema dedicado a las medidas de la relación entre variables cualitativas, que el intervalo no contenga al 1, porque si lo contiene significa que la relación entre esas dos variables tanto puede ser de un sentido como del contrario. Está todo abierto acerta de la relación. Por lo tanto, hemos de mantener, todavía la Hipótesis nula de Odds ratio igual a 1, que es lo que podemos decir antes de hacer cualquier tipo de estudio de relación entre estos tipos de variables.

Solución Situación 15

IMG_4919IMG_4905

Explicaciones:

1. Una correlación incluso tan grande como 0.9 podría no ser significativa si el tamaño de muestra fuera muy pequeño. El Error estándar es una desviación estándar. Es la desviación estándar de una predicción. Y la Odds ratio es una medida de la relación entre dos variables cualitativas o entre una cualitativa y una cuantitativa.

2. Una Odds ratio nunca es menor que cero. La pendiente de una recta de regresión puede ser, evidentemente, positiva o negativa. Si el intervalo de confianza del 95% de una Odds ratio contiene al 1 se trata, entonces de una Odds ratio no significativa. Y una Odds ratio de 1 indica una no relación entre la variables que estemos relacionando.

3.El Kappa es un índice para evaluar el grado de concordancia entre dos observadores, no es una media del grado de relación entre variables cuantitativas. Si la r es significativa y positiva va asociada a una pendiente positiva, nunca a una pendiente negativa.Una r singnificativa puede ir asociada tanto a una pendiente positiva como negativa. Si un intervalo de confianza del 95% de la pendiente de una Regresión lineal simple no contiene al 0, como ocurre en el intervalo (0.5, 1.9) indica que la pendiente es significativa y si tenemos una pendiente significativa es porque tenemos una correlación r significativa.

4. El área desde -7 a -1 la podemos desglosar en dos zonas: Desde -7 hasta -3 se trata de la Media más menos 2 DE, que es 68.5. A esto hay que sumar el área que hay desde -3 hasta -1 que es 0.1575-0.025=0.1325, porque a la derecha de -3 el área es 0.1575 pero hay que restarle el área que hay a la derecha de -1, que es 0.025. Al final si sumamos 0.685 y 0.1325 tenemos un área de 0.8175, que con tres decimales es 0.817.

5.El Error estándar es 5/raiz(25) que es 1. Entonces la media más menos dos Errores estándar da el intervalo (48, 52).

6. Si se revisa el Tema que introduce a las técnicas de comparación queda claro que cuanta mayor dispersión tengamos en un estudio más dificultad tendremos para detectar diferencias. En cambio, con un mayor tamaño y con mayor diferencia entre las medias muestrales más posibilidades tendremos de detectar diferencias.

7. Si nuestro p-valor es igual a 0.0001 rechazamos la Hipótesis nula, no la aceptamos. La pregunta especifica que este p-valor es de un contraste cualquiera, ello no implica que no haya normalidad. Únicamente indicaría eso si el contraste fuera sobre la normalidad, pero no en general. Y ese valor de 0.001 no indica la probabilidad de equivocarnos al aceptar la Hipótesis alternativa. La probabilidad de equivocarnos aceptando la Hipótesis alternativa queda concretada por el nivel de significación elegido, para el contraste, inicialmente, antes de empezar el estudio, por ejemplo: 0.05. El p-valor nos sirve únicamente par ver si estamos por encima o por debajo de ese nivel de significación, no es una probabilidad de error. Si el contraste es sobre la Odds ratio y el p-valor es 0.0001 efectivamente rechazaremos la Hipótesis nula de que la Odds ratio poblacional es 1.

8.Si son variables continuas, como sucede en nuestro caso, si son muestras independientes, como evidentemente sucede también en nuestro caso y una de las dos muestras no es normal hay que hacer un Test de Mann-Withney para comparar dos poblaciones.

9.Si tenemos muestras, en Estadística, nunca podemos asegurar que una es mayor que otra, siempre hay una probabilidad de error, pero es que menos en nuestro caso donde no tenemos una diferencia significativa. La diferencia no es significativa, por lo tanto, nada de decir que la media B es mayor que la de A. Tampoco podemos decir que la media de B sea superior a la de A pero que nos falta tamaño muestral para confirmarlo. Falta tamaño muestral pero no para confirmar nada, sino para ver cuál es mayor porque en este momento no podemos decir nada. La afirmación correcta es decir que prácticamente seguro que serán diferentes pero con la información de que disponemos todavía no podemos decir cuál es mayor a nivel poblacional, porque la diferencia que vemos ahora es muestral y no es una diferencia significativa, como marca este p-valor de 0.45.

10. Un valor muestral y un valor poblacional tienen digamos naturaleza completamente distinta. El muestral es cambiante, cambia según la muestra, el poblacional es fijo, es un valor desconocido pero fijo. Es verdad que una mediana muestral se aproxima bien a la mediana poblacional si la variable estudiada sigue la distribución normal, y en general de hecho, pero esto no quiere decir que sean iguales. La normalidad de una variable significa que la mediana de una muestra sea igual a la mediana de la población. Si fuera así la Estadística sería infalible, claro. Tampoco se cumple si la media muestral es la media del primer y tercer cuartil.

Solución Situación 14

IMG_4901

IMG_4902

Explicaciones:

1. La cierta es la c, cuanta mayor correlación hay entre las variables independientes más colinealidad entre ellas y más aumenta el error estándar de las estimaciones (Ver Tema dedicado a la Regresión múltiple).

2. Como la Odds ratio en una Regresión logística es ea, donde a es el coeficiente que multiplica a la variable independiente estudiada, entonces si a<0 entonces  ea<1. Por lo tanto, la respuesta a es la correcta.

3. Una correlación significativa irá asociada a una pendiente positiva o negativa según sea la correlación positiva o negativa. La respuesta c es la correcta.

4. La respuesta correcta es la a. Si el intervalo del coeficiente es (-5, 7) esto indica que la Odds ratio puede tener valores positivos y negativos y que, por lo tanto, un intervalo de confianza de ella incluye al 1.

5. La c es la correcta. Si la correlación es 0.78 con un p-valor inferior a 0.05 evidentemente estamos ante una correlación significativa.

6. La respuesta d es la correcta. Ninguna de las tres es cierta. Ni es válida para la Regresión simple, porque precisamente lo que hace es seleccionar variables cuando tenemos dos o más variables independientes, ni nos da medianas, ni sirve para construir intervalos de confianza de la media.

7. La b es la correcta. Este intervalo de confianza de la Odds ratio incluye al 1, luego estamos ante una Odds ratio no significativa. Mantendremos la Hipótesis nula de OR=1.

8. Un valor de ji-cuadrado de 4.33 si no sabemos ni el tamaño de muestra, ni el número de filas, ni el número de columnas de las tabla de contingencias, no podemos saber si es grande o pequeño, no podemos hablar de significación. Falta información. La d es la correcta.

9. Un intervalo de confianza del 95% de la pendiente no incluye al cero, luego la pendiente es significativa. La pendiente y la correlación en una Regresión lineal simple van de la mano. La significación de una indica la significación de la otra. Estamos, pues, ante una correlación significativa. La respuesta correcta es la c. La b no, porque nos dice que la correlación es significativa, y esto no es así: como la pendiente es positiva la correlación también será positiva.

10. Cuando hablamos de una correlación mayor que otra hablamos siempre, primero, de que sea una correlación significativa, y, luego, en términos de valor absoluto. Observemos que la primera correlación queda descartada porque no es significativa. Entre las otras tres la que tiene un valor absoluto mayor es la correlación -0.56. La respuesta correcta es, pues, la b.

Test de McNemar

El objetivo es comparar dos proporciones en datos apareados, en datos que han sufrido dos tratamiento o dos condiciones que se quieren comparar. La situación es, pues, como la expresada en el siguiente gráfico, con el siguiente contraste de proporciones y con el estadístico de test siguiente:

IMG_4977

Para ver un ejemplo de su aplicación: Ejemplo