Archivo del Autor: estadisticallopis

Test de Mann-Whitney

El Test de Mann-Whitney es un test no paramétrico que contrasta la igualdad de medianas de dos poblaciones. A este Test también se le llama, a veces, Test de Mann-Whitney-Wilcoxon o, también, Test de Wilcoxon de la suma de rangos.
Consiste en realizar nxm comparaciones: todos los valores de una muestra se comparan con los de la otra y se cuenta el número de veces que los de una muestra son superiores a los de la otra. El estadístico de test U es ese contador.

IMG_4615

Test de Wilcoxon

El Test de Wilcoxon es similar al Test de los signos pero no sólo tiene en cuenta los signos sino que tiene también en cuenta el valor absoluto de las diferencias de cada valor muestral respecto al valor mo de Mediana poblacional que se quiere contrastar. O sea, tiene en cuenta los rangos, por esto se le conoce, también, como el Test de los rangos con signo de Wilcoxon. No hay que confundirlo con el Test de la suma de rangos de Wilcoxon que es como se llama, a veces, al Test de Mann-Whitney. El Test de los rangos con signo, que es el que estamos viendo ahora, es para muestras relacionadas, apareadas. El Test de la suma de rangos es para muestras independientes.

Se suele utilizar, como el Test de los signos, para contrastar la igualdad de medianas en datos apareados en los que no se cumplen las suposiciones para realizar el Test de la t de Student. En este caso se restan uno a uno los valores apareados de ambas muestras y se contrasta la Hipótesis que la Mediana poblacional es cero.

IMG_4614

Test de los signos

En el Test de los signos se contrasta si la Mediana poblacional tiene un cierto valor mo. El estadístico de test consiste en contar el número de valores muestrales que están por encima de este valor mo. Por esto se cuenta el número de valores positivos.

Un ámbito donde se suele aplicar este Test es para muestras apareadas donde se quiera contrastar la igualdad de medias y no se cumplen las condiciones para realizar un Test de la t de Student de datos apareados. En este caso se restan los valores muestrales, individuo por individuo, y se realiza este contraste con mo=0.

IMG_4613

ANOVA de dos factores a efectos fijos

En el ANOVA de dos factores a efectos fijos tenemos tres contrastes a realizar, uno por cada factor y la interacción. Pensemos que estamos en factores cruzados. En ANOVA si hay más de un factor si no se dice lo contrario los factores están cruzados.

La clave en estos tres contrastes de hipótesis es qué cocientes hay que hacer a la hora de dividir cuadrados medios (MS) en la F-ratio. Por eso pongo las esperanzas de los cuadrados medios. Viendo esas esperanzas y bajo la Hipótesis nula vemos por qué los cocientes son los que son. Se trata de que los cocientes, bajo la Hipótesis nula tengan la misma esperanza. De esta forma valores pequeños de la F-ratio nos permitirán mantener la Hipótesis nula y, por el contrario,  valores grandes de la F-ratio nos permitirán rechazarla y pasarnos a la Hipótesis alternativa.

 IMG_4608

ANOVA de dos factores a efectos mixtos

En el ANOVA de dos factores a efectos mixtos, uno fijo y uno aleatorio, tenemos tres contrastes a realizar, uno por cada factor y otro para la interacción. Pensemos que estamos en factores cruzados. En ANOVA si hay más de un factor si no se dice lo contrario los factores están cruzados.

La clave en estos tres contrastes de hipótesis es qué cocientes hay que hacer a la hora de dividir cuadrados medios (MS) en la F-ratio. Por eso pongo las esperanzas de los cuadrados medios. Viendo esas esperanzas y bajo la Hipótesis nula vemos por qué los cocientes son los que son. Se trata de que los cocientes, bajo la Hipótesis nula tengan la misma esperanza. De esta forma valores pequeños de la F-ratio nos permitirán mantener la Hipótesis nula y, por el contrario,  valores grandes de la F-ratio nos permitirán rechazarla y pasarnos a la Hipótesis alternativa.

IMG_4607

Funciones de distribución

1. Una función matemática es un tipo de relación establecido entre dos o más variables. Cuando escribimos y=f(x) estamos estableciendo una relación entre la variable “x” y la variable “y”.

2. Una de las peculiaridades de la funciones matemáticas es que pueden ser usados como modelos de relaciones entre variables reales.

3. En Estadística las funciones matemáticas más utilizadas como modelos son las llamadas funciones de distribución.

4. Las funciones de distribución son modelos de la variabilidad, modelos de la forma de la variación que tiene una variable. En esas funciones la variable «x», en la típica estructura de una función: y=f(x), son los valores que se pueden dar de la variable estudiada y los valores de la variable «y», son la probabilidad de que se den; o sea, la abundancia relativa de ese valor en la población.

5. Las funciones de distribución, como su nombre indica, son representaciones de cómo, potencialmente, puede distribuirse una variable. Y no lo olvidemos: son funciones matemáticas. No son variables reales como la altura, el peso, el número de hermanos, el ser hombre o mujer, etc. Lo que sucede es que se han construido de tal forma que pueden actuar de maquetas de esas variables reales, porque modelizan bien su variabilidad.

6. Es evidente que no se distribuye de la misma forma una variable como el número de hermanos que tiene una persona, su altura, el sexo o el grado de dolor que tiene una persona tras una cirugía.

7. La normal, la binomial, la Poisson, la Bernouilli, la exponencial, etc., son distintas distribuciones, distintas formas de dibujar, matemáticamente, a través de una función, la variabilidad con la que se nos presentan las variables que estudiamos.

8. La modelización estadística, en general, consiste en la representación de una situación estadística real mediante un modelo matemático.

9. Una de las modelizaciones estadísticas más usuales es la de la variabilidad de una variable mediante una función de distribución.

10. El contraste de hipótesis de la modelización estadística es siempre: H0: El modelo se ajusta a la realidad. H1: El modelo no se ajusta.

11. En el caso concreto de una función de distribución el contraste es: H0: La variable sigue una distribución determinada. H1: No la sigue.

12. Por ejemplo, es muy habitual en Estadística el contraste siguiente: H0: La variable sigue una distribuión normal. H1: No la sigue.

13. Estos contrastes siguen la misma operatividad que siguen todos los contrastes de hipótesis estadísticos: una muestra y una técnica que decide, proporcionando un p-valor, si tiene sentido, a la luz de lo que dice la muestra, mantener la hipótesis nula o si debemos rechazarla y aceptar la alternativa.

14. Todas las técnicas estadísticas cuyos contrastes de hipótesis ajustan una función de distribución a unos datos se denominan técnicas bondad de ajuste a una distribución. En la sección Herbario de técnicas se pueden consultar varias de ellas.

15. Vamos a ver a continuación las distribuciones más usadas como modelos de la variación. En la siguiente tabla podemos ver el nombre de la distribución, la nomenclatura habitualmente usada y su función de densidad:

IMG_4547

16. Es importante conocer cuál es la esperanza y cuál es la varianza de cada una de estas distribuciones. De esta forma tenemos un valor de referencia de cada una de ellas: el valor promedio y la dispersión de sus valores:

IMG_4548

17. Y estas distribuciones tienen, evidentemente, unas formas peculiares. Las tres primeras sólo tienen probabilidad valores enteros (son distribuciones discretas), las otras dos tienen probabilidad intervalos reales (son distribuciones continuas). Las dos primeras además de ser discretas son finitas (sólo tienen probabilidad un número finito de valores: dos la distribución Bernouilli y n+1 la distribución Binomial. Es la peculiar forma de cada una de ellas lo que nos sirve de modelo de la variabilidad. Veamos la forma general de cada una de estas distribuciones:

IMG_4550

18. Los parámetros de cada distribución, que son las letras entre paréntesis en la nomenclatura de la distribución, son como las tallas del modelo. Una vez adaptada (ajustada, solemos decir los estadísticos) una distribución a una variable real conviene seleccionar el valor más adecuado del parámetro, o de los parámetros, a los datos que se tienen de la variable en la muestra. Esto es como cuando compramos unos zapatos, primero elegimos el modelo y luego la talla. Con la talla buscamos un ajuste del zapato a nuestro pie. Pues esto también hacemos con las distribuciones.

19. Entre la distribución Binomial, la Poisson y la Normal existen posibilidades de usar unas por otras en determinadas circunstancia. Esto se basa en el hecho de que en esas circunstancias en las que es posible la aproximación los contornos, las formas, la distribución de probabilidades, se aproxima mucho entre ellas. Y muchas veces calcular áreas mediante una distribución Binomial o una Poisson es largo y pesado, en cambio pasar a una distribución es muy sencillo y rápido.

20. Veamos a continuación el mapa de estas aproximaciones:

IMG_4553

21. Las aproximaciones son, como puede verse, de la Binomial a la Poisson, de la Binomial a la Normal y de la Poisson a la Normal. En rojo están las condiciones en las que esto es posible. Y en negro están cómo se calcula el parámetro o los parámetros de la nueva distribución a partir del parámetro o de los parámetros de la antigua.

22. Como se puede ver la distribución normal es finalmente una distribución muy utilizada tanto como representación de la variabilidad de una variable en la naturaleza, porque muchas variables tienen un compartamiento de campana de Gauss, y porque muy frecuentemente otras distribuciones (la binomial y la Poisson) se pueden aproximar a una normal y los cálculos en ésta son mucho más sencillos.

23. Para ver con detalle las peculiaridades de la distribución normal puede consultarse el artículo dedicado a ella. Allí se podrá comprobar el uso de las tablas de la normal.

24. Alguien pensará: ¿Y la distribución t de Student? ¿Y la distribución F de Fisher? ¿Y la distribución ji-cuadrado de Pearson? Estas no son distribuciones usadas como modelo de la variación. Pero son muy importantes en Estadística, evidentemente. Son usadas continuamente. Pero son usadas como distribuciones de estadísticos de test en ciertos contrastes.

25. Estas tres distribuciones (la t de Student, la F de Fisher y la ji-cuadrado de Pearson) se les denomina distribuciones derivadas de la normal, porque son las distribuciones de ciertos estadísticos si la variable de estudio es una distribución normal.

26. Veamos un caso de aplicación de una distribución Binomial:

IMG_5206

27. Veamos, ahora, un caso de aplicación de una distribución Poisson:

IMG_4562

28. Veamos un caso de una distribución Normal (Ver el artículo dedicado a la Distribución normal donde se explican la estandarización y el uso de la tabla de la N(0, 1)):

IMG_4563

29. Para ver cómo se maneja la tabla de la distribución normal para poder calcular esas áreas puede consultarse el artículo dedicado a esa distribución.

30. Y ahora un caso de aplicación de una distribución Exponencial:

IMG_4565

31. Veamos a continuación dos problemas donde se usa la posibilidad de aproximar una función de distribución por otra función de distribución. Las aproximaciones que usaremos son las vistas en el cuadro descrito en el punto 20. Veremos que en el caso de usar una aproximación de una función Binomial o Poisson mediante una distribución Normal, es recomendable hacer una corrección por aproximación de una distribución discreta por una distribución continua.

IMG_5266

32. Esta corrección por aproximación, como podemos ver en el apartado 2 del problema anterior, es importante. Puede comprobarse, porque esta resuelto sin aplicar y aplicando la corrección, que el resultado cambia sensiblemente. Para entender este concepto pensemos que estamos calculando la probabilidad de que el valor sea igual o superior a 120. Si lo calculamos mediante la distribución Normal calculamos área a partir sólo del 120, dejando el espacio del 119 al 120 como área sin contar. Se suele coger desde la mitad de estos valores para que una mitad vaya a un lado y la otra mitad al otro. Se consiguen así mejores aproximaciones.

33. Veamos el otro problema de aproximaciones de una distribución por otra distribución:

IMG_5267

34. Obsérvese que ahora, como lo que se pide es la probabilidad de ser mayor estricto a 12, la corrección se aplica contando el área a partir de 12, porque en realidad es como si tuviéramos que calcular la probabilidad de que la variable discreta fuera igual o mayor que 13.

Una clase transcrita: «Introducción a la noción de distribución»

        Vamos a empezar hoy la clase jugando: Voy a pensarme un número entero del 1 al 100. ¡Ya lo he pensado! Ahora se trata de que vosotros lo adivinéis a base de preguntas que me podéis ir haciendo, y a las que yo puedo contestar únicamente: sí o no.

        Seguro que inmediatamente se ha generado en vosotros un estado de duda: «¿Qué número será?» Vamos a intentar representar este estado de duda mediante una función matemática. Sí, digo bien, mediante una función matemática.

         Recordemos -pues se trata de un concepto fundamental- que una función, en matemáticas, es una regla mediante la cual a todo elemento de un conjunto, llamado dominio, se le asigna un único elemento de otro conjunto, llamado recorrido o codominio. Algo tan sencillo y a la vez tan complejo como eso. De hecho es lo que empezasteis a estudiar en la primaria. Recordad.

         Como vosotros no me conocéis, tampoco debéis de conocer mis preferencias en cuanto a números, por lo tanto, es coherente representar vuestro estado de duda con una función que asigne un valor constante; o sea, que asigne el mismo valor a todos los números que yo puedo haber pensado: 1, 2, 3, … , 100. A los que no pueden ser les asignaremos, también a todos ellos, el mismo valor y distinto al anterior. Además, una función definida en los números reales, que a los números que no puedo haber pensado les asigne el cero y a los que, por el contrario, sí pueda haber pensado, les asigne un valor distinto del cero, parece ciertamente coherente para modelar este estado de duda.

         No perdamos de vista lo que en realidad estamos haciendo. Estamos intentando traducir a lenguaje matemático lo que está en vuestra cabeza, vuestro estado de duda. Estamos traduciendo un estado, digamos, cerebral a un lenguaje matemático. Estamos creando una maquinaria construida con piezas matemáticas: conjunto de los números reales, función, etc., para utilizarla como un dibujo de un estado real.

         Asignemos el valor que asignemos a los números 1, 2, 3, … , 100, con la condición que sea el mismo para todos y distinto de cero, estaremos reflejando de forma abstracta este estado de duda generado con el juego. Pero por convenio podemos adoptar la siguiente opción: les daremos un valor encaminado a que la suma de todos ellos resulte ser uno. Podríamos adoptar otros convenios, por ejemplo que la suma fuera cien, veintiuno o treinta y dos. Pero para situarnos dentro de una teoría generalmente adoptada, que veremos más adelante, adoptaremos el uno, por lo que la posibilidad, de cada uno de los números factibles, la representaremos en tanto por uno. En nuestro caso, a cada uno de los números posibles le asignaremos el valor 1/100, para que la suma de los cien valores sea uno.

         Por lo tanto, la función creada tiene una forma como la que sigue:

 IMG_4555

         Si ahora se me hace alguna pregunta, mi respuesta posiblemente cambie el estado de duda y por consiguiente también la función que lo trata de representar o modelar. A ver, ¿quién me hace una pregunta?

         – ¿Es un número par?

         Me preguntan si se trata de un número par. Yo respondo: ¡No!.

         Fijaos: Al responder que no a la pregunta de vuestro compañero, automáticamente se produce un cambio de estado de duda en vosotros. ¿Cómo reflejar esta transformación mediante lenguaje matemático? Es como si, de repente, en la función anteriormente creada, los palos de los números pares se encogieran hasta el cero y los de los números impares ascendieran recogiendo lo que los pares han dejado. Como la altura total debe ser uno, si unos números ceden altura otros la deben de tomar para sí. Tendremos, pues, ahora, una nueva función: los números impares del 1 al 99 tendrán asignado el valor 1/50 y el resto el cero. La función será la siguiente:

 IMG_4556

         Sucesivamente, si se me van preguntando cosas, se irá haciendo cada vez más concreta la función hasta que finalmente la posibilidad esté toda concentrada en un único número, justo el que había pensado inicialmente.

         Cada estado de duda tiene su función matemática que lo puede representar. Esto es lo fundamental.

         Supongamos que estamos de nuevo en la posición inicial. No me habéis hecho ninguna pregunta todavía. Os pido ahora que me hagáis una pregunta tal que mi respuesta genere en vosotros un estado de duda que, para ser representado matemáticamente, necesite la creación de un modelo, de una función, donde los valores con posibilidad no tengan todos la misma, como sí ha ocurrido en el caso anterior. ¿Me entendéis?

         Venga, pues. ¿Quién se atreve?

         – ¿Tiene dos cifras el número?

         Mira. Fíjate que si yo respondo que sí todos los números que están formados por una única cifra pasan a tener probabilidad cero, pero entre todos los demás no tienes ninguna razón para dar más probabilidad a unos o a otros. ¿Te das cuenta?

         Venga, pues. Otra pregunta.

         – ¿Es número primo?

         Tampoco. Fíjate. Si yo te digo que no, ¿qué ocurre? ¿Cómo modelarías vuestro estado de duda? Todos los números que no fueran el 1, 2, 3, 5, 7, etc, que son los números primos, todos ellos tendrían la misma probabilidad y yo pido, fíjate bien, una pregunta que mi respuesta origine la necesidad de crear un modelo en el que los números posibles no tengan la misma posibilidad.

         -¿Es un número próximo al 50?

         ¡Exacto!.¡Perfecto! Esto es lo que quería. Yo a esta pregunta respondo que sí. Entonces: ¿Cómo dibujar mediante una función vuestro estado de duda actual? Observad bien que ahora todos los números siguen teniendo algo de posibilidad, pero los centrales, los próximos a 50, tienen más posibilidad, porque yo he respuesto que sí a la pregunta de vuestra compañera. El problema es que, según la idea de proximidad que tenga cada uno de los participantes en el juego, la función será distinta. Pero tendrán todas ellas algo en común: la unidad de posibilidad a repartir estará más concentrada en valores centrales y cuanto más nos alejemos del centro más deberá disminuirse la altura o los valores asignados a aquellos números. Una posible función de las muchas posibles sería la siguiente:

 IMG_4557

         ¿De acuerdo? ¿Me habéis seguido? ¿Alguna duda?… ¿No?

         Cambiemos de juego. Si lanzamos al aire una moneda, la situación es parecida, pero más sencilla de modelar matemáticamente. Estamos de nuevo ante una situación de incertidumbre porque hay variabilidad de valores posibles. Una variabilidad más pequeña que antes, pero lo cierto es que antes de lanzar no sabemos el resultado que vamos a obtener. Fijaos que si a cara le asigno el valor 0 y a cruz el 1, antes de lanzar la moneda parece coherente dibujar el estado de duda, acerca de cuál será el desenlace del juego, mediante una función que asigne un valor de 1/2 al 0, de 1/2 también al 1 y cero al resto de los números reales. Por lo tanto, esta función será una traducción a lenguaje matemático de un estado mental.

         Puesto que ahora, después de haber hecho todo lo que hemos hecho, puede que ya os empiece a gustar este inesperado uso de unos conceptos matemáticos que creíamos muy alejados de la realidad, vamos a intentar representar, mediante lenguaje matemático, otra situación. Supongamos que queremos pronosticar la altura que tendrá la primera persona que pase por la calle cuando salgamos. Alturas nos podemos encontrar desde un mínimo si es que pasa un niño, hasta un máximo que lo podemos cifrar en la altura máxima en humanos. Pero las posibilidades sabemos que no son las mismas para esta enorme variedad de alturas con las que en potencia podemos encontrarnos. Fijémonos que la popular campana de Gauss puede reflejar esta situación. Un buen dibujo del estado de duda generado ahora sería una función en forma de campana que tuviera el máximo próximo al número que prevemos que sea la altura media de la población en la que estamos realizando el juego. Y si queremos ser más precisos, la altura media de los que pueden circular por aquella calle y a aquella hora.

         Esta situación última es un poco más sofisticada que las anteriores, pero esencialmente la misma. En definitiva, utilizamos estructuras matemáticas para reflejar estados reales, para reflejar la organización de la variabilidad, para dibujar nuestra incertidumbre. Esta  perspectiva de la matemática puede sorprender de entrada, pero debemos ver que toda la metodología utilizada en los estudios secundarios es parte de un contexto más general donde existe una serie de estructuras matemáticas que tienen su dimensión aplicada.

         La variabilidad la encontramos en todas partes. La longitud de un organismo cualquiera, el peso, cualquier medida que estudiemos en él. El tiempo de vida de un organismo, de una lámpara. El número de coches que irá a una gasolinera en una hora, el número de llamadas telefónicas a un determinado número en un día. Todas éstas son situaciones donde se presenta variabilidad. Mediante funciones como las que hemos visto y como las que iremos viendo a lo largo del curso intentaremos  modelar esta variabilidad.

         La estadística es el estudio de la variabilidad. Es el estudio de la variabilidad realizado mediante las herramientas aportadas por las matemáticas. Donde hay variabilidad la estadística tiene algo que decir. Las situaciones que hemos planteado anteriormente son situaciones de variabilidad. Variabilidad de números que yo he podido pensar, variabilidad de los resultados posibles en el lanzamiento de una moneda, variabilidad de alturas en una población.

         La estadística es, pues, el arte de utilizar estructuras matemáticas para responder a preguntas acerca de la variabilidad que hay en una población, en una población que se nos escapa por enorme o por impredecible. Estas imágenes con las que hemos empezado son una caricatura, pero una caricatura de lo que es en realidad la actividad estadística. Además, estas imágenes recogen bien los rasgos fundamentales sobre los que descansa este esfuerzo de decir cosas de un todo a partir de una pequeña parte de este todo.

         Podemos distinguir como mínimo dos mundos: En primer lugar, el de nuestra realidad, de las cosas que nos rodean; o sea, el mundo de los animales, de los vegetales, de las bacterias, de los hombres y de todos nuestros objetos. En segundo lugar, el mundo de los objetos matemáticos; o sea, el mundo de los conjuntos, de las funciones, de las matrices, etc.

         El mundo de los objetos matemáticos es un mundo que tiene una realidad al margen del nuestro. Ésta es una distinción que guiará continuamente nuestro recorrido y nos ayudará a comprender la verdadera naturaleza de la actividad estadística. Pensemos que la estadística es una forma de hacer matemáticas, por lo tanto, es importante situar bien qué es en realidad lo que hacemos cuando hacemos matemáticas.

         La matemática ha sido siempre básicamente, a lo largo de toda la historia, una diversión útil. Una diversión que ha entretenido a muchos hombres a lo largo de la historia, pero una diversión que ha ido dejando su sedimento, y del que la humanidad ha ido sacando paulatinamente provecho. Este entretenimiento, esta diversión, ha dado lugar, ciertamente, a una de las piezas más extraordinarias del espíritu humano. Si uno se sorprende ante un cuadro de Goya o ante una sinfonía de Mozart, no causan menor sorpresa muchos de los conceptos matemáticos que han sido creados a lo largo de la historia.

         Un curso de matemáticas es un viaje a otro mundo. Un viaje es, sin duda -supongo que estaréis de acuerdo conmigo- más atractivo si el camino se realiza tocando lo que se ve. El mundo de la matemática se digiere mejor tocando los objetos que se van viendo por el camino. El mundo de las cosas que nos rodean ha sido creado a base de millones de años, el de la matemática tiene tan sólo unos pocos miles de años, pero tiene una riqueza que impresiona a quien se introduce en él. En este curso viajaremos por el mundo de las matemáticas y tocaremos todo lo que veamos en él. Además, crearemos cosas, añadiremos cosas a este mundo. Crearemos objetos para que habiten en el mundo de las matemáticas.

         Las matemáticas pueden verse como un gran museo. Un museo donde se exponen creaciones humanas. Para mirarlas hay que realizar un esfuerzo intelectual considerable. Por ejemplo, ante una función deberemos agudizar nuestra mirada. Ver qué pasa en las proximidades de un punto cualquiera, qué sucede cuando nos alejamos hacia un extremo de la gráfica, etc. Los conjuntos y las funciones son las piezas que descansan en los pedestales, pero hay un enorme repertorio de carteles escritos, como teoremas, que han ido dejando visitantes ilustres, en los cuales constan leyes generales que pueden encontrarse entre toda aquella inmensa masa de fascinantes piezas.

         En el museo de las matemáticas algunos objetos son, además, herramientas para entender otros objetos. Se trata de un sistema profundamente interconectado. No son piezas aisladas. El museo está constituido de una red no visible de conexiones que, visitas sucesivas a él, nos van permitiendo desentrañar. Estamos, además, ante un museo que tiene algo ciertamente muy especial, algo que no ocurre en ningún otro museo: es un mundo abierto. Al salir, si hemos agudizado nuestro ingenio y nuestros deseos de crear, podemos dejar, en su interior, nuestras propias creaciones.

         La idea de museo nos aportará una dimensión importante para ver de otra forma las matemáticas. Normalmente un estudiante ante una pregunta acerca del límite de una función en un punto, acerca de la derivada de una función o acerca del desarrollo de Taylor de una función suele ver un problema meramente de cálculo. Éste es en gran parte el problema de las matemáticas. Las operaciones, el cálculo, son una fachada que no deja ver lo que hay dentro y que es realmente lo interesante. Hay que descubrir que estos cálculos tienen una finalidad fundamental: conocer unas formas, unas formas, en la mayor parte de los casos, bellas y sorprendentes. Tanto el límite de una función en un punto, como la derivada de una función, como un desarrollo de Taylor y otras muchas técnicas matemáticas, son herramientas para conocer mejor los verdaderos protagonistas de la escena matemática: las funciones. Hay que cambiar el enfoque en la mirada matemática.

         El museo de la matemática tiene, finalmente, una característica que lo transforma en un recinto ciertamente especial: sus límites no tienen límite, su ubicación está allí donde una cabeza humana, preparada para imaginar, comience a tocar y a descubrir los entresijos de unas piezas que se mueven mediante la fuerza de una profunda reflexión. El mundo de los objetos matemáticos se expone allí donde alguien esté dispuesto a pensar.

         Bueno, hasta el próximo día.

Tema 16: DETERMINACIÓN DEL TAMAÑO DE MUESTRA

 

1. La pregunta que más se le hace a un estadístico es: «¿Qué tamaño de muestra necesito?».

2. El problema que tiene esta pregunta es que, así, sin más, no tiene respuesta. Es una pregunta que engendra preguntas porque el estadístico, sin más información, no puede decir nada, como veremos a continuación.

3. Es conveniente diferenciar dos ámbitos distintos en la determinación del tamaño de muestra: a) Cuando hacemos una predicción. b) Cuando hacemos un contraste de hipótesis. Empezaremos planteando el primer caso y, en concreto, ejemplificado en la predicción de una media poblacional.

4. El radio (r) de un intervalo de confianza de la predicción de la media poblacional, la Desviación estándar (DE) y el tamaño muestral (n) mantienen una relación que puede expresarse en una ecuación muy importante en Estadística:

IMG_4906

5. Recordemos que un intervalos de confianza de la media como, por ejemplo: (5, 15), tiene como radio 5 y como diámetro tendría 10. Y recordemos, también, que estos intervalos tienen un porcentaje de confianza. Recordemos, también, que esta expresión la podemos deducir de todo lo visto en el Tema 3: Intervalos de confianza.

6. Esta constante k dependerá de ese porcentaje de confianza con el que queramos expresar el pronóstico. En el caso de que estemos trabajando con la media poblacional y en caso de seguir, nuestra variable, la distribución normal, o, si no es así, que el tamaño muestral sea grande (superior a 30) este valor de k, si el nivel de confianza es del 95%, es aproximadamente 2.

7. Por lo tanto, la ecuación quedaría así:

IMG_4907

8. Vamos a reflexionar algunas cosas importantes que se desprenden de esta importantísima igualdad.

9. Esta ecuación no aparece por arte de magia, surge de la fundamental noción de Error estándar (EE), cuya expresión recordemos que, para el pronóstico de la media poblacional, es EE=DE/raiz(n).

10. De hecho, ya lo hemos dicho en diferentes ocasiones, que en cualquier estimación, en cualquier pronóstico, está implicado el Error estándar. El EE es una DE, pero es la DE de una predicción. Esto es lo que lo caracteriza.

11. Pero, además, hemos visto también que la noción de EE era fundamental para la construcción del intervalo de confianza del 95%.

12. Y en la ecuación r=2•DE/raiz(n) la parte derecha de la igualdad es esa expresión de dos veces el error estándar.

13. Otra forma de expresar esa ecuación, despejando la n, es:

IMG_4908

donde ya la tenemos en la forma deseada, porque lo que queremos es determinar el tamaño de muestra, la n, en un estudio concreto.

14. Una vez tenemos la ecuación podemos hacer afirmaciones a partir de ella. En una ecuación la posición relativa de los conceptos es muy importante. Veamos: Si hay mucha dispersión necesitamos más n. Si hay poca dispersión no necesitaremos tanto tamaño de muestra. La relación entre n y la DE es directa. A más DE más n. A menos DE menos n.

15. Si necesitamos una precisión grande en nuestras predicciones; o sea, un radio r pequeño, entonces deberemos tener una muestra grande. Si no necesitamos mucha precisión; o sea, si no precisamos un radio r muy pequeño, la muestra podrá ser menor. Por lo tanto, el tamaño de muestra está relacionado de forma inversa con ese radio del intervalo.

16. O sea, a la hora de elegir un tamaño de muestra debemos saber qué precisión necesitamos y qué dispersión podemos prever que tendremos en la futura muestra. Necesitamos saber, pues, cómo será la muestra que aún no tenemos.

17. Esta paradoja es importante: para elegir un tamaño de muestra ideal necesitamos saber cómo será la dispersión de esa futura muestra.

18. El conocimiento de lo que todavía no conocemos lo debemos suplir por información de otros estudios previos o por una muestra piloto, una pequeña muestra previa, una premuestra, que nos permita hacer una previsión de la dispersión que tenemos en el estudio.

19. Respecto a la precisión requerida en el estudio, expresada ésta por el radio del intervalo (r), no siempre uno sabe lo que le interesa o lo que necesita. En este caso lo que uno quiere es estar lo más cerca del valor que estima. Pero es necesario especificar, de antemano, esa precisión porque de ello depende el tamaño de muestra que hemos de tomar. Porque está en la ecuación.

20. Un ejemplo: Estamos estudiando la media de altura de una población adulta y queremos construir un intervalo de confianza del 95% de la media poblacional cuyo radio no sea mayor que 1; o sea, queremos construir un intervalo de confianza con el valor de la media muestral más menos 1.

21. Observemos que a partir de la ecuación n=4•DE2/r2 sabemos r que vale 1, pero nos falta saber DE. Si sabemos, por otros estudios, que la DE en estas poblaciones es un valor cercano a 10 ya lo tenemos todo para determinar el tamaño de muestra que necesitamos. Entonces el tamaño de muestra ideal para trabajar es: n=4*100/1=400. Con este tamaño de muestra y con esta dispersión podremos construir un intervalo de confianza del 95% de la media poblacional a partir de la media muestral que calculemos a la muestra con un radio de 1.

22. Observemos ahora lo mismo pero visto desde el otro lado: Tomamos una muestra de tamaño 400 y calculamos la media que es, por ejemplo, 170 y la DE que resulta ser, finalmente 10, como ya habíamos predicho por estudios previos. Entonces, al calcular el intervalo de confianza de la media poblacional lo haríamos sumando y restando dos veces el Error estándar. Y el Error estándar, en esta muestra, sería 10/raíz(400)=0.5. El intervalo de confianza sería, entonces, 170±1, que es del nivel de precisión que queríamos.

23. Si la variable es dicotómica (una variable como hombre-mujer o tiene o no diabetes) la fórmula es la misma pero ahora la DE es raíz cuadrada de p(1-p), que es la Desviación estándar de una variable dicotómica. O sea, debemos saber cuál debe ser, aproximadamente, el valor de p que acabaremos estimando para ponerlo en la ecuación. Ante la duda se elige como p el valor de 0.5 que nos daría el máximo valor posible de tamaño muestral. Supongamos que queremos estimar la prevalencia de la diabetes en un país y queremos determinar el tamaño de muestra. Sabemos por otros estudios que debe estar en torno al 10% (0.1 en tanto por 1). Queremos tener un radio del intervalo del 1%. Entonces la fórmula sería: n=4*0,1*0,9/0,0001=3600. El 0,0001 es por el 0,01 al cuadrado. La fórmula general en una variable dicotómica es, pues:

img_3388

24. Con esto hemos visto que el tamaño de muestra n en un caso de estimación de un valor poblacional, en un caso de un pronóstico poblacional, es una función de la DE y de la precisión requerida, expresada como el radio del intervalo de confianza. Sin estos dos valores no es posible determinar el tamaño de muestra requerido; o sea, expresado en forma funcional, podemos decir que n es función de DE y de r:

IMG_4909

25. Sorprende mucho a todo no estadístico que consulta por el tamaño de muestra que necesita (lo repito porque es muy importante que quede muy claro)  que precise de la DE antes de coger la muestra, porque es precisamente la muestra la que le acabará dando esa DE. Es aparentemente un círculo vicioso, pero es así. No hace falta tener un valor exacto pero sí aproximado de cuál será la DE con la que se encontrará. Esto puede llegar a saberlo por estudios previos equivalentes hechos por otros o mediante una muestra piloto, o premuestra.

26. Cuando el problema es determinar el tamaño de muestra en un contraste de hipótesis la situación es otra (Recordemos que en el punto 3 hemos visto que la determinación del tamaño de muestra es conveniente verla en dos ámbitos por separado). Entran en juego, ahora, muchos más elementos. En el caso, por ejemplo, de un contraste de la diferencia de medias tendríamos ahora una función de cuatro variables como la siguiente:

IMG_4910

donde alfa es el nivel de significación, 1-beta es la potencia, DE es, como antes, la Desviación estándar y d es la diferencia mínima que interesa detectar.

27. Una función, pues, que depende de cuatro factores, de cuatro valores. Necesitamos más cosas, pues, que antes. Veámoslas una a una: La primera, la alfa, es la menos problemática, es el nivel de significación, es el error de tipo I (Ver el artículo La noción de potencia estadística), solemos fijarla siempre en el valor 0.05.

28. La 1-beta es la potencia estadística (Ver, de nuevo, también, el artículo La noción de potencia estadística). Interesa que sea un valor alto. La beta es, como se puede ver también en ese artículo citado, el denominado error de tipo II, un error que no está fijado de antemano, como sí sucede con el error de tipo I, y que, por lo tanto, conviene conocerlo, puesto que para que el procedimiento de decisión sea bueno deben ser pequeños los dos tipos de error que se pueden cometer. La potencia suele aceptarse que a partir de 0.8 es ya una potencia considerable. Lo ideal, no obstante, sería tenerla de 0.95.

29. Con la DE pasa lo de antes, necesitamos buscar información de estudios similares o tomar una premuestra para saber aproximadamente cuál es su valor.

30. La d suele ser compleja. Al estadístico es lo que le cuesta más conseguir del profesional que necesita de la Estadística. Es, en el caso de tratarse de una comparación de medias, la diferencia mínima que interesa detectar, la diferencia mínima relevante desde el punto de vista médico, económico, lingüístico, etc. (Ver el Tema 9: Significación formal versus Significación material). Podríamos decir que esa d es el valor mínimo por el que tendría valor haber hecho la propia comparación. Un ejemplo, si se trabaja con pacientes hipertensos con media 160 y se ensaya un antihipertensivo se puede fijar una diferencia mínima a detectar de 20 (que baja a 140 la presión, como mínimo), puesto que si es menos de eso no será un buen antihipertensivo.

31. Existen fórmulas para casos específicos, como sucede con la siguiente fórmula para el Test de la t de Student de una muestra:

IMG_4551

32. Observemos que esta fórmula es interesante para entender todos los conceptos de los que estamos hablando en este tema. Hay en el numerador del cociente interior al paréntesis dos constantes: una que depende de la alfa y otra que depende de la beta. Dependen, pues, ambas constantes, del error que estemos dispuestos a cometer en el proceso de decisión. Cuanto menor sea alfa y beta más grandes serán esas constantes y, por lo tanto, mayor será el tamaño de muestra. Además, como puede verse perfectamente en esta fórmula, en un contraste de hipótesis la determinación del tamaño de muestra es una función de cuatro variables.

33. Existen aplicaciones diferentes muy bien diseñadas para poder elegir el tamaño muestral necesario para un estudio determinado. Pero es fundamental entender todo lo comentado en este Tema para poder usar esas aplicaciones y saber interpretar lo que obtenemos con ellas. Y es básico, además, porque en esta aplicaciones lo primero que te piden es elegir qué tipo de estudio (si comparación de proporciones, de medias, de Odds ratio, etc) y después qué DE tienes, la diferencia mínima a detectar, la potencia que quieres tener, etc.

34. Un enlace excelente para practica todo esto es el siguiente:

http://www.imim.es/ofertadeserveis/software-public/granmo/

35. Unos comentarios para el uso de este enlace. Cuando se comparan dos poblaciones se pide la relación entre los tamaños de muestra. Si es que conviene o es inevitable tener más muestra en una u otra población. Si no es así se añade un 1, que simboliza que puede ser el mismo tamaño muestra. También pide una previsión de los valores que pueden perderse al ir analizando. Esto está pensando para casos donde sea previsible perder un porcentaje de muestra más o menos previsible. Si no se prevé pérdida se pone un 0 en esta opción. Por otro lado el manejo es bastante sencillo. La alfa suele elegirse 0.05, la beta 0.2 ó menos (por lo tanto, potencia 0.8 ó más), la DE la que podamos saber o prever y la diferencia a detectar la mínima que uno está dispuesto a aceptar como relevante antes de empezar el trabajo.

36. Y ahora un breve comentario final a las situaciones de muestras de poblaciones finitas. Nos referimos a situaciones donde la población es pequeña y puede modificar el tamaño de muestra. Hasta ahora estábamos bajo el supuesto de poblaciones lo suficientemente grandes como para considerarlas infinitas.

37. Veamos una fórmula usual que nos ayudará a aclarar las cosas:

IMG_4988

38. Como puede verse es una modificación de una que hemos visto al iniciar este tema. La N es el tamaño de la población. Evidentemente si este valor es muy grande los dos cocientes donde participa se hacen tan pequeños que son insignificantes. Si, por el contrario, esta N es pequeña estos cocientes pueden modificar la n necesaria para tener un determinado tipo de precisión y deberemos tenerla en cuenta.

39. A continuación muestro una tabla donde se expresan los cálculos de estas n en condiciones diferentes (en función del radio r y del tamaño poblacional):

IMG_4987

La noción de potencia estadística

Una noción misteriosa en Estadística es la noción de potencia. Pero es una noción muy importante que conviene delimitar con mucha precisión.

En un proceso de decisión entre dos estados posibles, como ocurre en Estadística en el contraste de hipótesis, siempre podemos cometer dos errores diferentes y, también, como contrapartida, dos aciertos diferentes. Veamos el siguiente gráfico:

IMG_4522

Una cosa es nuestra elección y otra cosa distinta es lo que es cierto. Como es una tabla de dos por dos, hay cuatro situaciones posibles. Dos de acierto y dos de error.

El error de tipo I es el denominado nivel de significación. Este error lo fijamos nosotros y normalmente se elige el valor de 0.05. Recordemos que el contraste consiste en elegir una zona de la distribución del estadístico de test usado para el contraste que tenga esa baja probabilidad bajo la H0 y que esté en una zona donde pese mucho la H1. El criterio de decisión es, entonces, el siguiente: Si el valor del estadístico de test cae en esa zona nos inclinaremos por rechazar la Hipótesis nula, de lo contrario no la rechazaremos, la mantendremos.

El error de tipo II, por el contrario, no está prefijado. La distribución del estadístico de test tiene una dispersión muy distinta dependiendo de la dispersión de la variable estudiada y del tamaño de muestra; o sea, dependiendo del Error estándar. Pero esa distribución será distinta según sea cierta la Hipótesis nula o lo sea la Hipótesis alternativa. Y, además, esas distribuciones al aumentar el tamaño de muestra con la que nos basamos para tomar decisiones, van segregándose, van separándose más. Esto hace cambiar el error de tipo II porque al optar por mantener la Hipótesis nula la probabilidad de que la Hipótesis alternativa sea cierta se reduce muchísimo. En definitiva, el error de tipo II viene dado por las condiciones concretas del test. Al tratar con muestras pequeñas el Error estándar es alto y las distribuciones bajo la Hipótesis nula y bajo la Hipótesis alternativa se solapan mucho. Sin embargo, al tratar con muestras grandes el Error estándar se reduce mucho y esas misma distribuciones se separan y es más factible tomar decisiones con menos posibilidades de error de tipo II.

La potencia es el complementario de ese error de tipo II. Potencia más Error de tipo II suman 1 ó, en tanto por ciento, suman 100. Por lo tanto, minimizar el error de tipo II supone, automáticamente, maximizar la Potencia.

Vamos a ver, todo esto, gráficamente. Observemos el siguiente gráfico:

IMG_1237

La distribución de la izquierda es la distribución supuesta si es cierta la hipótesis nula. Supongamos que es un test unilateral y contrastamos, en la alternativa, que la media es mayor que un cierto valor prefijado en la nula. Por lo tanto, la zona de rechazo de la hipótesis nula está hacia la derecha. Se construirá, entonces, una zona crítica de rechazo, de probabilidad 0.05 (la alfa), que es la zona roja. Si el valor del estadístico es donde apunta la flecha y construyo una distribución con media en ese punto y con la misma dispersión que en la nula podemos calcular todos los valores que nos interesan. La beta, la 1-beta (la potencia). Y esto se expresaría así:

IMG_1240

donde P(A/B) significa la probabilidad de decir A si es cierto B.

En este caso dibujado la beta es muy grande (próxima a 0.5) y la potencia, por lo tanto, es pequeña. En un contraste de hipótesis es muy importante tener potencia elevada. Una potencia igual o superior a 80% se considera ya una potencia elevada. De esta forma minimizamos la posibilidad de equivocarnos en nuestras decisiones. El 5% del error de tipo I es fijo y el error de tipo II lo debemos hacer lo más pequeño posible. Esto lo conseguimos con contrastes basados en muestras lo suficientemente grandes para alcanzar estos valores de referencia. Así conseguimos crear en Estadística procedimientos de decisión de mayor calidad, procedimientos más fiables, con menos errores.

La dispersión de estas curvas dibujadas depende del error estándar que tengamos; o sea, de la DE y de la n. La DE no depende de nosotros, pero la n sí. Veamos cómo quedan dibujados los diferentes conceptos implicados:

IMG_1237

Podemos aumentar el tamaño de muestra del estudio. Si aumentamos el tamaño de muestra nos encontraremos con una situación considerablemente mejor. Menor beta y mayor potencia:

IMG_1239

Tenemos, ahora, un contraste muy bueno. Con una beta muy baja y una potencia elevada.

Suele decirse que una baja potencia nos sirve para delimitar aquellas situaciones en las que no rechazamos la Hipótesis nula muy posiblemente por tener tamaños de muestra pequeños. Esto es cierto. Muchas veces, tamaños de muestra pequeños impiden ver diferencias que existen en la realidad. Pero la potencia, también, nos puede servir para criticar un estudio en el que ha salido un p-valor inferior a 0.05. Si es un estudio con poca potencia tampoco tiene el nivel de fiabilidad que, a priori, le podríamos dar viendo el p-valor que vemos.

De hecho, para darle una vuelta más a este importantísimo concepto estadístico, se puede decir que con la potencia tenemos un segundo mecanismo de seguridad en un contraste de hipótesis. Es como asegurarse más de las decisiones. Si sólo tuviéramos el nivel de significación, el p-valor, tendríamos menos protección. Al añadir la potencia tenemos un segundo mecanismo de seguridad, de control.

Por lo tanto, en un contraste no basta tener un p-valor pequeño sino tener una potencia grande. Observemos los tres gráficos mostrados a continuación. En los tres veremos que el valor del estadístico cae en zona crítica; o sea, el p-valor es menor que 0.05 pero la potencia es completamente distinta. El tamaño de muestra en el primer caso es bajo y por eso hay mucha dispersión en la distribución del estadístico de test. Sin embargo, el caso del medio y, especialmente el de abajo, en el que hay más tamaños de muestra progresivamente, conseguimos, al tener menor error estándar, separar más la distribución bajo la hipótesis nula y bajo la hipótesis alternativa (que es la construida sobre el valor obtenido en el estadístico de test). Ambas distribuciones se van separando cuanto más tamaño de muestra tengamos. Esto genera una situación de mayor potencia.

Supongamos los dos casos que se plantean a continuación:

IMG_1246

A la izquierda estamos comparando dos muestras de tamaño 3 con una diferencia de medias considerable (las medias muestrales son 10 y 25) y  con una Desviación estándar de 10. El p-valor que obtenemos es de 0.29, luego mantendríamos la Hipótesis nula de igualdad de medias. Pero mediante un calculador de la potencia, como el GRANMO, tenemos que la potencia es del 46%; o sea, que el error de tipo II es del 54%. Esto es demasiado error. El estudio no sería aceptable.

A la derecha estamos comparando dos muestras de tamaño 10 con una diferencia de medias considerable (las medias muestrales son, también, aquí, 10 y 25) y  con una Desviación estándar de 15. El p-valor que obtenemos es de 0.048, luego rechazaríamos la Hipótesis nula de igualdad de medias. Pero mediante un calculador de la potencia, como el GRANMO, tenemos que la potencia es del 61%; o sea, que el error de tipo II es del 39%. Esto es, también, demasiado error. El estudio no sería aceptable.

Por lo tanto, con la potencia tenemos un segundo mecanismo de control, un segundo nivel de seguridad. El p-valor nos ayuda a decidir si hemos de mantener la hipótesis nula o pasarnos a lo que dice la hipótesis alternativa, pero la potencia da un segundo nivel de control. Una potencia elevada (superior al 80%) nos dirá que la interpretación que hagamos del p-valor está basada en un contraste lo suficientemente fiable desde el punto de vista del tamaño de muestra.

Por lo tanto, es muy importante, antes de hacer un estudio, delimitar el tamaño de muestra necesario para tener la potencia mínima exigible. De esta forma optimizamos el proceso de decisión.

Todo esto que acabamos de ver puede quedar complementado con el Tema 16: Determinación del tamaño de muestra que es un ámbito en el que la noción de potencia adquiere una importancia capital.

Veamos los tres casos siguientes:

Captura de pantalla 2015-05-03 a las 20.29.12

Captura de pantalla 2015-05-03 a las 20.30.35

Captura de pantalla 2015-05-03 a las 20.35.06

Son tres ejemplos donde si hacemos una t de Student de varianzas iguales tenemos un p-valor inferior a 0.05 (marcado en rojo) pero mediante el calculador de tamaño de muestras GRANMO se observa que la potencia es muy baja. Menor del mínimo aceptable del 80%.

Patologías en función de la edad y el sexo

Este gráfico publicado por el grupo del Institue for Health Metrics and Evaluation, en The Lancet, permite evaluar, en poco espacio, mucha información. Puede verse la distribución de una serie de patologías en función de la edad y el sexo. Se trata realmente de un gráfico de mucho valor. Detrás hay un estudio multicéntrico extraordinario. Con él puede verse cuál es el actual mapa de patologías en función del sexo y de la edad.

IMG_4515