Archivo de la categoría: COMPLEMENTOS

El patrón común de los contrastes de hipótesis

Uno de los objetivos fundamentales de la Ciencia es tomar decisiones. Decisiones acerca de cómo debe de ser lo que no vemos (lo poblacional) a partir de la información que extraemos de lo que vemos (la muestra). El contraste de hipótesis estadístico es el principal método mediante el cual se toman esas decisiones en la Ciencia.

En todo contraste de hipótesis el patrón de funcionamiento es siempre el mismo. Es muy importante captar esta idea si se quiere comprender la Estadística y, también, la Ciencia. Karl Pearson decía que la Estadística es la gramática de la Ciencia. Seguramente es en el contraste de hipótesis donde podemos ver mejor los elementos nucleares de esa gramática.

Hay tres elementos básicos en la toma de la decisión:

  1. La diferencia entre el valor muestral y el valor poblacional establecido en la Hipótesis nula. La distancia que hay entre lo que vemos muestralmente y lo que afirmamos sobre la población, en definitiva.
  2. La dispersión que tengamos en la muestra. La variabilidad, lo alejados que estén los valores respecto de la media. La imprevisibilidad, por lo tanto, de los valores que podemos tener.
  3. El tamaño de muestra que tengamos. La cantidad de información que tenemos de la inmensa población sobre la que queremos hablar.

El esquema general en el que relacionamos estos tres factores es siempre el siguiente:

En definitiva, en un contraste de hipótesis, se trata de ver cuán diferente es el cálculo muestral respecto al que se afirma, poblacionalmente, en la Hipótesis nula, que es lo que calculamos en el numerador. Cuanto más próxima a 0 sea esa diferencia más coherente será mantener esa Hipótesis nula. Observemos que el numerador marca la distancia absoluta entre el cálculo muestral y la hipótesis sobre cómo es la población que no tengo.

Sin embargo, este cálculo del numerador que valora la distancia entre lo que veo y lo que afirmo sobre la población quedará matizado por la dispersión y por el tamaño de muestra que tengamos. Observemos bien el cociente: En el denominador tenemos un cociente entre la dispersión y el tamaño de muestra.

Si la dispersión es grande esa diferencia se verá disminuida, si esa dispersión es pequeña esa diferencia entre el valor muestral y el poblacional se verá aumentada.

Lo contrario sucede con el tamaño de muestra: si es grande el tamaño muestral esa diferencia calculada en el numerador se verá aumentada (porque al ser grande el tamaño de muestra el cociente entre la dispersión y el tamaño de muestra se hace pequeña) y si el tamaño de muestra es pequeño esa diferencia se verá disminuida (porque al ser pequeño el tamaño de muestra el cociente entre la dispersión y el tamaño de muestra se hace grande).

Cuanto más próximo a 0 sea este cociente más razonable será mantener la Hipótesis nula y, por el contrario, cuanto más alejado esté de 0 más coherente será rechazarla y pasar a la Hipótesis alternativa.

Veamos estos tres factores cómo influyen para que el cociente sea próximo a 0 ó, por el contrario, sea un valor alejado del cero:

Valores pequeños de diferencia, grandes de dispersión y pequeños de tamaño de muestra hacen que el cociente sea pequeño. Valores grandes de diferencia, pequeños de dispersión y grandes de tamaño de muestra hacen que el cociente se haga grande.

Cada contraste tendrá un umbral para hacer este paso de la Hipótesis nula a la alternativa. El umbral será ese valor que ya hace intolerable la distancia entre lo que vemos y lo que afirmamos en la Hipótesis nula sobre la población.

El p-valor, de hecho, es una forma estandarizada de evaluar este alejamiento del cero. Cuanto menor es el p-valor más alejado estamos del 0 y cuanto más próximo a 1 sea el p-valor más cerca del 0 estamos en este cociente. De hecho, si el valor de la  muestra coincide con el valor poblacional de la Hipótesis nula el p-valor será 1. ¿Hay en esta situación algún argumento coherente para rechazar esa hipótesis?

La frontera del 0.05 en el p-valor es la expresión estandarizada de que estamos justo sobre el umbral de tolerancia del mantenimiento de la Hipótesis nula.

Veamos en los siguientes cinco ejemplos de contrastes de hipótesis: Contraste sobre la correlación de Pearson, Contraste de una proporción, Contraste de comparación de proporciones, Contraste de una media y Contraste de comparación de medias:

Obsérvese que siempre estamos haciendo un cociente como el que hemos escrito antes, conceptualmente, un cociente entre la diferencia entre lo muestral y lo que afirmamos poblacionalmente en la Hipótesis nula y el valor de otro cociente: el que hay entre la dispersión y el tamaño de muestra que tenemos.

A la derecha de cada cociente tenemos la distribución de ese cociente en el caso de que fuera cierta la Hipótesis nula, que es lo que nos permite fijar un umbral o calcular un p-valor como criterio para decidir si mantenemos la Hipótesis nula o, por el contrario, la rechazamos y nos quedamos con la Hipótesis alternativa.

Base de datos de la evolución del MM en pacientes con demencias

Tenemos la siguiente base de datos de pacientes con demencias diagnosticadas:

Variables:

P=Paciente

S=Sexo (h=hombre; m=mujer)

E=Edad

EVC=Enfermedad vascular central (s=sí; n=no)

EVP=Enfermedad vascular periférica (s=sí; n=no)

D=Diabetes (s=sí; n=no)

MM0=Mini Mental en el diagnóstico

MM3=Mini Mental a los 3 años

MM5=Mini Mental a los 5 años

P S E EVC EVP D MM0 MM3 MM5
1 h 60 s n n 21 20 18
2 h 79 n n n 20 19 16
3 h 71 n s s 23 20 17
4 h 66 n s s 22 19 16
5 m 69 n n s 21 19 16
6 m 62 n n s 24 22 19
7 m 60 s n n 21 19 16
8 m 63 s n n 24 22 19
9 m 77 n s n 23 21 18
10 h 63 n s n 20 18 15
11 h 79 n s n 24 22 19
12 h 55 n s s 23 21 18
13 m 72 n n s 21 19 16
14 m 68 n n n 21 21 20
15 h 81 n n s 23 21 18
16 h 71 n n n 20 19 19
17 m 61 n s s 24 23 20
18 m 76 s s s 23 22 19
19 m 72 s s n 22 21 18
20 m 63 n n n 24 23 20
21 m 67 n n n 21 20 17
22 h 69 n n n 23 22 19
23 h 60 n n n 21 20 17
24 m 64 n n s 22 21 18
25 m 73 n n s 21 20 17
26 m 66 s n n 23 21 18
27 m 76 s n n 22 20 17
28 h 75 n n n 23 21 18
29 m 62 n n s 21 19 16
30 m 78 n n n 24 22 19
31 h 57 n s s 23 21 18
32 h 58 n s s 21 19 16
33 m 63 s s n 23 21 18
34 m 65 n s n 24 22 19
35 m 74 s s n 20 17 14
36 m 61 n n n 24 22 19
37 h 71 n n s 23 21 18
38 m 71 n n n 22 21 18
39 m 63 n n s 24 23 20
40 h 67 n n s 21 20 17
41 h 69 n n n 21 20 17
42 m 63 n n n 21 20 17
43 m 75 n s n 22 21 18
44 m 69 n s n 21 20 17
45 m 62 s s n 24 20 17
46 m 66 s s s 24 20 16
47 h 57 n s n 23 22 19
48 h 62 n s s 21 18 16
49 h 59 n n n 21 20 17
50 m 72 n n s 28 27 24
51 m 78 n n s 24 23 20
52 m 73 s n n 24 23 20
53 m 63 n n n 23 24 21
54 h 65 s n n 23 22 19
55 m 67 n s n 23 22 21
56 m 66 n s n 24 23 20
57 h 75 n n s 22 21 18
58 h 62 n n n 21 20 17
59 m 71 n n s 23 22 19
60 m 59 s s n 22 17 16
61 m 66 n n s 24 23 20
62 m 64 n n s 23 22 19
63 m 65 n n n 22 21 18
64 h 71 n n n 24 23 20
65 h 68 n n n 21 20 17
66 h 73 n n n 21 20 17
67 m 64 n n n 21 20 17
68 m 60 s s s 22 18 15
69 m 76 n n n 21 21 18
70 m 64 n n s 23 23 20
71 h 68 n n n 22 19 16
72 m 63 n n s 23 19 16
73 m 68 n n s 21 19 16
74 h 73 n n n 21 22 16
75 h 62 n n n 23 19 16
76 m 65 n n n 24 23 20
77 m 76 n n n 20 19 16
78 m 61 n n n 24 23 20
79 m 67 n n s 22 20 17
80 m 64 n n n 22 21 18
81 h 64 n n s 23 21 18
82 m 69 n s s 20 17 15
83 m 74 n n n 22 21 20
84 m 57 n n n 24 23 20
85 h 67 n n n 23 22 19
86 h 73 n n n 22 21 18
87 m 74 n n s 21 20 17
88 m 72 s s n 23 20 17
89 m 78 n n s 24 23 20
90 m 68 s s s 22 20 18
91 h 73 n n n 21 20 17
92 m 64 n n n 21 20 17
93 h 75 n n n 23 22 19
94 h 63 n n n 23 23 21
95 m 79 n n n 20 19 16
96 m 77 s n s 24 20 16
97 m 76 n n s 23 22 19
98 m 62 n s n 22 21 19
99 h 70 n n s 24 23 21
100 m 73 n n s 20 20 16

A.Técnicas descriptivas:

  1. Calcular la media, desviación estándar, mediana, primer y tercer cuartil, rango y rango intercuartílico de la variable MM0.
  2. Hacer una estadística básica de la variable Edad (Media y desviación estándar o Mediana y rango intercuartílico).
  3. Hacer un Box-Plot de la variable MM5.
  4. Hacer una estadística de la variable Diabetes.

B.Técnicas de relación:

  1. Calcular la correlación entre la Edad y el MM en el diagnóstico (MM0).

2. Crear una función que pronostique el MM5 a partir del MM0. Valorar la capacidad predictiva.

3. Ver si hay relación entre el sexo y el que en cinco años disminuya más de cuatro (o sea, cinco o más) puntos el MM desde el diagnóstico.

4. Calcular la Odds ratio para ver si hay riesgo o protección, cuantificándolo, entre tener algún problema de riesgo vascular (Enfermedad vascular central, periférica o diabetes) y que en cinco años disminuya más de cuatro (o sea, cinco o más) puntos el MM desde el diagnóstico.

C.Técnicas de comparación:

  1. Comparar si hay diferencias estadísticamente significativas en el nivel del MM a los cinco años (MM5) entre hombre y mujeres.
  2. Comparar si hay diferencias estadísticamente significativas en el nivel de diferencia entre MMO y MM5 (o sea, la caída del MM entre el diagnóstico y los 5 años desde el diagnóstico) entre los que tienen o no algún problema vascular.

 

Situaciones de comparación de dos poblaciones en el mundo Pokémon

Todo lo preparado en este fichero lo ha hecho un alumno al que quisiera agradecer mucho el trabajo realizado. Su nombre es Manel Montblanch Berga.

1. Se ha pedido si se sabía cómo afectaba la pesca de arrastre a las poblaciones de Horsea a 50 estudiantes de Submarinismo y 50 Entrenadores Pokemon. La muestra se ha tomado en igualdad de edades y proporción de sexos. Entre los estudiantes de Submarinismo 14 de los 50 han sabido responder bien a la pregunta y, entre los entrenadores, sólo 5 de 50 lo han hecho correctamente. A partir de este estudio y de esta muestra, ¿se puede decir que hay diferencias, estadísticamente significativas, entre estas personas con diferente oficio/estudios en cuanto al efecto causado por la pesca de arrastre a las poblaciones de Horsea?

2. Se ha aplicado un tratamiento de Bayas Atania para relajar a unos Tentacruel salvajes machos y hembras adormilados en medio de la ruta 118 en Hoenn. En las Tentacruel hembras 5 de 20 respondían favorablemente al tratamiento, en los Tentacruel macho 3 de 20 eran los que respondían favorablemente. ¿Se puede decir que hay diferencias significativas entre sexos en cuanto a la respuesta a este tratamiento?

3. Un centro de investigación de energías naturales que pretende usar la electricidad de Chinchou bien cuidados en las mismas condiciones, decide hacer el siguiente estudio piloto. A un grupo de 100 Chinchou se les ha examinado mediante dos test de electricidad de distintos ataques eléctricos. En primer lugar, a 50 de ellos se les ha pedido que usen impactruenos en una diana con un voltímetro y a otros 50 que usen chispa en otras dianas con voltímetros. Una vez hecho el primer test, se les daban 4 horas de descanso a todos y, luego, cada Chinchou hacia el otro modelo de test. Cada test se evaluaba con un rango de 100 a 1000 voltios, pero, en realidad se quería ver si llegaban o no a los 500 voltios (>500 voltios= apto) con cada ataque porque lo que se quería ver era si el porcentaje de aptos sería el mismo o no usando diferentes ataques. Los resultados obtenidos fueron los siguientes: El ataque impactrueno el 60% fue apto y el ataque chispa el 48% lo fue, con este desglose por subgrupos de valores de la variable:

4. Se quiere comparar las velocidades que pueden alcanzar los Finneon y su evolución Lumineon. Para ello se han usado 9 Finneon de entrenadores y 9 Lumineon de otros entrenadores, todos ellos voluntarios. Mediante una serie de pruebas de natación se evalúan las velocidades de cada uno de estos Pokemon. Las velocidades se miden en metros/segundos y los valores obtenidos son los siguientes:

 

¿Podemos decir que hay diferencias estadísticamente significativas en cuanto a las velocidades de ambas evoluciones de Pokemon?

5. Estamos comparando la cantidad de Slowpoke atacados por la caza furtiva con el fin de comercializar sus colas como alimento que hubo en las regiones de Hoenn y Kalos. En Hoenn hubo 8 acontecimientos y en Kalos 7. Una vez completado los recuentos obtuvimos la siguiente tabla:

¿Podemos afirmar que las diferencias son estadísticamente significativas?

6.Hemos tomado 14 Spheals de entrenadores y entrenadoras al azar del club náutico de Alola (8 machos y 6 hembras) y hemos visto cuantas volteretas pueden dar seguidas. Los resultados obtenidos son los siguientes:

¿Podemos afirmar que las diferencias son estadísticamente significativas?

7. Se ha realizado un estudio sobre la producción de toxinas creadas por Mareanie en diversos puntos de las costas de la ruta 13 en Teselia, y al cabo de 4 años se ha repetido el mismo estudio en las mismas zonas. Se trataba de ver si la producción de toxinas había disminuido o serían estables. Los resultados fueron los siguientes:

¿Podemos afirmar que hay diferencias estadísticamente significativas entre los dos tiempos?

8. Estamos analizando el número de “blooms” bioluminiscentes causados por dinoflagelados que ha habido del día 1 al 9 de mayo, realizando una cuenta diferente cada día, y el número de “blooms” que ha habido los mismos días, pero en el mes de septiembre:

¿Podemos afirmar que hay diferencias significativas entre los dos meses?

Situaciones de comparación de dos poblaciones en Ciencias del Mar

Todo lo preparado en este fichero lo ha hecho un alumno al que quisiera agradecer mucho el trabajo realizado. Su nombre es Arnau Subías Baratau.

1.Se ha estudiado la presencia de microplásticos en dos poblaciones de 50 individuos de zooplancton. La primera población se encontraba en el Océano Índico y la segunda en el Océano Antártico. En la población del Índico, 14 de 50 presentaban microplásticos en su interior, en la del Antártico, sólo 5 de 50. ¿Se puede decir que hay diferencias, estadísticamente significativas, entre estos dos grupos de zooplancton, en cuanto a la presencia de microplásticos dependiendo de su localización?

2.Se ha preguntado a un grupo de mujeres y hombres si estaban de acuerdo con la aplicación de bolsas hidrosolubles para reducir la contaminación oceánica causada por los residuos plásticos. Entre las mujeres 5 de 20 personas estaban de acuerdo con la iniciativa, entre los hombres, sólo 3 de 20 estaban de acuerdo con la iniciativa. ¿Se puede decir que hay diferencias significativas entre sexos en cuanto a la opinión sobre tal iniciativa?

3.Se ha realizado un estudio para estudiar la acidificación en un grupo de 100 corales rojos. Cada coral se colocaba en dos medios con pH diferente. En primer lugar, a 50 de ellos se les colocaba en el medio A y a los otros 50 en el medio B, de pH un poco más ácido, durante un mes. Se dejaba entonces a todos ellos un mes en un medio de igual pH y, al mes siguiente, se colocaba a cada coral en el otro medio. La variable contemplada era si la tonalidad roja del coral (evaluada entre el 0 y el 10), durante el mes que vivía en el medio, era o no superior a 5. Los resultados obtenidos fueron los siguientes:

¿Se puede decir que el porcentaje de los que tienen igual o más de 5 de tonalidad de color rojo es distinto según el tratamiento A o el B?

4.Se quiere analizar la eficacia de un geolocalizador en una población de tiburón blanco. Para ello, se utilizan 18 individuos de tiburón y, a 9 de ellos se les aplica el geolocalizador A y a los 9 restantes el geolocalizador B. La eficacia de dicho localizador se valora del 0 al 10:

¿Podemos decir que hay diferencias estadísticamente significativas en cuanto a la eficacia de ambos geolocalizadores?

5.Estamos analizando la presencia de erizos de mar en las Islas Baleares y en las Islas Canarias. Para ello delimitamos 8 zonas costeras en las Baleares i 7 en las Canarias. Una vez hecho esto apuntamos la cantidad de erizos que observamos en cada zona:

¿Podemos afirmar que las diferencias entre Baleares y Canarias, en cuánto a la presencia de erizos, son estadísticamente significativas?

6.Estamos comparando la cantidad de huevos de tortuga que hay en dos playas diferentes de Costa Rica. En la primera playa se consigue observar la puesta de huevos de 8 tortugas y en la segunda, sólo de 6. En cada puesta se cuentan los huevos que hay:

¿Podemos afirmar que las diferencias son estadísticamente significativas?

7.Se ha analizado la concentración de fitoplancton (en alguna unidad característica) en una serie de zonas oceánicas alrededor del mundo. Dicho análisis se ha hecho dos veces en cada zona, uno en el mes de abril y otro en agosto:

¿Podemos decir que hay un descenso significativo de la concentración de fitoplancton dependiendo del mes en que nos encontremos?

8.Estamos analizando el número de “blooms” bioluminiscentes causados por dinoflagelados que ha habido del día 1 al 9 de mayo, realizando una cuenta diferente cada día, y el número de “blooms” que ha habido los mismos días, pero en el mes de septiembre:

¿Podemos afirmar que hay diferencias significativas entre los dos meses?

Ejemplos de ANOVA

A continuación se podrán seguir una serie de ejemplos de ANOVA. Hay de factores cruzados, anidados. Factores intersujetos (los que no se mencionan expresamente), factores intrasujetos. Pueden verse los valores y los resultados que se obtendrían en los contrastes de hipótesis de los diferentes efectos a buscar en cada análisis. Recordemos que si el p-valor es menor de 0.05 se entiende que hay efecto del factor, significativo, lo que quiere decir que hay diferencia entre los niveles estudiados (si el factor es fijo) o entre la población de niveles de los que los niveles estudiados son una muestra (si el factor es aleatorio). Si el p-valor es mayor de 0.05 no hay efecto significativo, lo que quiere decir que las posibles diferencias muestrales que podamos ver entre los diferentes niveles no son extrapolables a la población.

Base de datos de Obesidad

Tenemos la siguiente base de datos.

P=Paciente

S=Sexo

E=Edad

P=Peso

A=Altura

IMC=Índice de masa corporal

Di=Diabetes

H=Hipertensión

De=Depresión

TS=Trastorno del sueño

TA=Trastorno de la alimentación

P S E P A IMC Di H De TS TA
1 h 35 75 1,7 25,95 Si Si No No Si
2 m 57 88 1,59 34,81 No Si No No No
3 h 40 81 1,66 29,39 No No No Si No
4 h 46 73 1,66 26,49 No No No Si Si
5 m 67 97 1,68 34,37 No No Si Si No
6 m 68 99 1,58 39,66 Si No Si No Si
7 m 65 85 1,56 34,93 Si Si No No No
8 h 60 70 1,65 25,71 Si Si No No Si
9 h 56 94 1,72 31,77 No Si No No No
10 m 66 68 1,51 29,82 No No No No No
11 h 54 87 1,73 29,07 No Si No No Si
12 h 52 87 1,82 26,26 No Si No No No
13 m 65 82 1,58 32,85 No Si Si No Si
14 m 55 79 1,55 32,88 No Si Si No No
15 m 67 91 1,61 35,11 Si No Si Si Si
16 h 45 96 1,78 30,30 No No No Si No
17 h 44 92 1,8 28,40 No No No No Si
18 m 38 65 1,6 25,39 No No No No No
19 h 34 75 1,7 25,95 No Si No No No
20 h 39 84 1,67 30,12 Si Si No No Si
21 m 44 81 1,66 29,39 Si Si No No Si
22 m 44 73 1,66 26,49 Si No Si Si No
23 m 43 97 1,68 34,37 No Si Si Si No
24 h 48 95 1,58 38,05 No Si No No Si
25 h 50 89 1,56 36,57 No Si Si Si No
26 m 44 71 1,65 26,08 No No No No No
27 h 57 94 1,72 31,77 No No No No Si
28 m 59 68 1,51 29,82 Si No Si Si Si
29 h 44 91 1,73 30,41 No No No Si No
30 h 36 83 1,82 25,06 No Si No No Si
31 m 39 86 1,58 34,45 No Si Si Si No
32 m 56 75 1,55 31,22 No Si No No No
33 m 55 87 1,61 33,56 Si No No Si Si
34 h 28 96 1,78 30,30 Si Si No No Si
35 h 38 96 1,8 29,63 No Si No No No
36 m 55 69 1,6 26,95 No Si No No No
37 h 45 79 1,7 27,34 No Si No No No
38 h 35 84 1,78 26,51 No Si Si Si No
39 m 46 81 1,66 29,39 Si No Si Si Si
40 m 57 73 1,66 26,49 Si Si Si Si No
41 m 55 82 1,68 29,05 Si Si No No Si
42 h 47 90 1,81 27,47 No Si No No Si
43 h 44 85 1,74 28,08 No Si No No No
44 m 49 70 1,65 25,71 No No No No No
45 h 66 98 1,72 33,13 No No No Si No
46 h 43 84 1,79 26,22 No No No No No
47 m 67 91 1,73 30,41 No No Si Si No
48 m 77 87 1,82 26,26 No Si Si Si No
49 m 74 82 1,58 32,85 Si Si No No Si
50 h 45 79 1,55 32,88 Si Si No No Si
51 h 49 91 1,61 35,11 Si No No No Si
52 m 57 96 1,78 30,30 No Si No No No
53 h 62 92 1,8 28,40 No No No No No
54 m 49 69 1,6 26,95 No Si No Si No
55 h 34 90 1,7 31,14 No Si No No No
56 h 55 93 1,73 31,07 No Si No No No
57 m 28 87 1,63 32,74 No No Si Si No
58 m 38 75 1,7 25,95 Si Si Si Si Si
59 m 55 84 1,59 33,23 No Si No No No
60 h 45 77 1,66 27,94 No Si No No No
61 h 35 73 1,66 26,49 No Si No No No
62 m 46 70 1,6 27,34 No Si No No No
63 h 57 95 1,58 38,05 Si No No Si Si
64 m 55 85 1,78 26,83 No Si No No No
65 m 47 70 1,62 26,67 No Si Si Si No
66 m 44 98 1,6 38,28 No Si Si No No
67 h 49 88 1,7 30,45 No Si No No No
68 h 56 91 1,73 30,41 Si No Si No Si
69 m 66 87 1,7 30,10 Si Si No Si Si
70 h 54 98 1,86 28,33 Si Si No No Si
71 m 52 79 1,66 28,67 No Si Si Si No
72 h 65 87 1,83 25,98 No No No No No
73 h 55 96 1,8 29,63 No Si No No Si
74 m 67 96 1,58 38,46 No Si Si Si No
75 m 45 65 1,56 26,71 No Si No No Si
76 m 44 94 1,65 34,53 No No No No No
77 h 38 90 1,72 30,42 Si Si No No Si
78 h 34 81 1,51 35,52 No Si No No No
79 m 39 87 1,65 31,96 No Si No No Si
80 h 44 93 1,82 28,08 No Si No No No
81 h 38 77 1,58 30,84 No Si No No No
82 m 71 71 1,55 29,55 Si No Si Si No
83 m 78 67 1,61 25,85 Si Si Si Si Si
84 m 55 80 1,57 32,46 Si Si No No Si
85 h 44 70 1,56 28,76 No Si No No No
86 h 43 94 1,72 31,77 No Si No No No
87 m 48 64 1,51 28,07 No Si No No No
88 h 50 87 1,73 29,07 No No No No No
89 h 39 83 1,82 25,06 No Si No No No
90 m 44 86 1,58 34,45 Si Si Si Si Si
91 m 38 75 1,55 31,22 No Si Si Si No
92 m 34 71 1,61 27,39 No No No No No
93 h 39 85 1,78 26,83 No No No No Si
94 h 55 96 1,8 29,63 No No No No No
95 m 72 65 1,6 25,39 Si No No No No
96 h 43 90 1,7 31,14 Si Si No No Si
97 m 48 93 1,73 31,07 No Si Si No No
98 h 50 79 1,7 27,34 No Si Si Si No
99 h 45 88 1,6 34,38 No No No Si Si
100 m 58 81 1,66 29,39 No Si No No Si

1.Estadística descriptiva

a) Hacer una descriptiva completa de la variable IMC.

b)Hacer una descritiva breve de la variable edad.

c)Hacer una descriptiva de la variable depresión.

2.Técnicas de relación

a)Calcular la correlación de Pearson entre la altura y el IMC.

b)Analizar si hay relación entre sexo y depresión.

c)Analizar si tener obesidad respecto a tener sobrepeso (Sobrepeso: 25<IMC<30. Obesidad: IMC>30) es un factor de riesgo para tener depresión.

3.Técnicas de comparación

a)Comprobar si ha diferencias estadísticamente significativas entre hombres y mujeres en cuanto la variable IMC.

b)Estamos interesados en saber si hay diferencias significativas entre los que tienen o no depresión en cuanto a una variable que consistirá en evaluar unas puntuaciones individuales que asignan un punto por tener cada una de las siguientes características: más de 50 años, obesidad, diabetes, hipertensión, trastorno del sueño, trastorno de la alimentación.

Base de datos de Oceanografía

Variables del estudio:

Z=Zona

P=Profundidad

T00=Temperatura el año 2000

S00=Salinidad el año 2000

C00=Clorofila el año 2000

B00=Biomasa el año 2000

T15=Temperatura el año 2015

S15=Salinidad el año 2015

C15=Clorofila el año 2015

B15=Biomasa el año 2015

Base de datos:

Z P T00 S00 C00 B00 T15 S15 C15 B15
1 0 16,3 33,3 5,3 10,7 16,4 33,3 6,2 9,7
1 0 16,2 33,4 5,5 11,1 16,2 33,4 6,3 10,2
1 0 16,1 33,3 5,4 11,1 16,1 33,3 6,2 10,1
1 0 16,3 33,3 5,0 10,4 16,3 33,3 5,9 9,4
1 0 16,3 33,3 5,0 10,5 16,4 33,3 5,8 9,5
1 0 16,4 33,3 5,1 10,3 16,5 33,4 6,0 9,4
1 0 16,3 33,4 5,0 10,3 16,4 33,4 5,9 9,4
1 0 16,5 33,4 5,4 10,9 16,5 33,4 6,3 10,0
1 0 16,3 33,3 5,1 10,3 16,4 33,3 6,0 9,3
1 0 16,2 33,4 5,3 10,7 16,2 33,4 6,1 9,7
1 10 15,6 33,4 3,1 6,6 15,7 33,4 3,9 5,6
1 10 15,3 33,3 3,3 6,9 15,4 33,3 4,2 6,0
1 10 15,9 33,4 3,2 6,5 16,0 33,4 4,0 5,5
1 10 15,1 33,4 3,4 6,8 15,2 33,4 4,2 5,8
1 10 15,2 33,3 3,5 7,0 15,2 33,4 4,3 6,1
1 10 15,9 33,3 3,4 7,1 16,0 33,4 4,2 6,1
1 10 15,8 33,3 3,2 6,8 15,9 33,4 4,0 5,9
1 10 15,1 33,3 3,0 6,6 15,2 33,4 3,9 5,6
1 10 15,3 33,3 3,5 7,3 15,4 33,3 4,3 6,3
1 10 15,3 33,3 3,3 6,6 15,3 33,4 4,1 5,6
1 20 14,2 33,4 1,1 2,2 14,3 33,4 1,9 1,3
1 20 14,2 33,4 1,1 2,7 14,2 33,4 2,0 1,7
1 20 14,1 33,4 1,2 2,5 14,2 33,4 2,0 1,5
1 20 14,2 33,4 1,1 2,5 14,2 33,4 1,9 1,5
1 20 14,2 33,3 1,0 2,2 14,2 33,4 1,9 1,2
1 20 14,1 33,4 1,2 2,8 14,1 33,4 2,0 1,9
1 20 14,2 33,3 1,1 2,4 14,2 33,4 1,9 1,5
1 20 14,3 33,4 1,0 2,1 14,3 33,4 1,9 1,1
1 20 14,2 33,3 1,1 2,5 14,3 33,3 2,0 1,5
1 20 14,3 33,3 1,1 2,4 14,3 33,4 1,9 1,4
2 0 16,8 34,1 5,3 10,7 16,8 34,2 6,1 9,8
2 0 16,7 34,1 5,3 10,6 16,8 34,2 6,1 9,6
2 0 16,6 34,2 5,1 10,2 16,7 34,2 5,9 9,2
2 0 16,8 34,2 5,2 10,9 16,8 34,2 6,0 9,9
2 0 16,8 34,2 5,3 11,0 16,8 34,2 6,2 10,1
2 0 16,9 34,2 5,5 11,0 17,0 34,2 6,3 10,0
2 0 16,8 34,1 5,3 10,6 16,9 34,2 6,2 9,7
2 0 17,0 34,2 5,1 10,4 17,0 34,2 5,9 9,4
2 0 16,8 34,2 5,5 11,2 16,9 34,2 6,3 10,2
2 0 16,7 34,2 5,0 10,3 16,7 34,2 5,9 9,3
2 10 16,1 34,2 3,4 6,9 16,1 34,2 4,2 6,0
2 10 15,8 34,1 3,0 6,4 15,9 34,2 3,9 5,5
2 10 16,4 34,1 3,2 6,5 16,4 34,1 4,1 5,5
2 10 15,6 34,1 3,1 6,4 15,7 34,2 4,0 5,5
2 10 15,7 34,2 3,4 6,9 15,7 34,2 4,2 5,9
2 10 16,4 34,1 3,0 6,3 16,4 34,2 3,8 5,3
2 10 15,8 34,2 3,5 7,4 15,9 34,2 4,3 6,5
2 10 16,4 34,1 3,1 6,6 16,5 34,2 4,0 5,7
2 10 15,6 34,2 3,2 6,4 15,6 34,3 4,0 5,4
2 10 15,3 34,2 3,5 7,4 15,4 34,2 4,3 6,4
2 20 14,7 34,2 1,2 2,8 14,7 34,2 2,0 1,8
2 20 14,7 34,2 1,0 2,4 14,7 34,2 1,9 1,4
2 20 14,6 34,1 1,0 2,4 14,7 34,1 1,9 1,4
2 20 14,7 34,1 1,1 2,5 14,7 34,2 1,9 1,6
2 20 14,8 34,2 1,1 2,4 14,9 34,2 1,9 1,5
2 20 14,7 34,2 1,2 2,5 14,7 34,2 2,0 1,5
2 20 14,7 34,1 1,0 2,4 14,8 34,2 1,8 1,4
2 20 14,6 34,1 1,1 2,5 14,6 34,2 2,0 1,5
2 20 14,7 34,2 1,1 2,4 14,8 34,2 1,9 1,4
2 20 14,6 34,1 1,1 2,6 14,7 34,2 1,9 1,6
3 0 16,1 35,0 8,0 16,4 16,2 35,1 7,8 14,5
3 0 16,3 35,0 8,4 17,0 16,3 35,0 8,2 15,0
3 0 15,9 35,1 8,0 16,4 16,0 35,1 7,8 14,5
3 0 16,1 35,0 8,3 16,9 16,2 35,1 8,0 15,0
3 0 16,1 35,1 8,0 16,5 16,2 35,1 7,8 14,6
3 0 16,2 35,0 8,5 17,3 16,3 35,1 8,2 15,3
3 0 16,1 35,1 8,1 16,5 16,1 35,1 7,9 14,5
3 0 16,2 35,0 8,1 16,6 16,2 35,0 7,8 14,6
3 0 16,1 35,0 8,3 16,6 16,2 35,1 8,0 14,6
3 0 16,1 35,0 8,5 17,3 16,1 35,0 8,2 15,3
3 10 15,4 35,0 1,1 2,3 15,5 35,1 0,8 0,3
3 10 15,1 35,0 1,1 2,2 15,2 35,1 0,8 0,3
3 10 15,7 35,0 1,1 2,4 15,7 35,0 0,8 0,4
3 10 14,8 35,1 1,2 2,6 14,9 35,1 0,9 0,7
3 10 15,0 35,0 1,0 2,4 15,1 35,1 0,7 0,5
3 10 15,7 35,1 1,1 2,5 15,8 35,1 0,9 0,6
3 10 15,6 35,0 1,1 2,4 15,7 35,0 0,9 0,4
3 10 14,9 35,0 1,1 2,5 15,0 35,0 0,8 0,6
3 10 15,1 35,0 1,1 2,6 15,2 35,1 0,9 0,7
3 10 15,1 35,1 1,0 2,1 15,2 35,1 0,8 0,1
3 20 14,0 35,0 1,1 2,5 14,0 35,1 0,9 0,6
3 20 14,0 35,0 1,1 2,5 14,0 35,1 0,8 0,5
3 20 13,9 35,0 1,0 2,3 13,9 35,0 0,7 0,4
3 20 14,1 35,1 1,0 2,2 14,2 35,1 0,8 0,3
3 20 14,0 35,0 1,1 2,2 14,0 35,1 0,8 0,2
3 20 13,9 35,0 1,1 2,3 14,0 35,1 0,8 0,4
3 20 14,0 35,0 1,2 2,7 14,1 35,1 0,9 0,7
3 20 14,1 35,0 1,1 2,2 14,1 35,1 0,8 0,3
3 20 14,0 35,0 1,1 2,5 14,0 35,1 0,9 0,6
3 20 14,2 35,0 1,0 2,2 14,2 35,1 0,8 0,2

Viaje en autobús turístico por el mundo ANOVA

Un viaje amplio por el mundo ANOVA (Análisis de la varianza), como un viaje por una compleja ciudad como Nueva York, París o Londres, merece un previo recorrido global en autobús turístico para conocer, de entrada, cuál es la estructura global, la textura, de lo que nos encontraremos, en días sucesivos.

Vamos a hacerlo introduciendo unos conceptos que constituyen la columna vertebral de la inmensa urbe ANOVA. Se trata de los siguientes conceptos:

  1. Factor
  2. Nivel
  3. Factor fijo/Factor aleatorio
  4. Comparaciones múltiples/Componentes de la varianza
  5. Factores cruzados/Factores anidados
  6. Interacción entre factores
  7. Factor intersujeto/Factor intrasujeto
  8. Variable respuesta/Vector respuesta
  9. Variable/Covariable
  10. Efectos

Vayamos paso a paso con este corto viaje en autobús turístico:

1. Un factor en ANOVA es una variable cualitativa que genera o que contempla una serie de poblaciones a comparar. Por ejemplo, se ensayan tres tipos de fertilizantes en unos campos de cultivo para evaluar la productividad, se ensayan cuatro medicamentos distintos para ver si aumentan los niveles de hemoglobina en pacientes con anemia. En estos casos tenemos, en primer lugar el factor tipo de fertilizante. En el segundo, el factor fármaco.

2. Los niveles de un factor son los grupos o poblaciones que tenemos de un factor. En el primer ejemplo anterior tenemos tres niveles. En el segundo ejemplo tenemos cuatro niveles.

3. Un factor es fijo si los niveles que tenemos de él en el estudio son realmente todos los que nos interesa comparar. Un factor es aleatorio si los niveles que tenemos en nuestro estudio es una muestra de niveles tomados de una población de niveles que son los que, en realidad, queremos comparar. Los dos ejemplos anteriores si los tres fertilizantes o los cuatro fármacos son nuestro objeto de comparación, estamos ante factores fijos. Pero, observemos lo siguiente: si en otro ejemplo, estoy comparando si hay diferencias en la calidad de un producto fabricado por 100 operarios trabajando en una industria y, para hacerlo, elijo al azar a 5 de esos 100 operarios y analizo 3 productos elaborados por cada uno de ellos, pero lo que me interesa es ver si hay diferencias entre los 100, no entre esos 5, estoy ante el factor operario con 5 niveles, pero ese factor es, ahora, no fijo, sino aleatorio.

4. Si tenemos un factor fijo y detectamos que hay diferencias entre esas poblaciones, nos interesará decir cuáles son esas diferencias concretas. Las comparaciones múltiples hacen esa labor, comparan, dos a dos, de una forma muy especial, todas las poblaciones para dibujar un mapa de las diferencias. Si tenemos un factor aleatorio, el planteamiento es ahora muy diferente: debemos pasar de la muestra de muestras de poblaciones que tenemos a una población de poblaciones y eso lo haremos estimando la varianza, la dispersión que debe haber dentro de esa población de poblaciones.

5. Cuando hay más de un factor en un estudio, los factores, dos a dos, pueden estar cruzados o anidados. Tenemos factores cruzados cuando todos los niveles de un factor están combinados con todos los niveles del otro factor. Tenemos factores anidados cuando los niveles de un factor están jerarquizados entre los niveles del otro factor.

6. Cuando los factores están cruzados podemos estudiar algo muy importante en ANOVA: la interacción entre esos factores. Hay interacción cuando la respuesta, el efecto conseguido con la presencia de un nivel de un factor, depende de con qué nivel del otro factor esté combinado.

7. Un factor es intersujeto cuando cada sujeto pertenece a un único nivel del factor. Un factor es intrasujeto cuando cada sujeto está presente en cada uno de los niveles del factor.

8. Tenemos una variable respuesta, cuando la variable estudiada en la combinación de factores estudiados que tengamos es una variable cuantitativa única. Tenemos un vector respuesta cuando lo que se estudia es un vector de variables; o sea, varias variables al mismo tiempo. Se pretende buscar las diferencias en bloque, no variable a variable.

9. Una variable en ANOVA significa la respuesta en una variable cuantitativa que estamos estudiando. Una covariable es una variable cuantitativa complementaria que puede estar asociada a la variable respuesta estudiada y puede explicar las diferencias que estamos viendo en la variable respuesta estudiada. Viene a ser como un factor pero cuantititivo, no cualitativo.

10. En el lenguaje ANOVA hablamos de efectos cuando vemos diferencias. En este contexto vamos a realizar distintas comparaciones. La hipótesis de partida (la llamada hipótesis nula) es igualdad y la alternativa es diferencia. Si rechazamos la hipótesis nula y nos quedamos la alternativa decimos que estsmos viendo efectos. Por lo tanto, en ANOVA, efectos es sinónimo de diferencias y no efectos sinónimo de igualdad.

Veamos un ejemplo práctico dende ver todos estos conceptos. Se hace el siguiente estudio experimental: Se toma una muestra de 30 alumnos durante toda la ESO. Se dividen en tres clases distintas, en tres líneas distintas. Cada una va a seguir, durante los cuatro años, un plan distinto de enseñanza del inglés. Se sabe el nivel escrito y el nivel oral de esos alumnos al final de la primaria. Se han diferenciado dos niveles dentro de cada grupo, según el promedio de notas globales de esos alumnos ha sido alto o bajo, en el global de las materias. Durante los cuatro cursos de la ESO se ha hecho un seguimiento, alumno por alumno, del nivel de inglés oral de esos alumnos. Los resultados son los siguientes:

captura-de-pantalla-2016-09-18-a-las-11-30-29

Hay dos factores fijos: Grupo y Nivel. Grupo a tres niveles y Nivel a dos niveles. Los dos factores son fijos y están cruzados. Pero hay un tercer factor: el factor ESO, con cuatro niveles fijos. La variable estudiada es el nivel de inglés oral. Los factores Grupo y Nivel son intersujetos. El factor ESO es intrasujetos. Las variables InglésEscrito e InglésOral a finales de primaria podría tratarse como covariable.

Ejemplos de presentación de la Estadística en Oceanografía

Vamos a ver aquí diferentes tablas y gráficos donde se usa la Estadística en Oceanografía:

1. Veamos un ejemplo característico de uso del gráfico Box-Plot en oceanografía, donde se eligen una serie de puntos de muestreo y se evalúan en ellos una serie de variables típicas:

img_4693-1

img_4695-1

img_4694-1

2. Veamos a continuación diferentes usos de la media, la desviación típica y el error estándar. El gran problema con el uso de esos dos conceptos (desviación estándar y error estándar) es que, en muchas ocasiones, no queda claro cuál se ha usado y el problema es que el que escribe el artículo tampoco tiene claro cuál le interesa usar en un momento determinado.

captura-de-pantalla-2016-09-22-a-las-23-24-43

captura-de-pantalla-2016-09-22-a-las-23-18-44

A continuación puede verse un redactado de una información descriptiva:

captura-de-pantalla-2016-09-22-a-las-23-40-38

captura-de-pantalla-2016-10-12-a-las-13-09-42

captura-de-pantalla-2016-10-12-a-las-13-12-16

3. Veamos ahora diferentes usos del concepto de correlación:

captura-de-pantalla-2016-10-07-a-las-11-23-11

captura-de-pantalla-2016-10-07-a-las-11-30-36

captura-de-pantalla-2016-10-07-a-las-11-31-41

captura-de-pantalla-2016-10-07-a-las-11-32-10

4. Veamos ahora diferentes ejemplos donde aparece la regresión:

captura-de-pantalla-2016-10-09-a-las-11-06-38

 

captura-de-pantalla-2016-10-09-a-las-11-06-22

 

captura-de-pantalla-2016-10-09-a-las-11-02-52

captura-de-pantalla-2016-10-12-a-las-13-12-50

5.Técnicas de comparación:

captura-de-pantalla-2016-11-23-a-las-16-39-05

captura-de-pantalla-2016-11-23-a-las-16-40-54

captura-de-pantalla-2016-11-20-a-las-10-38-55

 

 

 

Curso 0 de Estadística

Este es un curso de Estadística pensado para preparar para el inicio posterior de un curso universitario de Estadística. Por eso lo llamo “Curso 0”. Intenta, mediante un lenguaje sencillo, introducir el lenguaje y los problemas fundamentales que aborda la Estadística. Empecemos, pues:

La Estadística es la ciencia con la que, a partir de MUESTRAS, decimos cosas de POBLACIONES.

Vamos a ver, en primer lugar, qué entendemos por Poblaciones y por Muestras en Estadística.

Una POBLACIÓN es un conjunto, generalmente muy grande, de personas, de seres vivos, de cosas, etc.

Ejemplos:

  1. La población de todos los menores de 14 años en España.
  2. La población de todos los enfermos de Alzheimer de España.
  3. La población de todos los colegios de Barcelona.
  4. La población de todos los estudiantes de sexto de primaria de Cataluña.
  5. La población de todos los pokémons.
  6. La población de todas las ciudades del mundo.
  7. La población de todos los perros de España.

Una MUESTRA es una parte, generalmente pequeña, de una POBLACIÓN.

Ejemplos:

  1. Hemos seleccionado al azar 100 niños menores de 14 años en España.
  2. Hemos seleccionado, también al azar, 50 personas con Alzheimer en España.
  3. Hemos seleccionada al azar 20 colegios de Barcelona.
  4. Hemos seleccionado 70 estudiantes de sexto de primaria de Cataluña.
  5. Hemos seleccionado al azar 20 pokémons.
  6. Hemos seleccionado al azar 1000 ciudades del mundo.
  7. Hemos seleccionado al azar 200 perros de España.

Observa que la estructura de la relación entre POBLACIÓN y MUESTRA es siempre la que se ve en el siguiente dibujo:

img_3824

Siempre una MUESTRA es una parte de una POBLACIÓN. Y el objetivo de la Estadística es, precisamente, a partir de lo que podremos saber de esta MUESTRA, a base de estudiarla, de calcular cosas con ella, intentar decir cosas de cómo es la POBLACIÓN que no tenemos.

Evidentemente, no toda MUESTRA tiene la misma calidad. Hay muestras más representativas de la POBLACIÓN que otras. A la hora de elegir la muestra se trata de hacerlo con el máximo de coherencia para tratar que la MUESTRA sea lo más parecido a la POBLACIÓN  pero en miniatura. De momento, en este curso 0, basta con saber esto, pero, parece claro que la elección de la muestra es un paso fundamental puesto que, como ya hemos dicho, la Estadística pretende decir cosas de las POBLACIONES a partir del estudio de MUESTRAS. Si la elección de ésta es incoherente mala ciencia estaremos haciendo.

Esto es, pues, la Estadística: Intentar saber cómo es un todo (una POBLACIÓN) que no tienes a partir del estudio de una parte (una MUESTRA) que sí que tienes.

Por lo tanto, estos dos conceptos (MUESTRA y POBLACIÓN) están siempre presentes en la Estadística.

A las personas, seres vivos o cosas de las muestras que tenemos las analizamos para obtener de ellos alguna característica. A estas características las llamamos VARIABLES.

Ejemplos (Observa que cada punto está constituido por los elementos de las POBLACIONES y MUESTRAS vistas en la lección anterior):

  1. La presión arterial de niños menores de 14 años.
  2. El valor del Mini-Mental (es una prueba con una serie de preguntas que finalmente da una puntuación que marca el nivel de gravedad de la enfermedad) que tiene un enfermo con Alzheimer.
  3. La cantidad de alumnos matriculados en un colegio.
  4. La nota de matemáticas de estudiantes de sexto de primaria.
  5. La velocidad de un pokémon.
  6. El número de habitantes en una ciudad.
  7. Si un perro lleva o no un chip identificativo.

Observa que hemos definido una VARIABLE en cada caso pero podríamos escoger otras. Para que lo veas puedo tomar una POBLACIÓN de donde podríamos tener una MUESTRA y definir una larga lista de VARIABLES distintas. Un ejemplo, con los alumnos de sexto de primaria:

  1. Nota de sociales.
  2. Días que no han ido al colegio en el curso pasado.
  3. Nota promedio de quinto.
  4. Nota que le pondría él al tutor que ha tenido.
  5. Si prefiere un hombre o una mujer como tutor.
  6. A qué distancia vive de su escuela.
  7. Si ha repetido o no anteriormente un curso.
  8. Deberá o no repetir quinto.

Observemos, pues, que hasta ahora hemos visto tres conceptos en Estadística que son nucleares y que están siempre presentes en cualquier estudio realizado en cualquier ciencia:

  1. POBLACIÓN.
  2. MUESTRA.
  3. VARIABLE.

Es muy importante, siempre, situar bien cada uno de estos tres conceptos cuando se hace un estudio.

Veamos un ejemplo práctico:

Se quiere ver, en personas que tienen una enfermedad, si un nuevo medicamento que se quiere probar consigue más, menos o igual número de curaciones que el medicamento que se utiliza actualmente.

Llamemos al medicamento habitual como A y al nuevo como B.

Tenemos la POBLACIÓN de todos los enfermos de esa patología. Que pueden ser miles y miles.

El medicamento A lo damos a 100 personas con esa enfermedad y a los que seguiremos con detalle para ver si se curan o no. Estas 100 personas son una MUESTRA de la POBLACIÓN de todos los enfermos.

El medicamento B lo damos a otras 100 personas con esa enfermedad. Evidentemente, personas diferentes a las anteriores. Personas que también seguiremos detalladamente para ver si se curan o no con ese tratamiento. Estas 100 personas son una MUESTRA de la misma POBLACIÓN anterior, la POBLACIÓN de todos los enfermos de esa enfermedad.

La VARIABLE en este estudio es si el enfermo se cura o no con el tratamiento.

Veamos todo el planteamiento del estudio con un dibujo:

img_3832

Unos resultados que podríamos obtener finalmente del estudio podrían ser los siguientes:

Medicamento A:

70 se curan.

30 no se curan.

Medicamento B:

90 se curan.

10 no se curan.

Observa que entre las dos MUESTRAS hay diferencias. Con el medicamento B se curan más personas que con el medicamento A. Es muy claro. De las 100 personas tratadas con el medicamento B se han curado 90. Esto lo expresamos así: un 90 por 100 (lo solemos escribir así: 90%). Sin embargo, con el medicamento A se han curado sólo 70: un 70 por 100 (70%).

Pero, algo muy importante: esto que vemos lo vemos en las MUESTRAS. ¿Pasaría lo mismo si estos tratamientos se aplicaran a la POBLACIÓN entera, a todos los enfermos? Observemos que esto no lo podremos decir hasta que no lo apliquemos. Pero sería interesante predecir si las diferencias que vemos en esas MUESTRAS las veríamos también si cada uno de esos medicamentos se aplicara a toda la POBLACIÓN.

Pues éste es el papel de la Estadística. A eso nos dedicamos los estadísticos y para saber hacer este paso de las MUESTRAS a las POBLACIONES todos los científicos estudian Estadística.

Ya veremos que el gran problema de la Estadística será saber cuándo podemos decir que lo que vemos en las MUESTRAS es lo que veríamos, también, en las POBLACIONES. Cuando decimos, en Estadística, que lo que vemos es ESTADÍSTICAMENTE SIGNIFICATIVO es porque, con muchas posibilidades de no equivocarnos, lo que vemos en las MUESTRAS es lo que veríamos, también, en las POBLACIONES. Pero esto ya lo veremos más adelante. Sigamos, poco a poco.

Veamos ahora un poco más en detalle el tercero de esos tres conceptos que estamos viendo como nucleares en Estadística: el concepto de VARIABLE.

Hay dos tipos básicos de VARIABLES (esas características que medimos o evaluamos a las personas, seres vivos o cosas de una muestra o de una población): las variables cuantitativas y las variables cualitativas.

Las variables cuantitativas son variables que miden una cantidad. Nos dan un número a cada individuo de la muestra que tengamos.

Las variables cualitativas, también llamadas variables nominales, nos valoran una cualidad. Por eso se les llama también nominales, porque los valores de cada individuo son nombres.

Observemos las variables que listábamos antes en referencia a alumnos de sexto de primaria:

  1. Nota de sociales.
  2. Días que no han ido al colegio en el curso pasado.
  3. Nota promedio de quinto.
  4. Nota que le pondría él al tutor que ha tenido.
  5. Si prefiere un hombre o una mujer como tutor.
  6. A qué distancia vive de su escuela.
  7. Si ha repetido o no anteriormente un curso.
  8. Deberá o no repetir quinto.

Las variables 1, 2, 3, 4, 6 son variables cuantitativas. Son o una nota (una nota entre 0 y 10, suponemos) o un número de días o una distancia (en metros o kilómetros). Sin embargo, las variables 5, 7 y 8 son cualitativas. No son una cantidad numérica, sino una cualidad: prefiere un hombre o una mujer como tutor, ha repetido o no anteriormente un curso, debe o no repetir quinto.

Observemos que podríamos definir muchas más variables, tanto de cualitativas como de cuantitativas.

Veamos más ejemplos de variables cualitativas, en esa misma muestra de estudiantes de sexto de primaria:

  1. El sexo del alumno: niño o niña.
  2. El grupo sanguíneo: A, B, AB, O.
  3. Ciudad donde nació.
  4. Tiene o no ordenador en la habitación.

Veamos más ejemplos de variables cuantitativas:

  1. Altura.
  2. Peso.
  3. Metros cuadrados del piso donde vive.
  4. Número de hermanos que tiene.

Ya tenemos los elementos básicos con los que se trabaja, siempre, en Estadística: POBLACIONES, MUESTRAS y VARIABLES.

Ahora vamos a empezar a manejarlos.

La Estadística es una ciencia que actúa manejando Técnica analíticas. Con ellas es como hace este proceso de decir cosas de POBLACIONES a partir de las MUESTRAS.

Existen tres tipos de técnicas en Estadística. Técnicas descriptivas, de relación y de comparación. Vamos a dividir el resto de este curso 0 en tres apartados: uno para cada uno de estos tres tipos de técnicas.

  1. Técnicas descriptivas:

Con las técnicas descriptivas pretendemos resumir nuestras muestras. Hacer una síntesis de la inmensa cantidad de información que hay en ellas.

Lo primero que podemos hacer con una muestra es, siempre, hacer una descripción, un resumen de ella, que es lo que llamamos habitualmente: Estadística descriptiva.

Veamos las principales técnicas descriptivas que se engloban en la llamada Estadística descriptiva.

Con estas técnicas descriptivas conseguiremos una serie de valores que nos proporcionan una serie de rasgos característicos de la MUESTRA que podremos generalizar a la POBLACIÓN, si es que esta MUESTRA es representativa de la POBLACIÓN. Ya sabemos que este es el objetivo de la Estadística como ciencia.

Supongamos que tenemos una muestra de 10 alumnos de sexto de primaria y tenemos los siguientes valores de dos variables: Sexo (niño o niña) y nota de matemáticas:

Alumno Sexo Nota
1 h 3
2 m 5
3 m 2
4 m 8
5 h 4
6 h 6
7 h 5
8 m 7
9 m 9
10 h 4

Las técnicas descriptivas que tenemos son distintas según las variables sean cualitativas o cuantitativas.

En las cualitativas suele hacerse únicamente un recuento de cada uno de los valores. Consiste, simplemente, en contar cuántos individuos hay de cada una de las diferentes cualidades. En nuestro caso la variable Sexo sólo tiene dos valores posibles: hombres y mujeres. En nuestro caso: 5 hombres y 5 mujeres. Suele también expresarse en porcentaje. En nuestro caso: 50% de hombres y 50% de mujeres. Si se dan los valores sin porcentaje se dice que se dan las frecuencias absolutas, si se dan en porcentaje se dice que se dan las frecuencias relativas.

También se suele acompañar de un gráfico con diagramas de frecuencias o con un diagrama pastel.  A continuación veréis cómo quedarían estos gráficos:

Captura de pantalla 2016-09-01 a las 18.48.06

Captura de pantalla 2016-09-01 a las 18.44.58

Con las variables cuantitativas las posibilidades son mucho mayores. Suelen calcularse diferentes valores que resuman la muestra, respecto a un determinado aspecto. Es muy habitual dar la media y la desviación estándar. En la variable Nota, de nuestro ejemplo, estos dos valores serían:

Captura de pantalla 2016-09-01 a las 18.50.57

La media (Mean) y la desviación estándar (Std. Dev.) son las que ahora nos interesan. La media es el centro de gravedad de los valores de la muestra. La desviación estándar es una medida de dispersión de los valores de la muestra. Son dos valores muy importantes que se estudian con mucho detalle en un curso de Estadística. Ahora, de momento, nos basta tener en cuenta que son dos valores que se usan con mucha frecuencia para resumir numéricamente una variable cuantitativa.

Basta saber, de momento, que la media es la suma de todos los valores de la muestra dividido por el tamaño muestral, y que la desviación estándar es un valor que va de 0 hacia arriba y que cuanta más dispersión de valores mayor es su valor.

Por ejemplo, la muestra: (5, 5, 5, 5) tiene desviación estándar 0. Y la muestra (0, 5, 5, 10) tiene mayor desviación estándar que la muestra (4, 5, 5, 6). También es bueno saber que la muestra (10, 11, 11, 12) tiene la misma desviación estándar que esta última y que la siguiente: (105, 106, 106, 107). Es muy importante, de momento, tener muy claro todo esto.

También en las variables cuantitativas es muy importante el denominado Box-Plot. En la variable Nota el Box-Plot es el siguiente:

Captura de pantalla 2016-09-01 a las 18.54.19

Este gráfico es muy importante. Pero para entenderlo bien es mejor verlo en otra muestra.

El valor extremo de la izquierda es el valor mínimo de la muestra, el valor extremo de la derecha es el valor máximo. El punto donde empieza la caja es el primer cuartil o percentil 25. Donde acaba la caja es el tercer cuartil o percentil 75. La línea que fragmenta la caja en dos rectángulos es el segundo cuartil, percentil 50 ó Mediana (esta última denominación es la más habitual).

Para ver cómo se calculan esos importantes valores resumen de la muestra, veamos un caso de una muestra un poco más sencilla de manejar.

Supongamos la siguiente muestra: (1, 3, 5, 7, 9, 15, 17, 20). El Box-Plot sería el siguiente:

Captura de pantalla 2016-09-01 a las 19.03.37

Lo primero que hay que hacer para realizar estos cálculos es ordenar la muestra de menor a mayor. El mínimo y el máximo de la muestra es claro cómo se obtienen. El primer cuartil o percentil 25 es aquel valor que divide la muestra es un 25% de valores a la izquierda y un 75% de valores a la derecha. El tercer cuartil o percentil 75 es aquel valor que divide la muestra es un 75% de valores a la izquierda y un 25% de valores a la derecha. La mediana es aquel valor que divide la muestra es un 50% de valores a la izquierda y un 50% de valores a la derecha.

Veamos el cálculo del primer cuartil: Si nos situamos entre el 3 y el 5 tenemos un 25% de valores a la izquierda y un 75% de valores a la derecha. En este caso se hace el promedio de estos dos valores para tener el primer cuartil, que es 4.

Veamos el cálculo del tercer cuartil: Si nos situamos entre el 15 y el 17 tenemos un 75% de valores a la izquierda y un 25% de valores a la derecha. En este caso se hace el promedio de estos dos valores para tener el tercer cuartil, que es 16.

Veamos el cálculo de la mediana: Si nos situamos entre el 7 y el 9 tenemos un 50% de valores a la izquierda y un 50% de valores a la derecha. En este caso se hace el promedio de estos dos valores para tener la mediana, que es, en este caso: 8.

A veces el primer o tercer cuartil o la mediana no se sitúa entre dos valores sino que es un valor mismo de la muestra. Un ejemplo: En la muestra (2, 5, 7, 9, 20) la mediana es 7. Observemos que a la izquierda de 7 tenemos el 50% de valores y a su derecha tenemos, también, un 50% de valores.

Encontraréis Box-Plots en muchos artículos de cualquier ciencia, pero mirad a continuación un ejemplo muy sorprendente. Raramente veréis un Box-Plots con los valores muestrales superpuestos:

img_4605

2. Técnicas de relación

Con las técnicas de relación, como dice bien su nombre, tratamos de detectar relación entre diferentes variables de nuestra muestra. Como siempre, el objetivo será ver si las relaciones que detectamos en la MUESTRA son generalizables a la POBLACIÓN. Esto siempre está presente porque, como ya hemos dicho desde el principio, este es el objetivo de la Estadística como ciencia.

Detectar relación entre variables es muy importante en cualquier ciencia. Detectar si hay o no relación y, si la hay, mirar de cuantificarla, mirar de ver su intensidad. Porque hay grados distintos de relación.

Un ejemplo sencillo: la variable altura y peso en humanos tiene relación. Personas altas pesan más y personas bajas pesan menos. Esto indica que hay relación entre esas dos variables. Pero entre altura y número de pie hay mucha más relación. Y entre altura y longitud del fémur aún hay más relación. A esto nos referimos al decir que hay que detectar relación, primero, y, después, ver qué cantidad de relación tenemos.

Las dos técnicas más importantes y más usadas para detectar y cuantificar la relación entre dos variables son: la correlación de Pearson y la Odds ratio.

La correlación de Pearson cuantifica la relación entre dos variables cuantitativas.

La Odds ratio cuantifica la relación entre dos variables cualitativas dicotómicas (una variable dicotómica es una variable con sólo dos valores posibles).

En este curso 0 para introducirnos en el mundo de las técnicas de relación vamos a centrarnos en la Odds ratio, que es una medida extraordinariamente importante, especialmente en el ámbito de las ciencias de la salud.

Lo vamos a hacer viendo una serie de artículos de este blog que están pensados especialmente para introducirnos en esta importante técnica estadística. Los artículos son los siguientes:

La Odds ratio para estudiantes de primaria

Introducción a la Odds ratio para estudiantes de ESO (1): Planteamiento de una situación

Introducción a la Odds ratio para estudiantes de ESO (2): Solución de la situación

3. Técnicas de comparación

Con las técnicas de comparación tratamos de comparar los valores de una variable en diferentes muestras. El objetivo será, evidentemente, como siempre, ver si las diferencias que detectamos en las MUESTRAS son generalizables a las POBLACIONES que hay detrás de ellas. Esto siempre está presente porque, no lo olvidemos, de nuevo, este es el objetivo de la Estadística como ciencia.

Hay que distinguir, a la hora de realizar una comparación estadística, varias situaciones distintas muy importantes:

a. Comparación de dos poblaciones/Comparación de más de dos poblaciones.

b. Comparación de una variable dicotómica/Comparación de una variable cuantitativa.

c. Comparación de muestras independientes/Comparación de muestras relacionadas.

d. Comparación de variables cuantitativas normales/Comparación de variables cuantitativas no normales.

e. Comparación de proporciones/Comparación de medias/Comparación de medianas/Comparación de distribuciones/Comparación de correlaciones/Comparación de Odds ratio.

Y todo esto porque así como en las técnicas de relación hay realmente un listado pequeño de técnicas analíticas (la correlación de Pearson y la Odds ratio son muy mayoritarias), en las técnicas de comparación son muchísimas las técnicas de comparación que se aplicar en la realidad. Y es en función de estos conceptos vistos cómo van delimitándose cuáles son las técnica a aplicar en un momento determinado.