Es bien sabido y aceptado que los ensayos clínicos de mayor nivel de evidencia son los aleatorizados. El azar acaba generando dos grupos homogéneos gracias a uno de lo teoremas matemáticos más importantes (la Ley de los grandes números). La finalidad de este procedimiento es que no existan variables confusoras (ver el Tema 26: Análisis estadístico de variables confusoras); o sea, de variables que puedan explicar parcialmente los resultados obtenidos y que, por lo tanto, cuestionen si los efectos observados sean atribuibles al tratamiento ensayado.
En los últimos años ha impactado en la literatura médica una nueva variante de estos ensayos: los llamados ensayos aleatorizados basados en registros (Randomized Registry Trials).
Voy a explicar brevemente qué variante aporta esta nueva metodología.
En un ensayo aleatorizado se especifican unos criterios de inclusión y un mecanismo de aleatorización digamos que a ciegas. Sin una base de datos viva que vaya estableciendo un mecanismo de asignación que no sea el puro azar. Algo muy importante es que los criterios de inclusión suelen ser bastante restrictivos, lo que lleva a unos grupos que se suelen alejar bastante de la realidad.
En un ensayo aleatorizado basado en un registro esta aleatorización puede hacerse de una forma más inteligente. Potencialmente el azar se puede controlar para que sea más azar. Esta afirmación aparentemente es contradictoria. Pero no olvidemos una famosa frase de Einstein: «Dios no juega a los dados». Dios nos podría proporcionar una muestra perfectamente representativa en todo momento porque él lo sabe todo. Por lo tanto, cuanto más conocemos una realidad más capaces somos de conseguir muestras representativas de esa realidad. Esa idea es clave para entender esta variante de los ensayos aleatorizados. En esta variante toda la información se computa «on line» y esto facilita mucho las cosas, permite aumentar el tamaño de muestra y, eso mismo, permite trabajar con criterios de inclusión menos estrictos lo que hace que el experimento se aproxime más a la realidad, permite controlar más el proceso de asignación, permite digamos un «mejor azar» porque sabemos más y eso nos permite restringir menos los criterios de inclusión.
Es interesante, a la hora de valorar lo que aporta esta nueva metodología, compararla con lo que aporta el Análisis de propensiones (Propensity Score Analysis) a los estudios observacionales y, además, verlo gráficamente:
Observemos a la izquierda una poblaciones de pacientes sin ninguna diferenciación que lo representamos como punto de partida. A continuación vemos una bifurcación. Un camino va hacia los estudios observacionales y otro hacia los ensayos aleatorizados.
En los estudios observacionales separamos dos grupos de pacientes según un resultado o según un tratamiento distinto pero que es el resultado no de un ensayo, no de un experimento. Esto nos lleva, como ya vimos en el Tema 24: Análisis de propensiones, a una situación habitual de dos grupos de muy distinto tamaño y no homogéneos. Es lo que suele suceder con los estudios de casos y controles. A continuación vemos una mejora de la calidad de estos estudios, mediante este Análisis de propensiones, que nos lleva a una situación que suele denominarse de cuasiensayo aleatorio (cuasirandomizado). Observemos que el esquema de arriba a la derecha es similar al de abajo a la izquierda.
En los ensayos aleatorizados realizamos mediante el azar una homogeneización de los dos grupos a comparar. Sin embargo, los tamaños no suelen ser enormes. Para conseguir poder decir cosas, ver diferencias significativas, con tamaños de muestra no muy grandes, teniendo en cuenta que las diferencias entre los tratamientos no son enormes, debemos conseguir poca dispersión dentro de ambos grupos. Esto genera la necesidad de unos criterios de inclusión bastante exigentes que permitan mucha igualdad en la respuesta. Por eso el dibujo muestra dos grupos un tanto alejados de la globalidad. Esta es la crítica más habitual que reciben los ensayos aleatorizados: que los pacientes no son un reflejo de la realidad, que hay bastante distancia entre lo experimentado y la realidad clínica del día a día. Que se trabaja (exagerando bastante) casi con cobayas.
La flecha que a través de los ensayos aleatorizados basados en registros nos lleva al gráfico de la derecha y de abajo nos permite visualizar una situación mejorada. Como podemos ver, se mantiene la homogeneidad de ambos grupos (los puntos de ambos colores están muy cercanos) y al mismo tiempo conseguimos establecer dos grupos a comparar mucho más cercanos a la realidad que tenemos. Se trabaja, así, con pacientes más próximos a la realidad clínica del día a día. Esto se logra con unos criterios de selección menos rígidos que pueden actuar gracias a que al informatizar la recogida de datos y el proceso de aleatorización conseguimos muchos más consentimientos; o sea, tamaños de muestra mucho más grandes. Además, el control del azar posible que hemos comentado antes nos permite una mayor homogeneización a pesar de la ampliación de esos criterios de inclusión.
Conseguimos llegar, así, a una situación experimental mejor. Esto tiene sus problemas, también. Una es que se necesita trabajar en ámbitos con una informatización global de mucha calidad. Y otra crítica habitual es que el elevar los criterios de inclusión mezcla situaciones muy diversas sin precisar si las cosas serían diferentes según los estratos considerados.