Revista Peruana de Reumatología : Volumen 1 Nº 1, Año 1995 LIMA-PERU

 

Tema de Revisión

Aspectos de la Investigación Epidemiológica

Pedro Mendoza Arana*

 

La Epidemiología puede ser definida corno el estudio de la distribución, frecuencia y determinantes de los problemas de salud en una población. Su unidad de interés por lo tanto no es el individuo sino las poblaciones, y para estudiarlas ha desarrollado un equipamiento instrumental para el diseño y análisis de investigaciones que puede ser de mucha utilidad a diversas especialidades médicas. Ciertamente, la acepción que empleamos de población en este artículo, se acerca más a la acepción estadística, es decir, al conjunto de unidades de observación de interés del investigador. Así, los pacientes de psoriasis podrán constituir para nosotros una población, dentro de la cual una sub-población podrá ser, por ejemplo, la de quienes desarrollan compromiso articular.

El propósito de este trabajo, así como de un artículo complementario centrado en la Estadística, es el de brindar conceptos esenciales de Epidemiología a colegas interesados en la investigación clínica y epidemiológica. Aunque los conceptos son aplicables a cualquier especialidad, este artículo ha sido redactado pensando en reumatólogos, lo cual se refleja en los ejemplos empleados (a) . No varnos a cubrir in extenso los diversos tópicos posibles, sino a describir brevemente los conceptos esenciales y de mayor uso que se encuentran con frecuencia al intentar interpretar estudios en la literatura, o al pensar uno mismo sus propios protocolos de investigación.

Por ello, vamos a seguir un esquema de abordaje que es el que podemos poner en práctica al analizar un posible protocolo de investigación propio o publicado.

 


Correspondencia: Pedro Mendoza Arana, Apartado 310-038
Lima 31 Perú

 


Rev. Perú Reum. 1995; 1(1):35-39

 

I Diseños Básicos de Investigación Epidemiológica.

Un Diseño es un modelo de explicación que relaciona variables y que contiene una estrategia para el análisis de datos. En Epidemiología tenemos tres diseños esenciales:

- Estudios Transversales (<<Cross-Sectional Studies>>)

- Estudios de Casos y Controles (<<Case-Control Studies>>)

- Estudios de Cohortes (<<Cohort Studies>>)

Estos nombres enfatizan una tipología de diseño basada en la relación entre las variables que se exploran, una de las cuales será Ilamada <<variable explica>> o <<variable independiente>>, y la otra <<Variable

(a) Los ejemplos empleados no implican un respaldo a sus conclusiones o al estudio en su conjunto, sino que se han empleado para graficar aspectos puntuales de los respectivos estudios.

de desenlace>> o <<variable dependiente>>, entendiendo que entre ambas existe una relación posiblemente causal o de determinación de la primera (explicativa o independiente) hacia la segunda (de desenlace o dependiente).

Nótese que no nos referimos a la forma como se colectan los datos, que a veces denominamos <<prospectiva>> o <<retrospectiva>>, términos que inducen a confusión y que se prefiere no emplear. Técnicamente, y de contar con bases de datos completas, uno podría hacer estudios de cohortes con datos revisados en forma <<retrospectiva>>, así como estudios de casos y controles en forma <<prospectiva>>.

Una Cohorte se define como <<un grupo que comparte una experiencia común>> (1). Así, en los estudios de cohortes partimos de uno o más grupos expuestos a un factor determinado, sea este un diagnóstico común, una exposición a radiación, un tratamiento, etc., y lo seguimos para ver un cambio asociado o desenlace: Mejoría, remisión de síntomas, etc.

En un estudio de Casos y Controles partimos de este último, es decir, del desenlace, y vemos qué factor asociado lo antecedió. En lenguaje epidemiológico, derivado de estudios etiológicos, a los presuntos factores que se exploran se les denomina <<Exposición>>, y por tanto, se exploran diferencias en la Exposición entre los Casos y los Controles.

Un ejemplo de este diseño es el estudio de Silman et a (9) que compara el inicio de la AR en el periodo postpartum inmediato (0-3 meses). Sus casos son 88 mujeres de 18-40 años y sus controles 144 mujeres mujeres sanas de la misma edad a las que se les asignó un inicio de AR presunto en forma aleatoria para efectos de control.

Finalmente, en un estudio transversal vemos la asociación de factores coexistentes en un determinado momento en nuestra población. Como ejemplo mencionemos un estudio en pacientes con AR para valorar la asociación entre Factor Reumatoideo y antígeno DR4. Partiríamos de Casos (Pacientes con AR y FR+), y Controles (Pacientes con AR y FR-), exploraríamos la presencia de antígenos DR4 en ambos grupos. En situaciones como esta, por ejemplo cuando se explora la asociación entre variables coexistentes pero que son parte de la constitución de individuo, la distinción entre un estudio de Casos y Controles y uno Transversal puede ser muy sutil.

Los estudios de prevalencia son también ejemplo típicos de diseños transversales, en los cuales no se explora asociaciones entre variables sino la presencia o ausencia de una sola variable en la población.

El Estudio de Cohortes, a su vez, tiene a1gunas variantes:

Estudio de Cohorte Unica

Estudio de Cohortes Concurrentes

Estudio Aleatorio Controlado

El Estudio de Cohorte Unica puede emplearse, por ejemplo, para caracterizar la historia de una enfermedad (<<estudios de seguirniento>>), como es el caso del estudio de van der Heide (10) que siguen durante tres años pacientes con AR inicial mediante evaluaciones radiológicas para valorar la progresión del daño articular. También se emplea a veces para valorar la eficacia de intervenciones mediante mediciones antes-después. Un ejemplo reciente es el estudio de Weinblatt (11), que hacen un seguimiento de una cohorte de 26 pacientes de Artritis Reumatoide en tratamiento con Metotrexate durante 84 meses. Nótese que este diseño sería mucho más debil metodológicamente que uno comparativo, pero a veces por consideraciones logísticas o éticas es el único viable.

En el Diseño de Cohortes Concurrentes se tienen dos o más grupos de pacientes que se siguen en paralelo, y que han sido sometidos a diversos tratamientos. En este caso, una cohorte se denomina <<activa>>, y la otra <<control>>. No obstante, uno no puede garantizar la comparabilidad de los grupos. La forma de hacer esto es asignar a los pacientes en forma aleatoria o <<randomizada>> a cada grupo. Esta es la característica definitoria del Estudio Clínico Controlado, llamado también Estudio Aleatorio Controlado o RCT (<<Randomized Controlled Trial>>). Se denomina además Estudio Controlado por la existencia de un grupo <<Control>>, ya sea que no se esté tratando, o que se trate con placebo. Cuando el placebo no es una alternativa ética, se puede usar un estudio comparativo con el <<mejor tratamiento actua>> o el protocolo aceptado como norma.

Un ejemplo de RCT es el estudio cle Kloppenburg et al (1994), que emplea un estudio comparativo de Minociclina versus Placebo en pacientes con ARactiva, o el estudio de Landewe et al (1994), que comparan Cloroquina"versus" Ciclofosfamida a dosis bajas en AR temprana. Como vemos, en el primer caso el estudio se controla con placebo, y en el segundo se comparan dos medicamentos.

2. Elección de la Muestra: Población de Referencia.

Tamaño Muestral.

Una muestra es un conjunto de sujetos o unidades de observación que reune características que la hacen representativa de la población que nos interesa estudiar, y que Ilamaremos población objetivo, o población de referencia, y a la cual esperamos aplicar las conclusiones o inferencias que hagamos en nuestra muestra. La definición cuidadosa de nuestra Población y Muestra constituye un aspecto importante de la investigación.

Por ejemplo, si nuestra muestra comprende sólo pacientes con un Tiempo de Enfermedad menor de cinco años, entonces los resultados del estudio podremos aplicarlos sólo a una poblaci6n de características similares, es decir, un Tiempo de Enfermedad menor de cinco años.

Es por ello que la representatividad de la muestra es un aspecto crucial en la investigación. Para asegurar esta representatividad debemos recurrir siempre que sea posible a métodos aleatorios o <<randomizados>>. La randomización puede darse en dos momentos: En la extracción de la muestra, y en la asignación de individuos a grupos.

El primero es el caso de las denominadas <<muestras aleatorias>> o <<muestras probabilísticas>>. Esto quiere decir que cada uno de los individuos en la población tiene las mismas probabilidades de resultar elegido en la muestra. El muestreo probabilístico puede ser:

- Muestreo Aleatorio simple
- Muestreo sistemático
- Muestreo Estratificado
- Muestreo por Conglomerados

Y el muestreo no probabilístico puede ser:
- Muestreo Secuencial
- Muestreo por Cuotas

Una vez elegido el diseño de la investigación, el segundo paso es la definición del tamaño muestral. El tamaño muestral depende del diseño empleado, y en cada uno de ellos de los siguientes factores:

a. Estudios Transversales

Este es el caso típico de las encuestas de prevalencia. En este caso requerimos cuatro datos importantes:

- Frecuencia esperada del fenómeno (P)

- Precisión deseada para la estimación (D)

- Nivel de Confianza (Z)

- Tamaño de la Población (POP)

Estas variables se relacionan según las fórmulas siguientes:

Para población infinita S = Z.Z(P(l -P)VD.D

Para población finita SS = S/1 +(S/POP)

Así por ejemplo, para un fenómeno cuya frecuencia esperada es de un 15 %, y dándonos una precisión relativa de 20 % (es decir, +/- 3 % con respecto a nuestro valor estimado de 15 %), con lo cual nuestro valor podría oscilar entre 12 y 18 %, y con un nivel de confianza de 80 % , requeriríamos un tamaño muestral de 233 encuestas válidas. El tamaño poblacional tiene un impacto mínimo en el tamaño muestral, y para efectos prácticos las más de las veces podemos asumir que es población infinita, en cuyo caso las fórmulas no lo toman en cuenta.

Por ejemplo, en el Hospital Cayetano Heredia, (2) estudian la incidencia de reumatismos extraarticulares en Brucellosis, y reportan un 14.3 % de Reumatismos Extra-Articulares entre 342 casos de Brucellosis. Si este hubiera sido el valor esperado, una muestra aleatoria de la misma magnitud hubiera satisfecho el criterio que mencionamos.
El nivel de confianza, en cambio, sí afecta los cálculos en forma importante. Así, para un fenómeno de prevalencia esperada de 10%, con un margen de 20 % (8-12 %) y población infinita, los tamaños muestrales según nivel de confianza van como siguen:

Nivel de Confianza            Tamaño Muestral

       80%                             369

       90%                             608

       95%                              864

       99%                           1,491

 

La elección del tamaño muestral a utilizar dependerderá de un balance entre nuestro requerimiento técnico y nuestras posibilidades logísticas y se obtención de pacientes o sujetos para el muestreo. En ese sentido, los tamaños muestrales sugeridos son los mínimos. Si uno puede superarlos, la precisión de las estimaciones aumentará. Por ejemplo, el Equipo del Servicio de Reumatología del HN Guillermo Almenara, para estimar la prevalencia del Síndrome de Hipermotilidad Articular del Adulto, empleó el cálculo antes descrito. Los autores (8) evaluaron 430 sujetos, superando su muestra sugerida en casi 20 %.

Así pues, el dato capital es la frecuencia esperada. Esta puede provenir de la literatura, de estudios previos, de fuentes de estadísticas de rutina, o de criterio de expertos. Por ejemplo, presentamos los datos para tres frecuencias posibles, manteniendo fijos los demás criterios:

                     Frecuencia Esperada           Tamaño Muestral

                                 3%                          1,326

                                10%                            369

                                15%                            233

Los tamaños muestrales se pueden calcular en textos especiales dados los valores antes mencionados como por ejemplo el texto de Lwanga y Lemeshow (7) o mediante programas de cómputo como la opción Statcalc de Epi Info (CDC, Atlanta, 1994).

b. Estudios de Cohortes o de Caso-Control

En estos casos, además de los datos antes mencio nados, requerimos saber la magnitud de la diferencia esperada como el dato crucial. En forma consistente con el caso anterior, a diferencias menores, requeriremos muestras mayores.

Supongamos un estudio en el cual ponemos a prue ba un medicamento para el cual esperamos una eficacia de 50 % para provocar remisión de síntomas en un seguirniento de 4 semanas, comparado con placebo, para el cual estimamos una eficacia de 30 %. En un caso así, se requerirá una muestra de 103 pacientes en cada grupo, totalizando 206, dados un poder de prueba de 80 %, y un nivel de confianza de 95%.

Llegados a este punto, expliquemos a qué nos referimos con <<poder de prueba>> y <<nivel de confianza>>. El Poder de una Prueba se define como la probabilidad de que este rinda un resultado significativo cuando la magnitud de la diferencia es la especificada o esperada. En nuestro ejemplo, que si la diferencia es realmente de 50 % a 30 %, nuestra prueba lo detectará en un 80 % de casos (4).

El Nivel de Confianza, se define como la capacidad de una prueba para rechazar correctamente una hipótesis nula verdadera, y por lo tanto es un valor complementario al llamado Nivel de Significación o Nivel Alfa, que es la probabilidad de aceptar (incorrectamente) una hipótesis nula verdadera. El Nivel de Significancia aceptable se ha fijado por convención en 5 % y por lo tanto el Nivel de Confianza consiguiente (1-alfa) es de 95 % en forma habitual.

Para aclarar estos conceptos con nuestro ejemplo anterior, recordemos que la teoría estadística se basa en la llamada hipótesis nula, es decir, asumir que en tanto no se dernuestre lo contrario se asume que cualquier diferencia observada entre dos grupos podría ser fruto simplemente del azar o de una variación aleatoria. Si es así, nuestra hipótesis nula diría que ambos, placebo y medicamento, tienen la misma eficacia, es decir, que no existe diferencia. Al fijar nuestro Nivel de Significación en 5% (y por tanto el de Confianza en 95 %) lo que estamos haciendo es exigir a la diferencia que sea de magnitud tal, que su resultado sea explicable por azar con una probabilidad (valor-p) de menos del 5 % o 0.05.

Si bien es usual emplear grupos del mismo tamaño, esto no es imprescindible. Se admite una proporción de 1:2 ó 1:3 en ambos sentidos, es decir, también de 2:1 ó 3:1. Así, si nos es difícil conseguir 103 Casos, podríamos trabajar no con proporciones de 1:1 sino de 2:1, empleando 78 casos y 156 controles. Como vemos, en este caso el total sube a 234, es decir, 30 sujetos más (5).

3. Concepto de Confusores. Fuentes y Control.

Los Factores de Confusión, o <<Confusores>>, como los llamaremos en este artículo, son aquellas variables asociadas en forma independiente a aquellas variables de nuestro interés, y que por lo tanto pueden sugerir asociaciones que resulten espúreas. Ejemplo clásicos de tales factores son la Edad, el Sexo, el Tiempo de Enfermedad, etc. (6)

La forma de defenderse de la presencia de Confusores es doble. Por un lado, medirlos, para poder hacer luego análisis estratificados, y por otro lado muestrear en forma estratificada según el factor confusor. Por ejemplo, si en un estudio en pacientes 1úpicos una variable importante a medir es el daño renal, el tiempo de enfermedad podría ser un confusor.
Para evitarla, podemos hacer muestras en dos o tres estratos, según tiempo de enfermedad, o si el grupo es pequeño, al menos medir la variable para poder luego ajustar en el momento del análisis estadístico.

4. Concepto de Sesgo. Tipos principales y control.

El Sesgo (<<Bias>>) se define corno <<cualquier efecto en cualquier momento de la investigación, tendiente a producir resultados que se aparten sistemáticamente del valor real>>. Se reconocen más de cincuenta variedades de sesgo (3), pero los tipos principales se pueden clasificar en dos grupos: Sesgos de Selección y Sesgos de Medición.
Los Sesgos de Selección se producen en la etapa de diseño y colección de la muestra, por incluir unos individuos y no otros, por lo cual nuestra muestra difiere significativamente de la población objetivo. Los estudios de Casos y Controles son particularmente vulnerables a este sesgo en la etapa de colección de los controles, pero también los estudios de cohortes cuando se parte de sub-poblaciones que pueden diferir significativamente de la población objetivo, como por ejemplo de un determinado hospital o servicio, o al emplear voluntarios.
Los sesgos de Medición ocurren en la etapa de colección de datos, y pueden surgir desde la entrevista, el tiempo de recuerdo al que se invoca, errores en la estructuración del cuestionario, sesgos al cuantificar o tomar medidas de un investigador a otro, etc.

Para defenderse de los Sesgos, la única manera es estar conciente de su existencia y ser cuidadosos en el diseño de la investigación, el muestreo, la representatividad de la muestra, y la calidad y estandarización de los instrumentos de recolección de datos y calibración o estandarización de criterios cuando los investigadores o medidores son varios. El hacer <<ciegos>> a los pacientes y a los investigadores respecto de su pertenencia a los grupos es, justamente, un mecanismo para protegerse del sesgo de medición o de respuesta que podría darse en estos casos.

5.Asociación Estadística: Odds Ratio, Riesgo Relativo
Los valores de probabilidad o valores <<p>>, que habitualmente empleamos en las pruebas de significación estadística, implican la probabillidad de error tipo I, es decir, de que las diferencias que observamos sean fruto del azar. Este tema será desarrollado en el próximo artículo.
No obstante, para interpretar la importancia de una asociación, no es suficiente con conocer el valor <<p>>, sino con disponer de valores que permitan ponderar la fuerza de la asociación estadística encontrada. Dos de estas medidas son el Odds Ratio y el Riesgo Relativo.
Ambas se derivan de resultados ordenados en una tabla tetracórica o de dos por dos, como la siguiente:

    Problema  
    Si No Total
  Si a b a+b
Factor Explorado        
  No c d c+d
  Total a+c b+d a+b+c+d



El Odds Ratio (OR) es una medida empleada en estudios transversales o de Casos y Controles. Uno se sus nombres en español es Razón de Productos Cruzados, lo cual describe su proceso de cáculo:


                                             OR= a.d / b.c

Por ejemplo,en un estudio en pacientes con LES para ver el compromiso neurológico, se exploró la asociación entre Convulsiones y IgG anti Cardiolipina, según la siguiente tabla:

Problema (Conclusiones)
    Si No Total
  Si 5 28 33
Factor Explorado
(IgC a CL)
       
  No 16 147 163
  Total 21 175 196

 

El cual se valoraría de la siguiente manera:

OR = 5 x 147 / 16 x 28 = 1.64

Valores de OR=1 se consideran como sinónimo de <<No Asociación>>, mientras que valores mayores de 1 implican asociación, la cual será más fuerte a mayor valor del OR: No obstante, es importante estar concientes del concepto de Intervalo de Confianza, es decir, del rango dentro del cual cae este valor,por ser en sí mismo una estimación del presunto valor real.
E·n este ejemplo, al calcular el Intervalo de Confianza al 95% (IC95), tenemos que este va de 0.48 – 5.20. Como el IC95 incluye a 1 , concluímos que es posible que la asociación sea inexistente, es decir, fruto del azar.
Así, en el estudio de Silman (9) antes mencionado, el OR para el inicio de AR en el postpartum inmediato es de 5.6 (IC95=1.8-17.6). En este caso, como el límite inferior del IC no incluye la unidad, consideraríamos esta asociación como válida según este criterio
Esto se correlaciona con un valor-p alto. Así, en el estudio de Silman (9) antes mencionado, el OR para el inicio de AR en el postpartum inmediato es de 5.6 (IC95=1.8-17.6). En este caso, como el límite inferior del IC no incluye la unidad, consideraríamos esta asociación como válida según este criterio.
Esto se correlaciona con un valor p-alto. Así, el valor-p calculado para esta tabla según este criterio.
Esto se correlaciona con un valor-p alto. Así, el valor-p calculado para esta tabla según la Prueba Exacta de Fisher sería el siguiente p=0.36.
En estudios de cohortes, y sólo en ellos, es legítimo el cálculo del Riesgo Relativo (RR), que expresa la relación el Riesgo entre los Expuestos (Factor Explorado Positivo) dividido entre el Riesgo entre los No Expuestos (Factor Explorado Negativo). En términos de nuestra tabla de dos por dos:

                       a / (a+b)
          RR = ----------------------
                       b / (b+d)

Al igual que en el OR, la fuerza de la asociación será mayor a mayor valor del RR. Otro concepto interesante aplicable por igual al RR y al OR es el del llamado <<efecto protector>>, que es el caso de valores de OR o de RR menores de 1 y que pueden llegar a tender a cero.
El estudio de los Factores de Riesgo es importante por el interés de identificar factores susceptibles de control que nos permitan modificar el curso de la enfermedad. La identificación de factores no modificables, Ilamados mejor <<Marcadores de Riesgo>>, tales como la edad, el sexo, etc. tiene un valor de identificación pero no de intervención modificatoria.
No obstante, para aquellos factores que esperamos modificar, hace falta considerar, además del Riesgo Relativo (RR), el llamado Riesgo Atribuible en Población (RAP), que es el resultado de considerar no sólo el Riesgo Relativo de un factor determinado, sino su frecuencia en la población o grupo de interés. Así, factores de RR muy alto, pero muy poco frecuentes, resultan con RAP bajos, pues son tan pocos los individuos afectados por é1, que su reducción no afectará significativamente el problema en el total de pacientes, mientras factores con RR moderados pero alta frecuencia pueden tener RAP altos y por tanto ser mejores puntos a ser considerados en programas de intervención.

El RAP se calcula de la siguiente manera:

RAP= F(RR-1)/[ 1 +F(RR- 1)] x100

donde F es la frecuencia del Factor en la población y RR el Riesgo Relativo. Como ilustración comparemos los efectos hipotéticos de corregir dos factores de riesgo, uno con RR= .

12 y Frecuencia = 5 % y uno con RR = 5 y con Frecuencia = 30 %. Así, reemplezando en la fórmula anterior tenemos: Para el primer caso:

RAP = 0.05 (12 -1)/[l +0.05(12 - 1)] x 100

              = 35.48 %

y en el segundo:

RAP = 0.3 ( 5 - 1)/ [1 + 0.3 (5 - 1) ] x 100

      = 54.5 %

Es decir, si logramos desaparecer el primer factor, nuestro problema se reduciría en un 35 %, mientras

que en el segundo lo reduciríamos en un 55 %.

Estos aspectos (OR y RR) son muy importantes y ayudan a estimar mejor la significancia clínica y de

salud pública de los resultados de una investigación, que no necesariamente se relacionan con los de sig
nificación estadística.
Una vez descartada la presencia de sesgos y confusores en una investigación, el paso siguiente consistirá en evaluar las pruebas de significación estadística empleadas. Esto será examinado en el próximo artículo.

 

Ver Referencias