INVITACIÓN PARA EL EDITORIAL

Decodificando la síntesis de la evidencia: conceptos

João Luis Alves Apóstolo1, Dalmo Valério Valério Machado de Lima2
1Escuela Superior de Enfermería de Coimbra
2Universidad Federal Fluminense

RESUMEN

Etapa esencial para la implementación de la práctica informada por evidencias es la denominada síntesis de la evidencia. Sin embargo, su concepción y aplicación está todavía distante de los investigadores, instituciones de enseñanza y pesquisas, profesionales etc. Con el objetivo de facilitar la comprensión del tema por los lectores, concatenando conceptos y práctica, seguirán los editoriales de primavera y verano del OBJN. Una de las formas más aceptadas para desarrollar la síntesis de la ciencia es la revisión sistemática de la literatura (RSL). Los métodos explícitos, sistemáticos y reproductibles utilizados en la RSL tienen como objetivo minimizar diferentes tipos de sesgos, incluyendo la evaluación crítica de la calidad de los estudios que atienden a los criterios de inclusión de la revisión en causa. Cuando la evidencia producida genera recomendaciones para la práctica o política, la inclusión de evidencias de baja calidad y con elevado riesgo de sesgo es una problemática.

Descriptores: Formatos de Publicación; Acceso a la Información; Enfermería Basada en la Evidencia.

Para la real implementación a lo largo del mundo, de la práctica informada por evidencias (PIE) es imprescindible tres elementos: características personales, liderazgo y clima organizacional(1).

Etapa esencial para la aludida implementación de la PIE es la denominada síntesis de la evidencia. Sin embargo, su concepción y aplicación está todavía distante de los investigadores, instituciones de enseñanza y pesquisas, profesionales etc. Entonces con el objetivo de facilitar la comprensión del tema por sus lectores, concatenando conceptos y práctica, seguirán los editoriales de primavera y verano del OBJN, respectivamente.

Debido a la explosión del conocimiento, con cerca de dos millones de nuevas entradas de publicaciones científicas en bases de la literatura a cada año, se hace difícil que los clínicos desarrollen procesos de síntesis de la ciencia, por la pericia y recursos que un proceso de esta naturaleza exige. Por esta razón, deben existir equipos especializados y entrenados para utilizar métodos rigorosos con el objetivo de reunir y evaluar todas las evidencias disponibles en determinados tópicos de interés, aliviando a los clínicos de esta carga(2).

Existen varios factores que pueden motivar a los autores para realizar la síntesis de evidencia: clarificación de evidencias conflictivas, abordaje de cuestiones con práctica clínica incierta, exploración de las variaciones en la práctica, confirmación de la adecuación de las prácticas corrientes, o el destaque de necesidad de investigaciones futuras(1).

Una de las formas más aceptadas para desarrollar síntesis de la ciencia es la revisión sistemática de la literatura (RSL). Por lo tanto, hay un número creciente de colaboraciones especializadas, institutos y centros con personal calificado para entrenar revisores, realizar revisiones sistemáticas y facilitar la cooperación entre los colaboradores(2).

La RSL es una investigación secundaria compleja, detallada y reproductible que envuelve un compromiso significativo de tiempo y otros recursos. En esta metodología se utiliza un proceso para localizar y sintetizar/agregar, a partir de la literatura primaria, todas las evidencias existentes sobre un determinado tópico, y para eso, el revisor usa una fuente secundaria de datos. La RSL es una tentativa de integrar los datos empíricos, provenientes de los estudios primarios, con la finalidad de descubrir la evidencia internacional y producir declaraciones que orienten la toma de decisiones clínicas, requiriendo una comunicación explícita y exhaustiva de los métodos utilizados(2,3).

Aunque la evidencia sea limitada o inexistente, las RSL resumen las mejores evidencias disponibles sobre un tema específico, ofreciendo la mejor de ellas para subsidiar a toma de decisiones y para futuras necesidades de investigación clínica(3). Si no existe información primaria sobre un determinado tópico, la opinión de los peritos puede constituir la mejor evidencia disponible(2).

Los métodos explícitos, sistemáticos y reproductibles utilizados en la RSL tienen por objetivo minimizar diferentes tipos de sesgos, proporcionando, así, resultados más confiables para sustentar las conclusiones y las decisiones tomadas. La RSL es: una metodología reproductible y explícita; una procura sistemática que intenta identificar todos los estudios que satisfacen los criterios de elegibilidad; una evaluación de la validad de las conclusiones de los estudios incluidos, por ejemplo, por medio de la evaluación del riesgo de sesgo; una presentación sistemática y sintetizada de las características y resultados de los estudios incluidos(2,4).

Por eso, para cualquier RSL se debe desarrollar los siguientes pasos: formular una pregunta de revisión; definir criterios de inclusión y exclusión; localizar los estudios; seleccionar los estudios; evaluar la calidad metodológica de los estudios; extraer los datos; analizar/resumir y sintetizar los estudios relevantes; presentar los resultados; interpretar los resultados; y determinar la aplicabilidad de los resultados(4).

Para orientar una revisión se deberá previamente, desarrollar un protocolo orientador y ajustado a la tipología de revisión. Un protocolo de RSL deberá estar compuesto por diferentes secciones, como el título, informaciones sobre la autoría, background, criterios de inclusión y de exclusión para seleccionar los estudios, y por los métodos de investigación para identificación de estudios, de evaluación crítica da su calidad, así como de extracción y síntesis de los datos. En el background se deben presentar los argumentos que sustentan la necesidad de realizar la revisión y se deben definir los conceptos en análisis. Tienen que ser colocados en contexto los diversos elementos de la estrategia PICO o de la respetiva adaptación específica para cada revisión. La sección de métodos que especifica los criterios de inclusión y exclusión para seleccionar los estudios incluye el tipo de estudios, tipo de participantes, tipo de intervenciones, tipo de medidas de resultado, siendo que los criterios a especificarse pueden variar dependiendo del tipo de RSL planeada(4).

Después de realizada la RSL, los revisores presentan un informe, cuya estructura deberá ser inherente al desarrollo de las secciones del protocolo. Este deberá contener, genéricamente: (i) datos sobre el riesgo de sesgo de los estudios incluidos y derivados del proceso del análisis de la calidad metodológica; (ii) descripción de estudios incluidos en la revisión; (iii) resultados que responden a la cuestión de revisión; (iv) discusión de los resultados, indicación de las fragilidades de la revisión y de los estudios incluidos, así como las implicaciones para la práctica y para la investigación; y finalmente, (v) una conclusión relativa a la cuestión de revisión(4).

Un paso crítico en cualquier RSL es la evaluación crítica de la calidad de los estudios que atiendan a los criterios de inclusión de la revisión en causa. La noción de métodos para minimizar el sesgo y establecer la credibilidad en las revisiones sistemáticas ha sido ampliamente desarrollada y debatida en términos de evidencia cuantitativa y cualitativa.

El objetivo de la evaluación crítica es estimar hasta qué punto los riesgos potenciales de sesgo y de consistencia de la calidad fueron minimizados durante la conceptualización y la realización de los estudios primarios individuales, y si se ha utilizado adecuadamente el método y la metodología. Cada estudio elegible debe ser evaluado basándose en un conjunto de criterios para establecer la validad y la confiabilidad del proceso y de los resultados. Esta evaluación crítica tiene que ser presentada en el informe, en la sección de resultados de la revisión, acompañada de una discusión relativa a la calidad metodológica y al potencial de riesgo de sesgo de todos los estudios incluidos y excluidos con base en este juicio crítico. Cuando la evidencia producida genera recomendaciones para la práctica o política, la inclusión de evidencias de baja calidad y con elevado riesgo de sesgo es problemática. En las revisiones preconizadas por el Joanna Briggs Institute (JBI) el equipo de revisores puede definir un punto de corte que oriente la decisión de excluir estudios considerados de baja calidad o con alto riesgo de sesgo. Puede considerar, entonces, abordajes alternativos, tales como meta-regresión o análisis de sensibilidad, en el caso de haber lugar para el meta-análisis(4).

Las evidencias sobre los efectos de las intervenciones pueden constituirse a partir de estudios con riesgo diversificado de sesgo. Existen dos abordajes que son igualmente razonables para conducir una revisión sistemática eficaz. Incluir solamente estudios con bajo o moderado riesgo de sesgo, justificando como este riesgo es determinado y el otro, considerando el grado de sesgo y excluyendo todos los estudios considerados de alto riesgo. También se puede incluir todos los estudios, independientemente do su riesgo de sesgo, y explícitamente considerar el riesgo de los diferentes estudios durante la síntesis de datos(4).

La evaluación de la calidad de los estudios cuantitativos de eficacia incluidos en una revisión debe enfatizar el riesgo de sesgo de sus resultados, o sea, el riesgo de superestimar o subestimar el efecto de la intervención(3). El sesgo no debe confundirse con imprecisión. El primero se refiere al error sistemático, mientras que la precisión se refiere al error aleatorio y se refleja en el intervalo de confianza en torno de la estimativa de efecto de la intervención de cada estudio y en el peso dado a los resultados de cada estudio en un meta-análisis. Los resultados más precisos tienen más peso en el meta-análisis(3,4).

La colaboración Cochrane establece la diferencia entre riesgo de sesgo y calidad metodológica. El término evaluación de la calidad metodológica se utiliza para hacer referencia a la evaluación crítica de los estudios incluidos y sugiere que el estudio fue desarrollado bajo los más elevados patrones metodológicos(3).

Un estudio puede ser realizado con los más altos patrones posibles de calidad y sin embargo, tener un elevado riesgo de sesgo relacionado, por ejemplo, con la impracticabilidad para ocultarles a los participantes la intervención a la que están sujetos. Esta es de hecho, un condicionante de las intervenciones no farmacológicas comparadas con los cuidados usuales (ejemplo de la estimulación cognitiva), contrariamente a las intervenciones farmacológicas sobre las cuales es posible hacer estudios ciegos con un fármaco y un placebo. Otro ejemplo es el de una intervención quirúrgica en la que es imposible ocultar esa intervención. Entonces, es inadecuado juzgar a estos estudios como teniendo baja calidad, lo que no significa que ellos estén libres de sesgo resultante del conocimiento, por los participantes de la intervención a la que están sujetos(3).

El riesgo de sesgo en los resultados de cada estudio, que contribuye para una estimativa do efecto, es uno de los varios factores que deben ser considerados al evaluar la calidad de un cuerpo de evidencia. En los estudios de eficacia, el control de riego se orienta para las características de los estudios en relación a la selección, intervención, detección, atrito, y publicación, entre otros.

También en las RSL de estudios cualitativos se justifica la síntesis de la evidencia porque los resultados a partir de un único estudio cualitativo no deben ser considerados para producir recomendaciones para la práctica(4). También, tal como en la investigación cuantitativa, la evaluación crítica de los estudios primarios cualitativos es fundamental para establecer su calidad(4,6).

Tradicionalmente, los términos usados para evaluar críticamente el rigor de la investigación son la confiabilidad (reliability) y la validad. Generalmente, la confiabilidad es la medida en que los resultados de un estudio, relativos a una medición son reproductibles en diferentes circunstancias. A su vez, la validad se refiere al grado en la que un estudio refleja o evalúa el concepto específico que el investigador está intentando medir con precisión. Pero la evaluación crítica de estudios cualitativos presenta contornos diferentes. Cuestiones de naturaleza ontológica, epistemológica, metodológica, ética, afiliación, background, experiencia y contexto del investigador son fundamentales para calcular el valor de la investigación cualitativa primaria y pueden hacer de la síntesis de los resultados cualitativos una tarea compleja y asustadora(4,6,7).

La confiabilidad/reproductividad de las medidas, la validad interna y externa y la objetividad son criterios considerados esenciales para la calidad de los estudios cuantitativos. En los estudios cualitativos debemos considerar criterios correspondientes. En este sentido, los conceptos de dependability, credibility, transferability y confirmability, mencionados por Lincoln y Guba(8) deberán ser considerados para establecer el valor de un estudio cualitativo.


CITAS

  1. Apóstolo J, Cardoso D, Rodrigues MA. It takes three to tango: embracing EBP. JBI Database System Rev Implement Rep [internet]. 2016 Apr [cited xx xx xx]; 14 (4): 1-2. Available from: http://journals.lww.com/jbisrir/Fulltext/2016/04000/It_takes_three_to_tango___embracing_EBP.1.aspx
  2. Pearson A, White H, Bath-Hextall F, Salmond S, Apóstolo J, Kirkpatrick P. A mixed-methods approach to systematic reviews. International Int J Evid Based Healthc [internet]. 2015 [cited xx xx xx]; 13(3: 121-131. doi: 10.1097/XEB.0000000000000052.
  3. Higgins JP, Green S. Cochrane handbook for systematic reviews of interventions, version 5.1.0. Londres: The Cochrane Collaboration; 2011. [cited xx xx xx]. Available from: http://handbook.cochrane.org/
  4. Joanna Briggs Institute. Joanna Briggs Institute reviewers’ manual: 2014 edition. Adelaide: The Joanna Briggs Institute; 2014. [cited xx xx xx]. Available from: http://joannabriggs.org/assets/docs/sumari/reviewersmanual-2014.pdf
  5. Tufanaru C, Munn Z, Stephenson M, Aromataris E. Fixed or random effects meta-analysis? Common methodological issues in systematic reviews of effectiveness. Int J Evid Based Healthc. 2015; 13(3): 196-207.
  6. Sandelowski M, Voils CI, Barroso J. Defining and designing mixed research synthesis studies. Res Sch. 2006; 13(1), 29-40.
  7. Apostolo J, Gameiro M. Referências onto-epistemológicas e metodológicas da investigação em enfermagem: uma análise crítica. Revista Referência. 2005; 2(1), 29-38.
  8. Lincoln YS, Guba EG. Naturalistic Inquiry. Newbury Park, CA: Sage Publications; 1985.

Recibido: 09/08/2016 Aprobado: 09/08/2016