Skip to main content
PEDIATRÍA INTEGRAL - Revista de formación continuada dirigida al pediatra y profesionales interesados de otras especialidades médicas

PEDIATRÍA INTEGRAL Nº9 – NOVIEMBRE 2012

Interpretación de la literatura científica. MBE

 
C. Coronel Rodríguez, P. Martín Muñoz*

Doctor en Medicina, Pediatra de EBAP. Centro de Salud “Amante Laffón”,
*Centro de Salud “La Plata”. Sevilla. Distrito Sanitario de Atención Primaria de Sevilla


 

En esta nueva sección se van a presentar los capítulos del libro “Manual de Iniciación a la Investigación en Pediatría de Atención Primaria” recientemente editado por la SEPEAP. Consideramos esencial potenciar y desarrollar los conocimientos, habilidades y actitudes de los pediatras de Atención Primaria en el campo de la investigación, que contribuirá a mejorar el cuidado de nuestros pacientes. Os animamos a que nos enviéis vuestros trabajos de investigación, que tras la evaluación por el Consejo editorial, podrán ser publicados en la revista. ¡Esperamos vuestras aportaciones!
Consejo Editorial de PI

 
Pediatr Integral 2012; XVI(9): 732-740


Interpretación de la literatura científica. MBE

 

Introducción

La medicina es una ciencia de probabilidades y un arte de saber manejar la incertidumbre. Para adquirir esa ciencia, los clínicos necesitamos información y solemos obtenerla de los libros y de las revistas médicas más o menos especializadas. Anualmente son miles las publicaciones y cientos de miles los trabajos que conciernen al ámbito de la medicina, por lo que es imposible abarcarlas y no digamos ya leerlas u organizarlas para poder al menos analizar su gran cantidad de información.

Últimamente, con el desarrollo de revistas online, su número se ha disparado dada la reducción de costes, lo que no supone necesariamente una disminución de la calidad. Aún así, el promedio de artículos aceptados para ser publicado por una revista no llega ni al 15% de los recibidos. La literatura médica se renueva permanentemente y de manera muy rápida, influyendo de forma no validada en la práctica clínica. El difícil acceso y seguimiento de toda esta información, la paulatina disminución de nuestra actualización profesional con el tiempo y la escasez de oportunidades de formación constituyen un problema que repercute en nuestra asistencia diaria.

Como resultado de todo lo anterior encontramos que nuestros conocimientos rápidamente quedan desfasados y, como consecuencia, la práctica clínica se deteriora sin que la formación médica continuada tradicional sirva para mejorarla. Afirmaba Umberto Eco que “el exceso de información puede generar fácilmente una falta de información”, como cuando “los árboles no te dejan ver el bosque” y mucha información sin desgranar la paja tampoco es buena. Por el contrario, los libros de texto cuando se publican muchas veces ya están anticuados, recomendando tratamientos cuya ineficacia se conoce desde años antes o por el contrario no mencionando otros con una utilidad ya demostrada.

Por otro lado, resulta una creencia habitual pensar que la publicación de cualquier comunicación científica (en forma de artículo original, nota o caso clínico, artículo de revisión, etc.) goza de suficiente valor simplemente por editarse en una revista de impacto. Igualmente, también solemos considerar que el prestigio o experiencia profesional del autor avala la calidad de lo publicado. Además, todo investigador (consciente o inconscientemente) está expuesto a prejuicios y sesgos que pueden alterar la validez de los estudios. Finalmente, es frecuente asumir que el hecho de que si la investigación publicada utiliza un diseño experimental constituye garantía de su validez científica. La realidad, sin embargo, demuestra que la calidad de los artículos de investigación publicados es muy variada. Debemos ser conscientes que actuar en base a pruebas científicas incorrectas es probablemente peor que actuar sin pruebas, y que podemos aplicar a nuestros pacientes intervenciones cuyo balance riesgo/beneficio no esté demostrado. Parece evidente entonces que necesitamos distinguir aquellas pruebas científicas válidas que nos permitan asegurar que las actuaciones que realizamos en nuestra práctica clínica cotidiana son las mejores a tenor de los conocimientos del momento. Por lo tanto, digerir la ingente información disponible de manera provechosa requiere una estrategia clara y decidida de búsqueda, valoración, síntesis y lectura de la literatura científica.

Medicina basada en la evidencia

El concepto de Evidence based medicine, traducido al español, quizá de forma no muy afortunada, como “medicina basada en la evidencia” (MBE), fue presentado en el año 1991 a través de un editorial en la revista ACP Journal Club. Al año siguiente, un grupo de internistas y epidemiólogos clínicos vinculados a la Universidad Mc Master, en Canadá, y dirigidos por Gordon Guyatt, constituyeron el grupo de trabajo de MBE, y publicaron su primer artículo en JAMA.

La primera definición explícita de la MBE fue enunciada por Sackett en 1996 como “utilización consciente, explícita y juiciosa de la mejor evidencia científica clínica disponible para tomar decisiones sobre el cuidado de cada paciente”. El término hace referencia a un nuevo enfoque en la docencia y práctica de la asistencia sanitaria, donde priman la importancia de las pruebas o “evidencias” procedentes de la investigación, así como la interpretación prudente de la información derivada de observaciones no sistemáticas. La MBE considera que la sola comprensión de la fisiopatología de una enfermedad por sí sola es insuficiente para la práctica clínica de calidad, y en la práctica la MBE significa integrar la competencia clínica individual con la mejor evidencia clínica externa disponible a partir de la investigación sistemática. En muchos casos la investigación procede de las ciencias básicas, pero principalmente se debe usar la centrada en pacientes sobre pruebas diagnósticas, marcadores pronósticos, etc.

El porqué surge la MBE ahora se debe a una serie de factores que coinciden en el tiempo: por una lado la comprobación de una variabilidad de las prácticas clínicas, con resultados inciertos o desconocidos, la necesidad de racionalizar las prestaciones, los múltiples problemas relacionados con la información científica y las oportunidades de la “sociedad de la información y del conocimiento” que con su gran desarrollo ha permitido el acceso inmediato a grandes volúmenes de información, a unos costes más reducidos y con mayores facilidades para el trabajo en red de grupos cooperativos, la posibilidades de una mayor eficiencia en el desarrollo de estudios clínicos con mayor transparencia y comparación.

Por el contrario, también podemos citar algunos obstáculos para el desarrollo de la MBE: ésta puede ser percibida como algo impracticable, difícil, una amenaza a la experiencia y a la opinión personal, algo paralizante o algo más de lo mismo. No podemos decir que es imposible de practicar ni que lo haga todo el mundo, si bien cada vez se extiende más dentro de la asistencia médica en todas las especialidades. Tampoco se ha creado para reducir costes, aunque se presume a veces de ella en la “gestión sanitaria”; es más, su mala utilización podría ser un error de consecuencias económicas importantes.

La MBE propone un método estructurado para resolver las dudas derivadas de nuestra práctica clínica habitual. Siguiendo el esquema propuesto por D. Sackett, comprende cinco pasos fundamentales:

1. Conversión de la necesidad de información en una pregunta clínica estructurada.

2. Realización de una búsqueda bibliográfica eficiente para localizar artículos que puedan responderla.

3. Valoración crítica de los documentos recuperados: análisis de la validez (proximidad a la verdad) y aplicabilidad (utilidad en la práctica clínica diaria) de los resultados.

4. Integración de las pruebas obtenidas con nuestra experiencia clínica y los valores y circunstancias exclusivas del paciente (aplicabilidad).

5. Evaluación de nuestra efectividad y eficacia en la ejecución de los pasos anteriores y búsqueda de maneras de mejorar el proceso en próximas ocasiones.

Conversión de la necesidad de información en una pregunta clínica estructurada

El primer paso en la práctica de la MBE supone convertir las necesidades de información que nos surgen en nuestra consulta en preguntas susceptibles de respuesta. Esta pregunta puede referirse al valor de distintos tests diagnósticos, al pronóstico de una enfermedad o a los beneficios o riesgos de las distintas opciones terapéuticas que se pueden emplear en esa situación. El tipo de recurso que más nos conviene utilizar dependerá del tipo de pregunta planteada y del tiempo que dispongamos (Tabla I).

 

 

La formulación correcta de una pregunta clínica (sobre prevención, diagnóstico, pronóstico, terapia, etiología, etc.) debe incluir cuatro componentes, resumidos en el acrónimo inglés PICO:

• Population: la población diana incluyendo las características del paciente (edad, sexo, raza, características del problema clínico).

• Indicator (intervention, test, etc.): la intervención, exposición o procedimiento diagnóstico que se evalúa.

• Comparator: con qué otra intervención se compara.

• Outcome: medida del efecto que nos interesa (mortalidad, alivio de síntomas, impacto económico, satisfacción, etc.).

Realización de una búsqueda bibliográfica eficiente para localizar artículos que puedan responderla

Podemos mantenernos actualizados aprendiendo a practicar la MBE, o aprendiendo a buscar resúmenes de MBE realizados por otros colegas y aceptando los protocolos desarrollados por éstos. Para conseguir, no obstante, recuperar respuestas válidas para nuestras incertidumbres debemos utilizar un método estructurado de búsqueda de información.

Resulta necesario en primer lugar realizar una elección de las palabras clave, con el fin de orientar la búsqueda bibliográfica inicial, con provisión de material teórico acerca de cómo realizarla e información sobre la existencia de fuentes útiles donde indagar, bibliotecas virtuales y sus correspondientes direcciones.

Desde un punto de vista didáctico, las fuentes de información bibliográficas en las que podemos encontrar respuesta a nuestras lagunas de conocimiento se dividen en dos grandes grupos, fuentes secundarias y fuentes primarias o “tradicionales”:

• Fuentes de información secundarias: no requieren valoración crítica, ya que los documentos recuperados de ellas han superado habitualmente un filtro de calidad metodológica. Estas han rastreado ya las revistas para seleccionar los artículos relevantes o resúmenes más informativos. Además, añaden comentarios críticos e introducen notas aclaratorias. Entre ellas, podemos destacar:

– Revisiones sistemáticas: responden a la necesidad de agrupar todos los aspectos que abordan un mismo tema en una fuente común con una visión general clara, completa, rigurosa y actualizada. En situaciones en las que no se dispone de tiempo para obtener respuesta a una pregunta clínica en un gran ensayo clínico es más rápido y menos costoso realizar una revisión sistemática. El paradigma de las revisiones sistemáticas lo constituye la Colaboración Cochrane; su objetivo es analizar, mantener y divulgar revisiones sistemáticas de los efectos de la asistencia sanitaria por medio de ensayos clínicos controlados. Está accesible en castellano de forma libre gracias al Ministerio de Sanidad y en esta dirección: (http://www.cochranelibrary.com/clibplus/clibpluslogon.htm).

– Revistas con resúmenes estructurados: son un nuevo tipo de revistas que seleccionan resúmenes estructurados de artículos científicamente importantes e incorporan comentarios críticos (p. ej.: Evidencias en Pediatría: www.evidenciasenpediatria.es).

– Archivos de temas valorados críticamente: son bancos de datos cuyo objetivo es aprovechar el esfuerzo realizado para responder a una pregunta clínica a través de la valoración crítica de determinados artículos. Son breves resúmenes, por lo general de una página, que resumen la evidencia para los clínicos (p. ej.: www.bestbets.org; www.cebm.net/cats.asp).

– Guías de práctica clínica: recomendaciones desarrolladas sistemáticamente para ayudar a los médicos y a los pacientes a decidir sobre la atención sanitaria más apropiada en circunstancias clínicas concretas, y que contribuyen a disminuir la variabilidad en la práctica clínica. A ellas podemos acceder a través de las páginas web de los organismos elaboradores (p. ej.: SIGN: www.sign.ac.uk) o de directorios específicos que recopilan guías (p. ej.: National Guidelines Clearinghouse: www.guideline.gov; GuiaSalud: www.guiasalud.es).

– Informes de Agencias de Evaluación de Tecnología Sanitaria: responden a cuestiones relativas a la seguridad, eficacia, efectividad, eficiencia, utilidad o impacto de una tecnología. Podemos acceder a sus informes a través de la web de INAHTA (International Network of Agencies for Health Technology Assessment: www.inahta.org).

– Bases de datos de MBE: metabuscadores que permiten la realización de búsquedas electrónicas de las principales fuentes de información secundarias (el más importante actualmente es TRIPdatabase: www.tripdatabase.com, o su reciente versión en castellano Excelencia Clínica: www.excelenciaclinica.net).

• Fuentes de información primarias: requieren habitualmente una valoración crítica de los artículos obtenidos, pero son las que todavía muchos profesionales suelen utilizar:

– Bases de datos bibliográficas tradicionales: Medline (con su versión electrónica PubMed), Embase, Science Citation, Index, Current Contents, etc.

– Revistas médicas tradicionales: para tener un grado de actualización adecuado en la especialidad de Pediatría y sus Áreas Específicas deberíamos revisar periódicamente al menos diez de las publicaciones internacionales de mayor impacto científico.

Libros de texto: es la forma más frecuente de consulta en nuestra formación en el pregrado y una fuente tradicional de consulta en nuestra práctica clínica en el postgrado y formación continuada.

La búsqueda tradicional de soluciones a las incertidumbres clínicas ha recaído en libros y manuales que han dejado muestra de sus limitaciones (al menos en formato papel) para incorporar, con la actualidad suficiente, el conocimiento científico más reciente. Entre otras razones porque suele haber un importante desfase entre los descubrimientos científicos y la edición del libro. La mayoría de los libros cuando se editan tienen ya algunas recomendaciones obsoletas.

Una posible estrategia de búsqueda se describe en la figura 1. Siempre es útil iniciar nuestra búsqueda con la elección de las palabras clave/descriptores que configuren el perfil de búsqueda y faciliten la exploración de las fuentes de información (vocabulario estructurado). Para ello podemos utilizar MeSH Database de PubMed (términos MeSH) o los términos en español a través de los Descriptores en Ciencias de la Salud de la biblioteca virtual en salud (http://decs.bvs.br/E/homepagee.htm).

 

Figura 1. Estrategia de búsqueda bibliográfica.

 

Valoración crítica de los documentos recuperados

Si hemos elegido la vía de selección de artículos primarios, una vez recuperada la información, hay que realizar un análisis crítico de la misma. Este análisis nos permitirá excluir aquellos artículos de dudosa calidad científica. Una vez localizado el artículo potencialmente útil, el primer paso es pues decidir de forma rápida si puede ser válido. Un artículo es válido si sus resultados son próximos al valor verdadero. Puesto que no conocemos ese resultado “ideal”, hemos de establecer que no existan sesgos que conduzcan a una estimación falsa. Para ello, nuestra valoración ha de concretar si en su concepción y realización se guardaron unos requisitos mínimos. Esto puede hacerse con algunas preguntas simples cuyas respuestas se encuentran a veces en el mismo resumen del artículo.

Si elegimos la vía de las fuentes secundarias para resolver nuestras dudas no será necesario ningún proceso adicional de análisis de la información recuperada. En este caso, bastará decidir seleccionar las fuentes fiables por su rigor en la metodología de elaboración de sus documentos y su actualización.

La lectura crítica de la información científica es una técnica que permite adquirir habilidades necesarias para excluir con rapidez los artículos de mala calidad y basar la toma de decisiones para el cuidado de nuestros pacientes en aquellos otros que presenten suficiente rigor metodológico. Esta nueva metodología va más allá de considerar únicamente la estructura idónea de un artículo de investigación (Tabla II).

 

 

La preocupación por la evaluación de la literatura médica se inicia hace ya unos años en una serie de artículos publicados en varias revistas internacionales, en los que se detalla cómo debe ser este procedimiento en función del tipo de estudio (tratamiento, diagnóstico, pronóstico, etc.). En España, la red CASPe (Critical Appraisal Skills Programme español, www.redcaspe.org) proporciona herramientas (calculadoras y listas de comprobación) útiles para la valoración crítica de artículos (Tabla III), basadas en la metodología del Centre for Evidence Based Medicine de la Universidad de Oxford.

 

 

Aunque cada tipo de estudio contempla algunas cuestiones específicas, hay tres grandes aspectos que deben ser evaluados y que pueden concretarse en tres preguntas:

1. Validez: ¿se justifican las conclusiones con la metodología empleada?

2. Importancia: ¿cuáles son los hallazgos principales?

3. Aplicabilidad: ¿en qué medida son aplicables a mis pacientes?

Así pues, primero el lector debería determinar si los resultados del estudio son válidos internamente, revisando los métodos utilizados por los investigadores. Sólo si el artículo describe métodos que han manejado apropiadamente las principales fuentes de error y sesgos, se justifica proceder con los pasos siguientes. En caso contrario, no es útil continuar su análisis y sería mejor desechar el trabajo. En segundo término, se debe proceder a determinar cuáles son los resultados del estudio y su impacto clínico potencial. Finalmente, el lector debe establecer la medida en que dichos resultados son válidos externamente y le serán de utilidad para la atención de sus propios pacientes.

Validez

La lectura crítica de un trabajo científico se inicia evaluando si el diseño es metodológicamente el adecuado y su desarrollo garantiza resultados no sesgados. La validez interna es la extensión en la que los efectos observados en el estudio son correctos para la muestra de sujetos que participaron en el mismo y está determinada por la calidad del diseño, la recolección de los datos y su análisis.

Cuando se realiza la lectura crítica de un trabajo, lo primero que debe ocuparnos es establecer su validez interna, definida como la adecuación metodológica de su diseño y desarrollo que garantiza que sus resultados sean no sesgados y, por tanto, nos permitan una buena estimación de la eficacia real de la intervención de estudio. Cuanto más válido sea un estudio, mejor se aproxima a la verdad en sus resultados.

En primer lugar, hemos de determinar si el tipo de estudio elegido es el adecuado para responder a la pregunta que se plantean los autores, si los objetivos fueron definidos de manera precisa y si la hipótesis se formuló claramente (Tabla I). El siguiente aspecto es considerar si el tamaño de la muestra fue suficiente y cómo se seleccionaron los sujetos y se asignaron a los grupos de estudio y de control, que deben ser similares en todas las características a excepción de la variable estudiada. Tanto los pacientes como los investigadores deberían desconocer el tipo de intervención que recibe cada participante (doble ciego), sobre todo en caso de que el desenlace valorado se defina mediante criterios subjetivos. Interesa conocer además si los pacientes culminaron el seguimiento previsto y si éste tuvo una duración suficiente, si fueron tratados homogéneamente con las mismas co-intervenciones y analizados finalmente en el grupo al que originariamente fueron asignados, independientemente de lo que ocurriera con ellos (análisis por intención de tratar).

Para artículos relacionados con intervenciones terapéuticas el diseño exigible al estudio debe ser el ensayo clínico controlado aleatorizado. Cuando nuestras preguntas son sobre pruebas diagnósticas, debemos buscar estudios transversales en los que, en una adecuada muestra de la población de interés (representatividad), se analicen simultáneamente los resultados de la prueba a estudio comparándola con una prueba de referencia que es el patrón oro o gold estándar de reconocida utilidad. Si es sobre marcadores pronósticos comprobar si ha habido una cohorte de inicio (Tabla I).

Importancia

Una vez considerado el estudio válido, es necesario evaluar el impacto potencial de los resultados obtenidos. Este impacto depende fundamentalmente de dos factores: el tamaño (magnitud) y la precisión del efecto reportado en el artículo.

Una de las dificultades para trasladar los resultados de una investigación a la práctica clínica se debe a la forma en que habitualmente se presentan los resultados. Aunque el procedimiento para evaluar los efectos de un tratamiento esta muy protocolizado (el ensayo clínico aleatorizado controlado) la manera de expresarlo no lo está tanto. En la literatura clínica y epidemiológica se usan distintos índices para expresar el efecto de un tratamiento, todos ellos correctos y legítimos.

Las medidas de magnitud de efecto van a ser diferentes dependiendo del tipo de artículo valorado:

• Riesgo relativo, reducción absoluta del riesgo y número necesario a tratar en el caso de artículos sobre intervenciones terapéuticas;

• Sensibilidad, especificidad, cocientes de probabilidad en los artículos de pruebas diagnósticas, etc.);

• Probabilidad de que suceda el evento que interesa conocer si estamos ante un estudio de factores pronóstico, etc.

La precisión de los datos mostrados indica en qué medida el resultado estimado en el estudio representa exactamente el verdadero efecto que estamos buscando en la población de la que han sido extraídos los sujetos. Depende principalmente del poder estadístico del estudio que, a su vez, está influenciado por el del tamaño de la muestra. Esto confirma algo que es correcto intuitivamente para la mayor parte de los clínicos: mientras mayor sea la muestra de un estudio, mayor será la credibilidad de sus resultados.

La significación estadística tradicionalmente se ha representado con el valor de la “p”, que expresa la probabilidad de error al comparar dos o más grupos cuando aseguramos que ambos son diferentes. Dicho de otra manera, la probabilidad que el resultado obtenido se haya debido al azar. Puede tomar un valor de 0 a 1 (p=0 ninguna probabilidad que el resultado se haya debido al azar, p=1 existe el 100% de probabilidad que el resultado se haya debido al azar). En la investigación clínica se acepta que un resultado con un valor de p inferior a 0,05, es estadísticamente significativo; es decir, que existe una probabilidad menor del 5% de que ese resultado se haya debido al azar.

Actualmente, sin embargo, para determinar la precisión de los estudios, cada vez se utilizan más los intervalos de confianza que se refiere al intervalo dentro del cual se encuentra la verdadera magnitud del efecto (nunca conocida exactamente) con un grado prefijado de seguridad. A menudo se habla de “intervalo de confianza al 95%” (o “límites de confianza al 95%”). Quiere decir que dentro de ese intervalo se encontraría el verdadero valor del efecto en el 95% los casos. Cuanto más estrecho sea el intervalo de confianza, mayor es la precisión con la que se estima el efecto en la población.

Aplicabilidad

Hay que tener en cuenta por otra parte que la importancia de los hallazgos no viene determinada únicamente por la significación estadística obtenida, sino por la relevancia clínica que representan. La significación estadística no informa de la dimensión o importancia de los resultados, tan sólo de la probabilidad de que dichos resultados sean atribuibles al azar. Si el tamaño del efecto encontrado en un estudio resulta insignificante desde el punto de vista clínico, no importa su nivel de significación, ya que su aplicabilidad será cuestionable.

De forma esquemática, el proceso de valoración de la importancia clínica de los resultados de un estudio debe incluir al menos cuatro tipos de valoraciones:

• Valoración cuantitativa de los resultados: estimación de medidas de efecto e impacto, evaluación de equivalencia, superioridad o no inferioridad.

• Valoración cualitativa: consideración de la repercusión sobre la toma de decisiones diagnósticas o terapéuticas y del beneficio sobre el paciente.

• Valoración comparativa: comparación con los resultados de otros estudios con las mismas o distintas medidas de efecto.

• Valoración beneficio-riesgo-coste: ponderación de beneficios con los riesgos y costes.

Así pues, entre otros factores a considerar también estarían la severidad del resultado medido y su frecuencia en los sujetos que no reciben tratamiento (riesgo basal). Indudablemente muchas intervenciones clínicas aportan beneficios, a veces considerables, pero esas mismas intervenciones no están exentas de riesgos, de inconvenientes y costes. La adecuación aparece así como un problema de ponderación.

La aplicabilidad de los resultados, la exposición detallada de los datos clínicos relevantes, los beneficios y costes de la intervención definen la validez externa, también denominada posibilidad de generalización, es la extensión en la que los resultados de una observación en una muestra de individuos son válidos para sujetos que no participaron en la investigación. En otras palabras, la validez externa expresa la presunción de que los sujetos del estudio son comparables a otros fuera del mismo.

En sentido estricto, un ensayo clínico nos proporciona resultados referidos a una población concreta definida por los criterios de inclusión y exclusión establecidos en el protocolo del estudio y aplicados en el desarrollo del mismo. Si los pacientes incluidos en el estudio son similares a los de nuestro medio y tenemos posibilidad de realizar la misma intervención, decimos que el estudio es aplicable o reproducible. Esta validez externa puede hacer inviable en nuestro medio pruebas diagnósticas y tratamientos previamente aceptados e incluso reemplazarlos por otros más factibles en nuestro entorno.

La pregunta final respecto a la adopción de una nueva intervención o de una nueva prueba diagnóstica, conlleva establecer si los probables beneficios derivados de su empleo son superiores a los riesgos y a los costos asociados.

Revisiones sistemáticas

Las revisiones sistemáticas de la literatura científica (RSs) son estudios pormenorizados, selectivos y críticos que tratan de analizar e integrar la información esencial de los estudios primarios de investigación sobre un problema de salud específico, en una perspectiva de síntesis unitaria de conjunto. Por su metodología estructurada, explícita, sistemática y multidisciplinar en la recogida de la información, la valoración crítica de los estudios, y la síntesis de los mismos, se diferencian metodológicamente de las revisiones clásicas de la literatura científica sobre un tema, en las que un experto revisa los estudios publicados, decide cuáles son relevantes y resalta sus resultados, sin que se describa habitualmente el proceso seguido hasta llegar a las conclusiones.

Las RSs se consideran estudios secundarios, pues su población de estudio la constituyen los propios estudios primarios. La RSs están realizadas por un equipo investigador multidisciplinar con experiencia, tras la elaboración de un protocolo de investigación que incluya los antecedentes del tema, los objetivos y las preguntas, la definición de los criterios de búsqueda, las variables de interés, los criterios para seleccionar los trabajos que se van a incluir en la revisión y el método de análisis que se va a realizar.

A la hora de realizar una RS, el proceso complejo de la misma incluye una serie de etapas, que pueden enunciarse como sigue:

1. Especificación del problema. Definición de las preguntas.

2. Especificación de los criterios de inclusión y exclusión de los estudios.

3. Formulación del plan de búsqueda de la literatura.

4. Selección y recuperación de los estudios que cumplen los criterios de análisis que se va a utilizar.

5. Valoración crítica de la calidad científica de los mismos.

6. Combinación de los resultados.

7. Formulación de las conclusiones y recomendaciones.

Guías de práctica clínica

Las guías de práctica clínica (GPC) intentan promover las intervenciones apropiadas para pacientes concretos con una calidad técnica alta y buscando la satisfacción de sus necesidades, contando con su participación y al coste más bajo posible. Por otra parte, suponen un intento de organizar el conocimiento científico existente en el tema que abordan, para detectar posibles lagunas de conocimiento y así orientar la futura investigación científica.

Las GPC suelen tener como objetivos problemas de salud con impacto clínico, donde existe variabilidad de la práctica o donde el balance beneficio-riesgo no está bien definido. Igualmente, pueden servir como marco estratégico para las organizaciones sanitarias.

Según el método utilizado para su elaboración podemos clasificarlas en varios tipos:

• GPC basadas en la opinión de expertos.

• GPC basadas en el consenso.

• GPC basadas en la evidencia.

Indudablemente, GPC basadas en la evidencia se fundamentan en una metodología sistemática y rigurosa, donde están explícitas las evidencias y cómo se establecen las recomendaciones. En su proceso de elaboración se distinguen una serie de etapas similares a las reseñadas para las revisiones sistemáticas.

Puesto que no todas las GPC publicadas tienen el mismo rigor metodológico, también resulta necesario en ocasiones realizar una valoración crítica de las mismas. Para ello, surgió hace varios años la iniciativa AGREE (Appraisal of Guidelines Research and Evaluation for Europe). El instrumento AGREE es un instrumento “genérico” desarrollado para evaluar la calidad de todo tipo de GPC (www.agreecollaboration.org). Consta de seis dominios, cada uno de los cuales intenta captar diferentes dimensiones de la guía:

• Alcance y objetivo (objetivo general, población diana, pregunta inicial).

• Participación de los implicados (hasta qué punto recoge las perspectivas de las personas a las que va dirigida).

• Rigor en la elaboración (recopilación y síntesis de la evidencia y formulación de las recomendaciones).

• Claridad y presentación (formulación y lenguaje).

• Aplicabilidad (implicaciones sobre la organización, conductas y costes).

• Independencia editorial (conflictos de interés potenciales de las personas que la han desarrollado).

Un último paso en el proceso de valoración crítica de la literatura consiste en categorizar la evidencia recuperada y, a partir de ella, formular las recomendaciones pertinentes para llevarlas a la práctica habitual. Existen diferentes formas de categorizar la evidencia, aunque generalmente se acepta que podemos establecer tres grupos:

• Tipo I: derivada de ensayos clínicos controlados, metaanálisis o revisiones sistemáticas bien diseñados.

• Tipo II: derivada de estudios controlados no aleatorizados bien diseñados (cohortes, casos y controles), y

• Tipo III: derivada de estudios no controlados o de consenso.

A partir de los niveles de evidencia podemos establecer la fuerza de las recomendaciones en:

• Grado A: basadas directamente en evidencia de categoría I.

• Grado B: basadas directamente en evidencia de categoría II o extrapoladas a partir de evidencia de categoría I, y

• Grado C: basadas directamente en evidencia de categoría III, o extrapoladas a partir de evidencia de categoría I o II.

El grupo GRADE (Grading of Recommendations Assessment, Development and Evaluation) intenta establecer un sistema común para calificar la calidad de la evidencia y evaluar la fuerza de las recomendaciones. Este grupo introduce algunos aspectos diferenciales que se pueden resumir en (www.gradeworkinggroup.org):

• Clasificación de la importancia relativa de las variables resultado: considera una escala de nueve puntos diferenciando resultados no importantes, importantes pero no claves y resultados claves para la toma de decisiones.

• Evaluación de la calidad de la evidencia: considera el diseño del estudio, su calidad, su consistencia y si la evidencia es directa o indirecta, estableciendo cuatro categorías en función del global: alta, moderada, baja y muy baja.

• Graduación de la fuerza de las recomendaciones: considera el balance entre beneficios y riesgos, la calidad de la evidencia, la aplicabilidad (valores y preferencias) y el riesgo basal de la población de interés. Establece dos únicas categorías: recomendaciones fuertes o débiles. Este sistema de clasificación se puede aplicar a una amplia variedad de intervenciones y contextos, y equilibra la necesidad de sencillez con la necesidad de considerar de forma global y transparente todos los aspectos importantes.

Bibliografía

– Evidence-Based Medicine: A New Approach to Teaching the Practice of Medicine Evidence-Based Medicine Working Group. JAMA. 1992; 268: 2420-5.

– González de Dios J, Buñuel-Álvarez JC. Búsqueda eficiente de las mejores pruebas científicas disponibles en la literatura: fuentes de información primarias y secundarias. Evid Pediatr. 2006; 2: 12.

– Greenhalgh T. How to read a paper. The basics of evidence based medicine. London: BMJ Books; 1997.

– Guerra JA, Martín-Muñoz P, Santos-Lozano JM. Las revisiones sistemáticas, niveles de evidencia y grados de recomendación. Atención Primaria en la Red [Consultado: 30-VI-2010] Disponible en: http://www.fisterra.com/mbe/mbe_temas/19/mbe_rev_ sistematicas2.pdf

– Martín P, Ruiz-Canela J. Guías de práctica clínica (I): conceptos básicos. Evid Pediatr. 2008; 4: 61.

– Motaño A, Rivas MD. Algunas consideraciones sobre la aplicabilidad de la MBE y la toma racional de decisiones en la práctica clínica diaria. N Atención Primaria en la Red. T [Consultado: 30-VI-2010]. Disponible en: http://www.fisterra.com/mbe/mbe_temas/142/MBE_capitulo_5_aplicabilidad.pdf

– Nodarse M. Relación de recursos útiles sobre lectura crítica y escritura científica disponibles en Internet y en las bases de datos Medline y Lilacs. Acimed 2004; 12(4). [Consultado: 30/06/2010]. Disponible en: http://bvs.sld.cu/revistas/aci/vol12_4_04/aci10404.htm.

– Ochoa-Sangrador C. Evaluación de la importancia de los resultados de estudios clínicos. Importancia clínica frente a significación estadística. Evid Pediatr. 2010; 6: 40.

– Ruiz-Canela J, Louro A. Dónde y cómo buscar la información necesaria. Atención Primaria en la Red. [Consultado: 30-VI-2010]. Disponible en: http://files.sld.cu/cdfc/files/2010/02/donde_como.pdf

– Sackett DL, Straus ShE, Richardson WS, Rosenberg W, Haynes RB. Introducción. En: Sackett DL, Straus ShE, Richardson WS, Rosenberg W, Haynes RB, eds. Medicina basada en la evidencia. Cómo practicar y enseñar la MBE. 2ª ed. Madrid: Ediciones Harcourt, SA; 2001: 1-10.

– Tarrés MC, Montenegro SM, D’Ottavio AE, García Sánchez E. Lectura crítica del artículo científico como estrategia para el aprendizaje del proceso de investigación. Rev Iberoamer Educ. 2008; 45: 6: [Consultado: 30-VI-2010]. Disponible en: http://www.ceniap.gov.ve/ceniaphoy/articulos/n5/arti/aromero.htm.

– Users’ Guides to the Medical Literature: A Manual for Evidence-Based Clinical Practice. Guyatt G, R Drummond, eds. Chicago: American Medical Association; 2002.

– Aizpurua P, Cortes RB, García-Vera C. Búsquedas bibliográficas. En: AEPap, ed. Curso de Actualización Pediatría 2010. Madrid: Exlibris Ediciones; 2010: 337-55.

 

Copyright © 2024 Sociedad Española de Pediatría Extrahospitalaria y Atención Primaria