El dolor crónico es un campo de minas para un paciente”

Así es como comenzó la ponencia del Dr. O´Connell el pasado 18 de Octubre de 2014 en el “III Congreso Internacional de Fisioterapia y Dolor”. Neil O´Connell es miembro del equipo editorial de la “Cochrane Collaboration’s Pain” y editor de la sección de ensayos clínicos y revisiones sistemáticas en el blog de ciencia “Body in Mind”. Su investigación en estos últimos años se ha centrado en la búsqueda de evidencias en el dolor lumbar crónico.

Antes de nada, aclarar el significado del término “evidencia” ya que puede causar cierta confusión sobretodo en el que se esté introduciendo en esto de la “práctica basada en evidencias”. “Evidencia” es un anglicismo trasladado al castellano del término “evidence” cuyo significado sería algo así como “hipótesis que no se puede refutar”. Por ello, lo más adecuado sería emplear la expresión “práctica basada en pruebas”. A continuación vamos a “mirar a escondidas bajo el sombrero de la evidencia” gracias al aporte del Dr. O´Connell.

Definitivamente no podemos basar nuestra práctica clínica en evidencias que tratan de buscar la efectividad de una determinada intervención si no lo hacemos desde un punto de vista crítico. Muchas veces hablamos con alguien que fundamenta cualquier intervención simplemente con un “esto está demostrado en artículos científicos”. Ante esto debemos hacernos las siguientes cuestiones, ¿ha leído realmente el artículo completo o solamente el abstract y las conclusiones?, ¿se ha fijado únicamente en el dato estadístico que muestra relación entre variables?, ¿qué calidad metodológica contienen tales artículos?, ¿qué sesgo puede haber en los resultados de cada estudio?, ¿había un conflicto de intereses?, etc, etc, etc. Respecto a esto último, el conflicto de intereses, no quiero ni nombrar lo visto en una de las comunicaciones escuchadas en el congreso. Para quien asistió ya sabrá a lo que me refiero…lamentable.

La significancia estadística (p < 0,05), sí, aquello de “es estadísticamente significativo” que tanto nos gusta decir después de pegarnos el curro en un trabajo de investigación en cuyo título incluimos ansiosamente la palabra “efectividad”, no debe servirnos por sí misma. Los resultados estadísticos de todo estudio clínico pueden estar sesgados en mayor o menor medida, sobretodo en estudios donde se quieren demostrar efectos de una determinada intervención bajo intereses comerciales tales como promoción o divulgación justificada (apoyada en la “evidencia”) de formación profesional. Debemos ser exigentes en este sentido y buscar exclusivamente los intereses del paciente: su curación.

¿De qué nos sirve la significancia estadística para asegurar la efectividad de un tratamiento?

Desde 2002, la misión de “Initiative on Methods, Measurement, and Pain Assessment in Clinical Trials” (IMMPACT) se ha centrado en intentar responder a esta pregunta desarrollando una revisión de consensos y recomendaciones para mejorar el diseño, la ejecución y la interpretación de los ensayos clínicos de tratamientos para pacientes con dolor. Esto es muy importante porque los pacientes quieren un medio legítimo antes de exponerse a posibles efectos secundarios de una determinada intervención. Si en Fisioterapia existiesen muchas técnicas con ciertos riesgos para la salud de un paciente (a nuestras competencias me remito), quizás este hecho cobraría un mayor interés. Parece que a veces, como “no hay efectos secundarios”, podemos aplicar cualquier “cosa” (sí, “cosa” puede ser algo “inespecífico”). Por todo esto, ¿un 15% de mejora estadística puede ser realmente importante para un paciente? Tenemos que pensar un poco más allá…

Hay que tener en consideración el impacto (IMMPACT viene al pelo aunque no tenga nada que ver el significado de sus siglas) de los estudios en las preferencias de los pacientes. La mayoría de estudios buscan siempre los resultados pero no el impacto de un determinado tratamiento. Otra vez sí, también existe el impacto en los pacientes y no solo en la comunidad científica gracias a la publicación en determinadas revistas de prestigio internacional. Esto es como ir a coger rebollones a Teruel, sabemos que hay muchos por aquella zona y que volveremos con varios capazos llenos. Para el que tenga pereza, también puede ir a coger cerezas de un árbol, más fácil (no vaya a ser que nos envenenemos).

En este punto llegamos al gran problema en la investigación actual en pacientes con dolor crónico, aparte de la subclasificación que ya sabemos (os recomiendo la lectura de este post de @mogifisio), donde se tratan de estudiar los efectos “significativos” de tratamientos inespecíficos en pacientes inespecíficos. No se estudia el efecto real del tratamiento en un paciente, es decir, la repercusión que éste origina en su vida diaria. Tan solo disponemos entonces de un resultado “estadístico”. Debemos planteranos estos puntos cuando vemos los resultados de un estudio:

  • ¿Cuál ha sido el tamaño de la muestra estudiado?
  • ¿Qué subclasificación y aleatorización se ha llevado a cabo?
  • ¿Existe homogeneidad entre los grupos?
  • ¿Se ha realizado la intervención de forma correcta?
  • ¿Se han tenido en cuenta posibles efectos de sumación temporal de la intervención?
  • ¿Puede haber sido debido a la propia historia natural del problema?
  • ¿Qué especificidad ha tenido el tratamiento?
  • ¿Son relevantes los resultados de una forma multifactorial (AVD, calidad de vida, dolor, etc.)?
  • ¿Se ha calculado el tamaño del efecto de los resultados del tratamiento?

El tamaño de la muestra debe ser significativo para poder tener en cuenta los resultados en esa determinada muestra y si los resultados pueden ser extrapolables o no al resto de la población. Por esto mismo es mejor esperar resultados negativos para esperar que un tratamiento fracase para poder cambiar de intervención y no introducir a los pacientes en un círculo vicioso (“campo de minas”) con sus consiguientes yellow flags.

elefantes_trompa

El tamaño sí importa, para todo…

¡¡Hay que valorar el sesgo de un estudio y no solo los resultados!!, El problema de muchos estudios es que los resultados negativos no se publican y, esto, también puede ser importante. Con la mejor intención, se puede hacer un buen estudio de investigación que no muestre ningún resultado en su intervención. Esto es muy válido para los que están buscando respuestas en la investigación. Por otro lado, el abandono de sujetos de un estudio por efectos secundarios o cambios conductuales en un individuo son igualmente importantes, en pocos estudios se especifican.

“La metodología es la única parte de un estudio donde podemos encontrar algo de verdad”

                                                                                    (Neil O´Connell, 2014)

Es más importante fijarse en el tamaño del efecto que en un valor “p” ya que el valor “p” significa la probabilidad estadística de que la evidencia empírica recogida muestre diferencias entre las variables estudiadas. Por tanto, en lugar de afirmar por ejemplo “existe evidencia de que tal técnica es efectiva para la disminución del dolor” sería más apropiado señalar “la evidencia (empírica) no permite falsar que tal técnica sea efectiva en la disminución del dolor”. Reportar el tamaño del efecto se considera una buena práctica en la presentación de resultados de la investigación empírica ya que su notificación facilita la interpretación sustantiva de los resultados, a diferencia de la estadística, en la importancia de un resultado de la investigación. En este sentido, puedo aproximar lo utilizado en mi Trabajo Final de Grado según lo descrito por Ellis P (2009) en el siguiente enlace (“Effect size calculators”) donde se puede analizar el tamaño del efecto introduciendo en la fórmula los resultados estadísticos obtenidos en una prueba t y cuyo resultado se puede interpretar del siguiente modo (Hopkins, 2009):

d = .20 equivale a r = .10 diferencia que puede considerarse pequeña
d = .63 equivale a r = .30 diferencia que puede considerarse moderada
d = 1.15 equivale a r = .50 diferencia que puede considerarse grande

“Yo siempre asumo que un tratamiento es ineficaz para mantener viva mi capacidad crítica” (A. Cochrane)

Interesante cita final que nos aportó el Dr. O´Connell como interesante la pregunta de Eva Sierra (@esiesil) acerca de los estudios pragmáticos. La intención de la pregunta de Eva, si no me equivoco, es que considerando la gran importancia del efecto de un tratamiento en un paciente, criticando la metodología de muchos ensayos controlados, ¿se había analizado en estudios sin grupo control en un contexto real?. Este tipo de estudios no se habían analizado en el grupo de O´Connell y, quitando de estudios clínicos que quieran evaluar la precisión diagnóstica de determinadas pruebas, los estudios pragmáticos pueden ser interesantes en fisioterapia para representar más fielmente el impacto real que puede causar un tratamiento en un paciente, fuera de un contexto de “laboratorio de investigación”.

Jesús Rubio

Fisioterapeuta

Sígueme en twitter @JRfisiouv

BIBLIOGRAFÍA:

  • Moore RA, Straube S, Eccleston C, Derry S, Aldington D, Wiffen P, et al. Estimate at your peril: Imputation methods for patient withdrawal can bias efficacy outcomes in chronic pain trials using responder analyses. Pain 2012;153(2):265-8.
  • Senn S. Being Efficient About Efficacy Estimation. Statistics in Biopharmaceutical Research 2013; 5(3):204-210.
  • Wood L, Egger M, Gluud LL, Schulz KF, Jüni P, Altman DG, et al. Empirical evidence of bias in treatment effect estimates in controlled trials with different interventions and outcomes: Meta-epidemiological study. BMJ 2008;336(7644):601–5.
Anuncios