Google+

Elecciones a presidencia CGE 2017

Esto va como va y no como uno querría que fuera... así que antes de dejaros hasta noviembre escribo esto a vuela pluma.

El pasado viernes nos enteramos de la convocatoria de elecciones a la presidencia del Consejo General de Enfermería... os recomiendo (quien lo diría) leer la noticia en "El pais" sobre las circunstanscias que parecen haber llevado a la misma.

El caso es que es la "ventana de oportunidad" que lleva esperando esta profesión desde hace más de 30 años y ha de aprovecharse para que la profesión la encabece y represente alguien con formación, capacidad y reconocida trayectoria y no un "designado".

Y más que un "alguien" lo que merecemos es un programa una estrategia que guíe a la profesión hacia el futuro y una gobernanza transparente, democrática y participativa.

Los plazos son draconianos y las condiciones muy forzadas pero con generosidad y esfuerzo de todos (cada quien en su modestia) se podrá conseguir.

Como ya sabréis se postula al cargo Carmen Ferrer Arnedo una persona que no precisa presentación y cuyo curriculum haría palidecer a la más petulante de las peinetas. Si queréis conocer sus compromisos los ha dejado muy claros en su blog.

Para que podamos contribuir cada uno en su ámbito debemos dirigirnos a nuestros COE y conseguir:

1) Que se postergue la junta de gobierno que otorgará el apoyo del colegio hasta lo más tarde posible (el 13 por la mañana).
2) Presentar en las oficinas del colegio o a través de la ventanilla única el modelo de escrito que os adjunto diseñado por Blanca Sellés solicitando que vuestro COE Presente a Carmen como candidata.
3) Solicitar en todo caso también por escrito un certificado del acuerdo de la junta de gobierno en el que conste tanto la convocatoria de la misma como la fecha de su celebración así como el acuerdo en si.

MODELO DE ESCRITO

LA JUNTA DE GOBIERNO DEL COLEGIO DE ENFERMERÍA DE…….

URGENTE.

ELECCIONES AL CARGO DE PRESIDENTE DEL PLENO DEL CONSEJO GENERAL DE ENFERMERÍA (CGE).

Don/Doña……………………………………… enfermera colegiada en este colegio con número………………………………., y domicilio en………………..

EXPONGO: que una vez que se ha hecho pública convocatoria para la elección de Presidente del Pleno del Consejo General de Enfermería mediante Resolución 11/2017.

SOLICITO: que de acuerdo con el APARTADO SEGUNDO de la citada Resolución, este Colegio de Enfermería proponga como CANDIDATA A LA PRESIDENCIA DEL PLENO DEL CONSEJO GENERAL DE ENFERMERÍA A CARMEN FERRER ARNEDO (colegiada número 26.328-Colegio Enfermería de Madrid) y  que cumple con todos los requisitos estatutarios recogidos en el Real Decreto 1231/2001.

Carmen Ferrer Arnedo es un referente en el desarrollo profesional de las enfermeras, y por lo tanto la considero idónea para ser la Presidenta del Pleno del CGE.

Asimismo, ruego que esta solicitud se incorpore al expediente de la decisión que tome la Junta de Gobierno de este colegio, y como parte interesada se me notifique formalmente la decisión de esta Junta al respecto.

Firmado

Lo mio ahí está entregado mediante la ventanilla única del COE de León.




Advertencia: en algunos colegios provinciales NO funciona la ventanilla única bien porque no la hay bien por fallo informático; por ejemplo en el COE de Burgos hay VU pero no funciona por lo que es recomendable enviar tu escrito a colegioburgos@enfermeriacyl.com

De la culpa líbranos.... gestor #SegPac




Desde que la publicación de "To err is human" el estudio de los eventos adversos en sanidad y de qué medidas tomar para su prevención y mitigación ha venido acompañado de la creación de lo que se dio en llamar una "cultura de seguridad" que tiene entre sus caracteristicas definitorias la creación de entornos "libres de culpa" de forma que el abordaje de los eventos adversos se pudiera centrar en los fallos "de sistema" y no en los individuos que se vieron implicados en el evento.

En Inglaterra y gales funciona desde 2003 el "National Reporting and Learning System(1)" (NRLS) un sistema voluntario en el que los profesionales informaban de los incidentes y eventos adveros, su naturaleza y sus posibles causas de forma voluntaria, desde 2010 este sistema pasó a ser obligatorio para los eventos adversos que dieron como resultado un daño severo o muerte. Este sistema ha acumulado ya más de 14 millones de registros en su base de datos.

Recientemente se ha publicado un estudio de métodos mixtos (2) en el que se analiza la naturaleza de la culpa atribuída en los informes del NRLS. El estudio se centró en los informes referidos a atención primaria incluyendo una muestra de 2679 informes sobre los que se realizó un abordaje secuencial estudiandolos primero de forma cualitativa y luego cuantitativamente. Se codificó el texto usando el sistema de clasificación de seguridad del paciente en atención primaria (PISA)(3) para clasificar los incidentes y se codificó la atribución de culpa conforme a un marco elaborado por los investigadores y testado en una muestra de 268 informes de incidente.

Los tipos de culpa en los que se clasificó los informes que contenían esa atribución fueron básicamente "reconocimiento de responsabilidad personal" y "Culpabilización directa" (ver figura al inicio de la entrada).

Un 45% de los informes atribuían la culpa del evento adverso, de ellos un 92% la atribuia directamente a otro profesional en concreto o de forma inespecífica y un 2% atribuiía la culpa al profesional que realizaba el informe bien por su propia percepción o porque otro se lo había trasladado así. La atribución de 1 o más factores contribuyentes al error se asoció con la atribución directa de culpa. La atribución directa de culpa a otro fue mas probable en situaciones de planificación del alta, comunicación, referencias y diagnósticos y evaluación.

Sabemos que el temor a la responsabilidad personal es un factor que limita el uso de los sistemas voluntarios de notificación y aprendizaje en seguridad del paciente y que es difícil que los informes sirvan para el aprendizaje del sistema si se realizan en un entorno de culpabilización como parece señalar este estudio; por otra parte es fácil reconocer que muchos de esos errores "culpables" se deben a la complejidad de las interacciones individuales en el alambicado entorno de la asistencia sanitaria y que vienen al ser el resultado de varios pequeños fallos no detectados previamente.

Los humanos tendemos a apreciar los factores de sistema a la hora de comprender las acciones propias pero nos centramos en los comportamientos personales a la hora de comprender las de los demás sin tener en cuenta el contexto. Reconocer un error de diagnóstico requiere un la realización de un juicio por parte que quien informa y ese juicio al realizarse desprendido de las otras interacciones que tuvieron lugar en el momento del error es fácil que acabe por culpabilizar. Por otra parte ha de tenerse en cuenta que la atención primaria es un entorno en el que el profesional toma decisiones de una forma solitaria siendo más vulnerable a la atribución de la culpa.

Pero no quiero terminar esta entrada con la sensación de que los sistemas de notificación de incidentes se pueden convertir en una especie de "consultorio perverso" en el que culpabilizar a otros así que como colofón vamos a hablar del éxito de otro sistema de notificación: El de Pennsylvania.

La Patient Safety Authority estableció dentro de su programa de sistema de notificación los denominados "Good Catch"; una iniciativa para visibilizar esos informes sobre una circunstancia que podría haber causado daño pero que se le impidió llegar al paciente debido a los esfuerzos de recuperación activa de los profesionales o por casualidad incluye también las llamadas condiciones inseguras, que son circunstancias que podrían causar un evento adverso. Estos informes son "nominados" para ser "Good Catch" y reciben un reconocimiento en su centro de trabajo. (ver imagen)


En un informe(4) recientemente publicado sobre los resultados durante 12 años de este programa se puede ver la evolución tanto del total de good catch como del ratio entre estos y los eventos adversos notificados.


Se trata de una forma de retroalimentación que se ha tratado de copiar en cierta manear con la iniciativa de "buenas prácticas" del programa PaSQ pero mientras esta se ha centrado en las soluciones propuestas la de Pennsylvania lo hace en "premiar" al notificante lo que parece mantener vivo el sistema algo muy necesario pues cada nueva tecnología, cada cambio en la organización, cada nuevo componente entraña riesgos nuevos para nuestros pacientes y negarlo es el error más grande.

¿Podríamos tener un programa así en España?
¿Incentivaría a la notificación?
¿Evitaría la atribución de culpa?
¿Qué nombre le pondrías tú en castellano a las "good catch"?

BIBLIOGRAFÍA

1 Donaldson LJ, Panesar SS, Darzi A.Patient-safety-related hospital deaths in England: thematic analysis of incidents reported to a national database, 2010–2012. PLoS Med. 2014;11(6):e1001667
2 Cooper J, Edwards A, Williams H, Sheikh A, Parry G, Hibbert P, et al. Nature of Blame in Patient Safety Incident Reports: Mixed Methods Analysis of a National Database. Ann Fam Med. 9 de enero de 2017;15(5):455-61.
3 Carson-Stevens A, Hibbert P, Williams H, et al. Characterising the nature of primary care patient safety incident reports in the England and Wales National Reporting and Learning System: a mixed-methods agenda-setting study for general practice. Health Services and Delivery Research. 2016;4(27)

4 Authority PPS. Promote a Culture of Safety with Good Catch Reports | Advisory [Internet]. Pennsylvania Patient Safety Authority. [citado 8 de octubre de 2017]. Disponible en: http://patientsafety.pa.gov:80/ADVISORIES/Pages/201709_goodcatch.aspx

Tela telita tela #IQZ


En Junio una compañera me preguntó sobre la evidencia disponible respecto al uso de gorros de tela en el área quirúrgica (y por extensión en otras áreas especiales).

Apremiado por la vida y sin otra intención que dar una respuesta con algo de fundamento realicé una pequeña y restringida búsqueda que me brindó la ocasión de diseccionar los diversos aspectos de la cuestión como:

*De existir algún riesgo o problema no se limitaría al uso de gorros quirúrgicos sino a otras prendas como chaquetas y objetos como mochilas que el personal quirúrgico acarrea a diario.
*Aparejado al uso de este tipo de prendas está la frecuencia y características de su lavado.
*Es inegable que este es un factor que no se puede estudiar de forma aislada a la hora de vincularlo a los resultados en los usuarios.

Encontré alguna documentación algo vieja pero muy específica que cito abajo.

Pero lo más interesante lo encontré en la página de la AORN y se trata de una tabla que compendia 123 referencias sobre el tema de la vestimenta quirúrgica con toda clase de documentos desde estudios experimentales en laboratorio hasta guías de práctica clínica.

En todo caso no pude obtener una conclusión tajante sobre el tema, pero hoy me he decido a compartir un artículo publicado en Julio de este año que, además, toca también los aspectos de la prevención de infección de herida quirúrgica de un proyecto que parece hermano gemelo de #IQZ.

El artículo es Análisis multicentríco de las prácticas de control de infección identifica el subconjunto asociado con un mejor rendimiento respecto a la infección de herida quirúrgica.

Davis CH, Kao LS, Fleming JB, Aloia TA, Bass BL, Cali JR, et al. Multi-Institution Analysis of Infection Control Practices Identifies the Subset Associated with Best Surgical Site Infection Performance: A Texas Alliance for Surgical Quality Collaborative Project. Journal of the American College of Surgeons. 1 de octubre de 2017;225(4):455-64.

En un conjunto de hospitales de Texas afiliados en una alianza por la calidad quirúrgica se estudió la implementación de 38 medidas de control de infección agrupadas en 6 categorías (Vestimenta, Preparación, Intraoperatorio, Profilaxis antibiotica, Cuidados postquirúrgicos y otros) mediante una escala de 4 puntos y los ratios locales de infección. Los datos se compararon con los ratios de riesgo del informe de 2016 del colegio americano de cirujanos. La adhrencia a las medidas se comparó con los 7 mejores centros y con los 7 peores.

Sobre la vestimenta quirúrgica el estudio puntuaba si cirujanos y anestesistas llevaban la ropa de quirófano fuera del hospital, si los cirujanos la llevaban a las unidades de hospitalización o urgencias, si cirujanos o anestesistas empleaban gorros personales (de tela) en quirófano, si los anestesistas usaban chaquetas personales en quirófano, si los cirujanos llevan bolsos o maletines sin cubrir al quirórfano, si los cirujanos llevaban calzas cubre zapatos en el quirófano o si el personal circulante se cubre los brazos.

En los resultados se refleja que los cirujanos llevan los uniformes de quirófano a las plantas (en 17 hospitales de 76% a 100%;en los otros 3 hospitales de 51% a 75%), que de 25% a 50% de los cirujanos y 51% a 75% del personal de anestesia que usa gorros de tela personales en quirófano, de 51% a 75% de los anestesistas usa chaqueta personal en quirófano, de 26% a 50% de los cirujanos lleva bolsos o maletines personales sin cubrir al quirófano, de 26% a 50% de los cirujanos usan calzas para cubrir sus zapatos, y qie entre 51% y 75% del personal de quirófano que cubre sus antebrazos.
En todo caso ninguno de estos datos se relacionaron significativamente con uns mayor tasa de infección como refleja la tabala a continuación.


A por cierto, del análisis se desprende que las medidas relativas a la preparación de la piel antes de la cirugía, la higiene de la herida quirúrgica y la existencia de información transparente sobre el ratio de infección se correlacionan con el ratio de infección así que sería conveniente poner el foco en estos aspectos y dejar de perseguir al personal por sus gorros.

Otra bibliografía:

*DISPERSAL OF STAPHYLOCOCCUS AUREUS BY PATIENTS AND SURGICAL STAFF
D.W. Bethune. M.B. Durh
THE LANCET Volume 285, Issue 7383, 27 February 1965, Pages 480-483

*DESIGN OF OPERATING-ROOM DRESS FOR SURGEONS
Robert Blowers.
THE LANCET Volume 286, Issue 7414, 2 October 1965, Pages 681-683

*EFFECT OF CLOTHING ON DISPERSAL OF STAPHYLOCOCCUS AUREUS BY MALES AND FEMALES
Joyce Hill, Anthony Howell, Robert Blowers.
THE LANCET Volume 304, Issue 7889, 9 November 1974, Pages 1131-1133

*Patient draping and staff clothing in the operating theatre: a microbiological study.Bergman, B. R., Hoborn, J. & Nachemson, A. L. (1985). Scnad J. Infect Dis 17, 421-426

Sacando la integral del cuidado

X. M. Meijome CC BY-SA 4.0 https://creativecommons.org/licenses/by-nc-sa/4.0/
Siendo una integral básicamente "una generalización de la suma de infinitos sumandos, infinitamente pequeños." Podríamos buscar la integral de la función salud-enfermedad y veríamos como esos infinitos sumandos infinitamente pequeños componen el cuidado.
Siempre digo que lo mejor de las tecnologías está en la conversación y creo que no es posible "pintar" en un monologo (como esta entrada escrita por una sola persona) toda la riqueza de una buena conversación con múltiples voces y visiones, pero vale la pena intentarlo.

El pasado 23 de Agosto M. Tome Lopez (@visitadora) lanzó este tuit que recordaba uno de aquellos documentos de Estándares y Recomendaciones del ministerio de sanidad y consumo centrado en el la necesidad de tener normas para determinar las plantillas de las unidades de hospitalización polivalentes de agudos.
A partir de ahí se generó una enorme conversación con múltiples participantes que no enumero para no dejarme a nadie sin mencionar pero quiero destacar que aún estando en desacuerdo con los argumentos o las formas de algun@s me atrevo a decir que, salvo el que suscribe, ha pasado por ahí buena parte del acervo intelectual futuro de la enfermería española.

Como toda conversación multitudinaria y espontánea gozó de una enorme flexibilidad a costa de ser caótica por lo que derivó en múltiples hilos tocando varios temas.

El motivo inicial de la conversación era la necesidad de usar herramientas que permitieran ajustar las plantillas de enfermería (y su "compuesto de habilidades" añado) a las necesidades de los usuarios y que ese ajuste fuese lo más "normativo" posible pero también flexible y multidireccional.

Como no podía ser de otra forma salieron a relucir tanto las normativas y recomendaciones de EEUU (Pennsylvania, California...), UK y Portugal como las herramientas que podrían ayudar a materializarlas y los estudios que evidencian en esos entornos que esa forma de adecuar las plantillas ofrece mejores resultados tanto en salud a las personas como en rendimiento de los centros y del sistema de salud.

Entiendo que se tenga prisa; es perentorio detener la hemorragia de eventos adversos ligados al exceso de presión asistencial y la omisión de cuidados, pero las herramientas a adoptar han de tener en cuenta las características diferenciales del SNS y de la estructura de profesiones sanitarias que décadas de sinrazón y dejadez nos han traído.

Entiendo también que la saturación de proyectos "luminosos" en los que abunda la imagen fácil y escasea la higiene ética de los políticos ocurrentes indigne a quienes queremos tener recursos suficientes para cubrir las necesidades de los pacientes a nuestro cargo y me gustaría ver una solución real entre tanto destello.

Por otra parte y como era de esperar también surgió en la conversación la necesidad de "saber lo que hacemos" (las infinitas acciones infinitamente pequeñas -o no-) por ahí entramos en los registros de cuidados, los sistemas TIC de registro, las taxonomías (NNN y ATIC sobre todo), el RD de 2010 sobre CMBD y el informe de cuidados y llegamos a la necesaria modelización del cuidado partiendo de sus axiomas.
He dicho muchas veces que tenemos un problema de actitud si, pero también tenemos un problema con las herramientas tanto a pie de cama como a nivel de gestión e investigación (en #cuidadosybits tenéis más información) pero creo que tiene razón quien señala que:
Llevamos casi 20 años reinventando el Proyecto SIGNO, y durante esos 20 años, nos han estado entreteniendo con la excusa de “medir” y no actuar, no modificar esos ratios.
No conozco ninguna otra profesión, y mucho menos sanitaria, en la cual se definan hasta la saciedad las tareas que realiza y posteriormente se cronometre el tiempo dedicado a cada una de esas tareas para calcular las necesidades de plantilla. Si no fuera dramático y ridículo, podríamos decir que se trata de una estrategia brillante para “marear la perdiz”.
Se están recorriendo 17 caminos diferentes en parte por la propia estructura política del estado y los intereses particulares de personas eminentes y en parte porque desde el inicio de la implantación de las tecnologías se han recogido los vicios ancestrales del sistema y se han ido acumulando parche sobre parche sin una estrategia ni un plan más allá de la foto y el voto.

Yo mantengo mi esperanza en que la inteligencia colectiva y multiversatil nos ayudará a salir de esto pero hay que respirar profundo y no cejar en el empeño.

Tenemos algunas claves; para conocer las necesidades de los usuarios en cada entorno de trabajo podemos emplear algunas escalas; de esas valoraciones, de la propia situación clínica del paciente y de lo planificado por otros miembros del equipo de salud dependerán los objetivos a conseguir y las acciones a realizar. 

Así pues como si se tratase de un cálculo integral por aproximación tendríamos una medida "superior" de necesidades y una "inferior" de acciones para cubrirlas. Ambas deberían llevar al paciente a su mejor momento de salud posible.
De I, KSmrq, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=2359630
De I, KSmrq, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=2359630
El código en el que se escriban tanto valoraciones como acciones ha de ir evolucionando y adaptándose a la potencia de la tecnología existente lo importante sería que desde un principio el registro no fuese un fin en si sino una herramienta tanto para la atención al individuo como para la adecuación de los recursos a las necesidades a nivel de unidad, de centro, de área y de comunidad.




Nota: Es evidente que no soy matemático ni pretendo serlo, sirva esto para excusar las barbaridades inexactas cometidas en un campo de exactitud tan exquisita.

¿Y si lo hacemos al reves? Definamos lo básico


Una de las constantes en las últimas "tuitversaciones" sobre el ejercicio profesional tanto si hablamos de cuestiones clínicas como de distribución y organización de recursos que tanto los puestos de trabajo singularizados para la práctica avanzada como las especialidades están escasamente desarrollados.

Se atribuye a esta falta de "despliegue" de las capacidades de la profesión tanto peso en todas sus facetas que bien parece que no hay actividad profesional que pueda reconocerse si no es "especializada" o "avanzada".

Ya en este blog hemos comentado que en esa carrera hacia adelante de la especialización se ha caído en el error de imitar a otros con similares problemas de "roce" y también hemos mostrado que lo que llamamos "compuesto de habilidades" (skillmix) tiene un papel esencial en la aparición de eventos adversos.

Tras darle vueltas (en concreto 100 a la piscina de 25 metros) he caido en la cuenta de que lo que nadie hace es definir cual sería el puesto de trabajo básico, el cimiento de todo ese edificio de capacidades y, también hay que decirlo, títulos e ínfulas.

Creo que para acertar con tal definición la "prueba del algodón" sería:
¿Puede tal puesto ser ejercido por un profesional recién titulado sin un incremento significativo del riesgo de eventos adversos (ligados al cuidado) y con seguridad física y mental para el propio profesional?
Hagan sus propuestas y ampliaremos esta entrada con el debate.

Cuando surge la tecnología cambia la evidencia

Hace 6 años para ilustrar la necesidad de usar estudios que no son ensayos clínicos aleatorizados (ECA) a la hora de generar evidencia científica citabamos un artículo-broma de 2003 que traducimos como "Uso del paracaídas para prevenir la muerte y el traumatismo mayor relacionado con exposición gravitacional". El artículo simulaba la realización de una revisión sistemática sobre el tema que se quedaba "en blanco" porque no se encontraron ECAs sobre el tema e invitaba a los defensores acérrimos de este tipo de estudios a ser voluntarios en su realización.

Pues bien, aunque el propio artículo-broma hace referencia a un caso excepcional de supervivencia a una gran "exposición gravitacional" como justificación de la necesidad de hacer ECAs al respecto lo cierto es que les faltaba un comparador adecuado e voila¡ aquí lo tenemos:



Así que, una vez más una nueva tecnología y/o una nueva forma de usar elementos que ya se conocían provocan que aquello que parecía imposible de conseguir. Esto representa un reto tanto para los profesionales clínicos que quieren aprovechar estas oportunidades para sus pacientes como para los gestores que deben aquilatar la incorporación de estas alternativas.

Tanto unos como otros necesitan de forma perentoria estudios que les ayuden a decidir y a argumentar sus decisiones, pero necesitan aún más herramientas que les permitan evaluar la fiabilidad de esos estudios y es ahí donde veo la principal diferencia entre el SNS y el NHS.

¿Cuando resucitarán los 17 taifas y el califa a la agencia de calidad del SNS para coordinar los diversos pero dispersos esfuerzos que de manera tan dispar se realizan ahora?

Esperemos que pronto.

Bajándole los humos a "p"

https://twitter.com/emulenews
El pasado día 2 de Agosto Steven Novella (@stevennovella )‏ publicó en "science based medicine" "0.05 or 0.005? p-value wars continue" en el que repasaba la sugerencia realizada entre otros por John P.A. Ioannidis en una editorial publicada en PsyArXiv bajo el título "Redefine Statistical Significance"creo que su traducción puede resultar de interés para quienes se quieran adentrar en el mundo de la investigación al 100% al principio me permito una floritura creo que comprensible en nuestro medio.


_________________________________


A lo largo del tiempo la FIFA ha cambiado las dimensiones del campo de juego, específicamente las del área de penalti y la altura y anchura de la portería. Lo han hecho para equilibrar las oportunidades de delanteros y portero y hacer el juego más interesante para los espectadores.

Los científicos están debatiendo ajustes similares en la significación estadística, para equilibrar el balance entre falsos positivos y falsos negativos. Como en el caso de delanteros y portero, algunos cambios son un juego de suma cero si disminuyes los falsos positivos incrementas los falsos negativos y viceversa. Donde está el equilibrio perfecto es una cuestión complicada y un tema de debate creciente.

Un artículo reciente de una larga lista de autores, incluidos grandes popes como John P.A. Ioannidis sugieren que el valor de p que habitualmente se usa como umbral de significación estadística debe cambiar de 0.05 a 0.005 para los campos de biomedicina y psiquiatría. Escriben:
"Para los campos en los que el umbral para definir significación estadística de nuevos descubrimientos es p<0,05 proponemos un cambio a p<0,005. Este simple paso podría mejorar inmediatamente la reproducibilidad de la investigación científica en muchos campos. Los resultados que actualmente se llaman "significativos" pero no alcanzan este nuevo umbral podrían pasar a llamarse "sugerentes". Si bien los estadísticos ya sabían de la relativa debilidad de usar p≈0,05 como umbral y la propuesta de bajarlo a 0,005 no es nueva, ahora una masa crítica de investigadores apoya este cambio."
El p-valor se define como la probabilidad de que los resultados de un experimento se desvíen del nulo tanto como lo hicieron o más si la hipótesis nula es correcta. Si esto te parece difícil de entender no te sientas mal. Muchos científicos no pueden dar la definición técnica correcta. Para simplificarlo, ¿cual es la probabilidad de que obtuvieras esos resultados (o mayores) si tu hipótesis no es cierta? En ciencias de la salud generalmente esto se refiere a un efecto, como la diferencia en la reducción de dolor entre un placebo y un tratamiento experimental. ¿Es estadísticamente significativa? Un p-valor de 0,05, el umbral tradicional, significa que existe un 5% de posibilidad de que obtuvieras esos resultados sin que exista un efecto real. Un p-valor de 0,005 significa que hay un 0,5% de posibilidad; un cambio de 1/20 a 1/200.

Existen importantes problemas con la sobredependencia del p-valor. Nunca se pretendió que fuera una medida de si un efecto era o no real, pero desafortunadamente el deseo humano de simplificar le ha colocado en ese papel. Además, la gente tiende a virar su significado interpretando que es la probabilidad de que el efecto sea real (en lugar de que LOS DATOS dicen lo que dicen). Sin embargo, esta inversión del significado no es válida por muchos motivos. Un estudio con un p-valor  de 0,05 no significa que haya un 95% de probabilidad de que el efecto sea real. Podría haber aún sólo una pequeña probabilidad de que el efecto sea real, dependiendo de otros factores.

Otorgar demasiada importancia al p-valor conduce de forma demostrable al llamado p-hacking. Existen formas sutiles (y no tan sutiles a veces) en las que los investigadores pueden sesgar el resultado de un estudio para traspasar el umbral mágico de 0,05 declarando sus resultados significativos y consiguiendo que se publiquen (otro grave sesgo científico -nota del trad.-). Esto a su vez conduce a un problema de reproducibilidad de la investigación y a inundar la literatura científica con una masa de estudios dudosos.

Los autores señalan esencialmente que el equilibrio entre falsos positivos y falsos negativos se ha alejado del punto óptimo. A lo largo de los años los investigadores han descubierto como jugar con el p-valor. En combinación con la tremenda presión de publicar resultados positivos y los sesgos que todos tenemos esto ha llevado a un exceso de hallazgos preliminares que mayoritariamente son falsos positivos.

Lo que los autores proponen alejaría ciertamente el equilibrio de los falsos positivos. Es una solución sencilla, pero podría no ser óptima, o no suficiente por si misma. Aunque nos guste la sugerencia de considerar 0,005 como estadísticamente significativo, y lo que esté entre 0,05 y 0,005 como "sugerente". Esto está más cerca de la verdad, y probablemente ayudará a cambiar la forma en la que los científicos y el público piensan respecto a los p-valor. Yo mismo he hecho este cambio mental. No me emociono acerca de los resultados con un p-valor cercano a 0,05. Simplemente no significa mucho.

El lado oscuro, por supuesto, es que esto aumentará el número de falsos negativos. Dado lo sobrepasada que está la literatura con los estudios con falsos positivos, creo que es un buen cambio. Además, el umbral de p-valor no es la única variable. Los autores sugieren que se podría incrementar el tamaños de un estudio un 70% para mantener el ratio de falsos negativos donde está. Visto de esta forma no se trataría de un juego de suma zero. Puedes disminuir los falsos positivos y los falsos negativos aumentando el tamaño del estudio, o su fuerza.

Siendo esto cierto puede ser difícil para algunos investigadores, especialmente los que cuentan con pocos fondos, como los investigadores jóvenes (o los de disciplinas secundarias -N. de trad-). Para las enfermedades raras o cuestiones en las que es difícil enrolar a pacientes, aún disponiendo de fondos, puede ser duro alcanzar las cifras necesarias para conseguir p<0,005. Pero ¿y qué? pueden realizar su pequeño estudio y si consiguen p-valores marginales pueden incluso publicarlos. Sólo que en vez de llamar a sus resultados "significativos" han de llamarlos "sugerentes".

Podría haber consecuencias no deseadas de este cambio, pero en vista del grave problema con los estudios de falsos positivos defiendo que hagamos el cambio y veamos qué pasa. Podemos hacer ajustes posteriormente si es necesario.

Además, no quiero poner el foco en dónde situar el p-valor para distraer de la cuestión más profunda sobre la propia utilidad del p-valor en si. Algunas revistas han ido más allá prohibiendo completamente los p-valor en favor de otros métodos de análisis estadístico. Creo que es draconiano, pero tienen la idea correcta, poner al p-valor en su lugar.

Por ejemplo, el tamaño del efecto es extremadamente importante, pero a menudo descuidado. Más importante que el p-valor es alguna medida de la relación señal/ruido. ¿Cuál es el tamaño del efecto en comparación con lo que se está midiendo y la incertidumbre del resultado? Además, los análisis bayesianos pueden ser muy útiles. Un análisis bayesiano pregunta que realmente los investigadores piensan que hacen: ¿cual es la probabilidad de mi hipótesis dados estos datos? En un comentario en Nature sobre este tema sugieren que muchos investigadores no tienen habilidades estadísticas para hacer análisis bayesianos. Nuevamente digo ¿y qué? La respuesta es mejorar las habilidades estadísticas entre el investigador medio.

Este es, de hecho, el problema inherente. Muchos investigadores no comprenden las limitaciones del p-valor, o sucumben a la tentación de depender de esta medida porque es la vía rápida a la significación estadística y la publicación. También muchos no comprenden completamente la naturaleza del p-hacking y como evitarlo. Necesitamos más sofisticación en el mínimo análisis estadístico aceptable y la metodología de la investigación en salud.

Todo indica que el equilibrio ha cambiado de forma inaceptable hacia los falsos positivos. Probablemente necesitemos un cambio cultural completo en la comunidad de investigación en salud publicando menos estudios pero más rigurosos e indicando claramente cuales son estudios preliminares y eliminando el sesgo de publicación respecto a los estudios con resultados negativos.

Este cambio en el umbral para la significación estadística no será suficiente, pero creo que es un movimiento en la dirección correcta.

EDICIÓN 21/8/2017.

Lo grande de las RRSS es que si no es la interacción es simplemente tener buenas fuentes "sintonizadas" lo que te permite seguir mejorando. En este caso gracias a @emulenews viene muy a cuento el estudio "Estimating the evidential value of significant results in psychological science"en el que se calcula el factor bayesiano de nada menos que 287000 hallazgos científicos en psicología publicados en 35515 artículos. Las conclusiones son devastadoras:
Concluimos que debido a que el umbral de aceptación se ha establecido demasiado bajo para los hallazgos en psicología, una proporción sustancial de los resultados publicados tienen un soporte de evidencia débil.
Esto apoya la medida propuesta en la editorial de la que trata el artículo que traducimos recordando que la misma por si sola no bastará para mejorar la evidencia que sostiene o debería sostener nuestro trabajo.

Temporary skin tattoos for patient identification

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4864418/figure/f1/

After our last post about an adverse event due to patient identification wristband i think is mandatory work on an alternative and better system.

As you may know i love technology and i share a lot of articles about innovations on healthcare. On the last year wearables was a main topic; made from a mix of nanocomponents(1) and new materials they promised us a "permanent" monitorization of vital signs beyond hospital walls thanks to wireless connectivity(2).

In patient identification RFID is an eternal promise a decade ago but is far from our reality, it can lead to automated systems of record and traceability but we are tired of waiting.

We need a easy cheap and practical solution now.

Yesterday in the loneliness of the swimming pool i remembered the "calcomanías" that i used to wear when i was child. It was a one picture temporary tattoo for adhere to skin easy to use, only needed some water.

Now i search about it and i find it is now a fashion and there are a do it yourself system without water to adhere to skin. They are called "tattoonies" and have a limited duration from two to seven days and are easy to remove with alcohol or acetone.

https://www.tattooforaweek.com/en/Pink-Barcode-Tattoo

With or without barcode or other technology inside i think is a good idea for patient identifier, i know there are some risk of skin reactions but healthcare and socialcare systems needs a solution for these issue.

Head don't stop

Referrals:

1)Zucca A, Cipriani C, Sudha null, Tarantino S, Ricci D, Mattoli V, et al. Tattoo conductive polymer nanosheets for skin-contact applications. Adv Healthc Mater. mayo de 2015;4(7):983-90.

2)Bandodkar AJ, Molinnus D, Mirza O, Guinovart T, Windmiller JR, Valdés-Ramírez G, et al. Epidermal tattoo potentiometric sodium sensors with wireless signal transduction for continuous non-invasive sweat monitoring. Biosens Bioelectron. 15 de abril de 2014;54:603-9.

La pulsera que nos ata #SegPac


El pasado 4 de Agosto publiqué el siguiente tuit acompañado de la imagen que encabeza esta entrada.
En dicha foto el punto indicado con * corresponde al lugar de inserción de una vía IV periférica y la zona marcada con ** es el emplazamiento de una pulsera de identificación que la paciente del caso portaba en la residencia sociosanitaria.

Bien, escribo esta entrada por la inusitada cantidad de interacciones recibidas tanto en twitter (ver hilo del tuit) como en facebook.

En primer lugar voy a recomendar la lectura del "case report" porque describe una circunstancia muy concreta lo tenéis traducido aqui.

A partir de ahí 2 observaciones.

La primera: En este caso el artículo no está enfocado en el uso de la pulsera identificativa sino en el síndrome compartimental como complicación rara de una extravasación debida a la presencia de la pulsera.

La segunda: La pulsera no fue colocada en el centro donde ocurre el EA sino que venía con la paciente desde una residencia sociosanitaria. El EA ocurre con una rapidez bastante inusitada pues el artículo relata que la vía se puso a las 22h, se revisó a las 0h y a las 4h presentaba el aspecto de la foto (o peor pues la foto es posterior).

Pese a que muchas de las interacciones han sido más bien "reactivas" respecto al uso de pulseras de identificación me quedo con aquellas que señalan su necesidad imperiosa como elemento de seguridad pero quiero señalar que ni la respuesta afirmativa del paciente ni la pulsera (o su ausencia) son las que "causan" un evento adverso relacionado con una identificación errónea del paciente.

La identificación del paciente es, digamos, un subproceso, que se debe realizar rutinariamente de forma ideal antes de cada procedimiento. El nivel de riesgo de fallo de identificación se suele decir que es muy bajo pero también es conocido que sus consecuencias suelen ser muy graves. Hay algunos estudios que investigan el fallo en el propio proceso de identificación en entornos simulados y los datos no son tranquilizadores (1).

En nuestro propio estudio indagamos la capacidad de identificación del propio paciente en un subconjunto de pacientes concreto según su estado cognitivo y confirmamos que sin importar el tipo de pregunta que se realice (abierta o cerrada) los pacientes con peor estado cognitivo según el test de Pfeiffer presentaban mayor error en su identificación (2). Ello confirma lo que el caso señala sobre la necesidad de usar las pulseras identificativas en los pacientes de ciertos grupos de riesgo.

La pulsera identificativa constituye para muchas enfermeras un obstáculo a la hora de establecer vías venosas en los miembros superiores sobre todo cuando se inicia en los extremos distales y aunque formalmente se disponga de un método de reposición de las pulseras todos sabemos lo lento que resultan ciertos trámites en los hospitales (grandes o pequeños). Tal vez pulseras que permitan abrir y cerrar serían una solución; en todo caso la revisión regular de las vías se ha de incrementar si existen circunstancias que lo aconsejean.

 
BIBLIOGRAFÍA:


1) Philip L. Henneman PL, Fisher DL, Henneman EA, Pham TA, Campbell MM, Nathanson BH. Patient identification errors are common in a simulated setting. Annals of emergency medicine 2010; 55(6): 503-9.
2) Meijome Sánchez XM, Prieto Blanco AM, Basante Rodriguez A, Gonzalez Cea A, Fernandez Colinas S.  Fallo en la identificación del paciente con deterioro cognitivo; comparación entre pregunta abierta y pregunta cerrada Comunicación en XVIII Encuentro internacional de investigación en cuidados Vitoria 2013

Indice de seguridad de etiquetado #SegPac

https://twitter.com/StopErroresMed/status/892478410580250626

Esta entrada debería titularse "El sueño de una noche de verano" pero no perdamos la confianza en que de una manera u otra se haga algo EFECTIVO para solucionar un problema que ya sabemos que existe y cuyos efectos podemos mostrar con cifras.

La gente de @StopErroresMed (http://www.stoperroresdemedicacion.org) lleva mucho tiempo mostrando los datos, los ejemplos y "empujando" por una solución al grave problema de la #Isoapariencia el pasado día 2 de Agosto lanzaron este tuit quejándose del caso omiso que una marca hace de una de las recomendaciones concretas: vinCRIStina - metoTREXATO

En el diálogo en la red hice una ironía dando a entender que pudiera ser que los laboratorios no conocieran las recomendaciones concretas sobre el envasado y etiquetado de los medicamentos para terminar con esto:
Básicamente la idea es establecer una escala con la que valorar cada presentación farmaceútica en lo que respecta a la seguridad de su etiquetado en lo que respecta a este como factor de los errores de medicación.

Ha de tenerse en cuenta que en ciertos entornos profesionales la presentación utilizada difiere de la comercializada lo que trasladaría la obligación de un etiquetado seguro a la instancia donde se realice la manipulación (normalmente fragmentación) para el uso; esto es un problema dado que, además, alguna de estas manipulaciones vienen condicionadas por normas de protección de riesgos laborales de reciente publicación.

También ha de tenerse en cuenta que estamos hablando de productos con, por lo menos, un doble envasado: la caja exterior (la que se suele dispensar en la farmacia de la calle a pacientes ambulantes) y el envoltorio individual de cada dosis que en muchos casos es que recibe el profesional que administra el medicamento.

Como ejemplos de referencia os propongo las recomendaciones de los documentos "Information desing for Patient safety. A guide to the graphic desing of medication packaging" 2º edición y "Desing for patient safety: a guide to the labelling and packaging of injectable medicines" publicados hace 10 años¡¡¡ por el  NHS.

Para el ejemplo práctico voy a referirme únicamente al envasado de medicación no inyectable en dosis unitaria que se designa como "primary packaging" que es el que solemos recibir los profesionales en los puntos de atención directa donde se administra medicación a los pacientes. La escala tendría varios puntos a comprobar; algunos serían de respuesta simple (Si/No) y otros podrían tener una puntuación gradual (No cumple/básico/óptimo); con la suma de los puntos obtenidos sobre el total posible tendríamos ese índice X/Y que señalé.


Ítem
Respuesta
Puntuación
Superficie de impresión
No reflectante
Si/No
Integridad del texto
Texto íntegro en cada dosis
Si/No
Legibilidad del texto contraste
Texto legible en cada dosis sobre el fondo
Poco/Normal/Optimo
Legibilidad del texto tamaño
Texto legible en cada dosis tamaño
Poco/Normal/Optimo
Datos completos
Principio Activo, Dosis, Caducidad
Si/No

Así pues un medicamento "ideal" desde el punto de vista de la seguridad del envasado tendría 5/5 puntos en su envase primario (unidosis). La propuesta tiene la limitación de que alguno de los parámetros es subjetivo lo que haría que surgieran diferencias entre las apreciaciones de los diferentes profesionales.

¿Quien se anima para hacer una propuesta similar para las presentaciones de medicamentos inyectables?

Por otra parte ya sabemos que en algunos entornos de trabajo los medicamentos de este tipo de presentación se mantienen durante cierto tiempo en lo que podríamos llamar "envasado transitorio" dispuestos para su uso, dicha disponibilidad es propensa al error sobre todo en áreas críticas y desde hace mucho existen a disposición sistemas de etiquetado secundario como este:

https://safetyandquality.gov.au/wp-content/uploads/2012/02/ANZCA-and-Commission-Joint-statement-on-user-applied-labelling-standardisation.pdf

Creo que se pueden exigir acciones frente a la #isoapariencia a la industria mientras dentro del sistema seguimos procesando los medicamentos sin etiquetarlos de forma adecuada, pero así no resolveremos algunos de los errores que motivan esta reivindicación.

Un último apunte para la utopía; una vez establecida este tipo de escala de forma sistemática e institucional ¿no debería incluirse dentro de los criterios a la hora de los concursos de adquisición de productos?

Does ICN knows what is a nurse and what is it for?

From long time ago when i read our "representatives" talking about nursing staff levels comparing different country comes over me a sense of weariness.

It seems that all is valid for the purpose of that people, but bad arguments only lead us to bad destinations and the key question is What is de good argument? and Where are the good data?.

Nursing have the mission of caring individual or collective health as part of a healthcare system this it will be done based on an assessment of their health status. Thus the good argument at time to speak about staffing level are the needs of the individual and population. This argument is hard to materialise and varies from global to local level.

But the big problem at the time os compare nursing staffing at international level is a certain mode of deregulation of nursing academic and laboral definitions. Each country uses several definitions for nursing related jobs from not academic voluntaries to doctorates. Even in a economic integrated space like european union healthcare workers in nursing jobs positions don't have a regulatory scheme.

I think that the logical answer for this question can come from the association of regulatory authorities of nursing like the ICN. In fact, ICN have a "definition" of nursing (you can try to perfectionate) that is a good point of departure.

But everyone can know that for a lot of reasons the health needs of a population are different and for historical, cultural and economic reasons the formation and academic status of nursing too. ICN can't change this magically but they could send a clear message about a structure of nursing titles making a framework inside of that the national governments can design layers of job positions acording patients needs.

I navigated de ICN pages searching some resource about that and i found ICHRN and inside this a document called Nursing Human Resources Planning and Management Competencies. It describes competencies for management of human resources organized in six domains and especified for four levels of work in human resources management.
Then ICN knows what is a nurse manager and what they must do, but do ICN know what do the nurses wherever they work?.

In the pages of the ICHRN there are no more information about our trouble (the page of "publications" is empty), but under the area "networks" there is a document called "Regulation Terminology" wich contains definitions of interest for our purposes like these:

or these one:


I think there are enough information to try to build the framework that i said. What do you think?


Claves para comprender un metanálisis.


Traducción de "5 tips for understanding data in meta analyses" de  Hilda Bastian 

Hay un diluvio de estudios científicos de todo tipo, miles cada día. A menudo hay varios estudios buscando respuestas sobre el mismo tema, pero puede haber docenas e incluso centenares de ellos. El metanálisis es un grupo de técnicas estadísticas que usan datos de más de un estudio para combinarlos y analizarlos como un nuevo conjunto de datos.

No se empezó a hablar de metanálisis hasta los años 70. Ahora cada día se publican docenas de artículos con metanálisis y en menos de 5 años se duplicará el número de los publicados en un año. Sin embargo, los métodos del metanálisis siguen constituyendo un misterio para mucha gente.


Este comic es un forest plot, un estilo de visualización de datos para los resultados de un metanálisis. Alguna gente les llama “blobbograms”. Cada línea horizontal con un cuadrado en el medio representa el resultado de un estudio diferente. La longuitud de esa línea horizontal representa el intervalo de confianza de sus resultados. Esto te proporciona información sobre cuanta incertidumbre existe en torno a un resultado cuanto más corta más confianza podemos tener en ese resultado (Aquí la explicación).

El cuadrado se denomina el punto estimado o el "resultado" del estudio si lo prefieres. A menudo su tamaño va acorde con el peso que el estudio tiene en el metanálisis. Cuanto más grande, más confianza debemos tener en el resultado.

El tamaño del punto estimado es un eco de la longitud del intervalo de confianza. Son dos puntos de vista de la misma información. Un cuadrado pequeño y una linea larga dan menos confianza que un gran cuadrado en una línea corta.

El diamante en la parte inferior se llama resumen estimado. Representa el resumen de los resultados de los 3 estudios combinados. No se trata sólo de sumar los resultados de los estudios y dividirlos por 3. Se trata de un promedio ponderado. Los estudios más grandes con más eventos cuentan más.

Las esquinas derecha e izquierda del diamante son los límites de su intervalo de confianza. Con cada estudio que se añada al metanálisis estas esquinas se acercarán entre ellas y se moverán a derecha o izquierda según los resultados añadidos se inclinen en una u otra dirección.

La línea central es la "linea de no efecto". Si un resultado la toca o la cruza, no será significativo estadísticamente. (Un concepto complicado explicado aquí).

En biomedicina, los forest plots son la norma. Pero en otros campos, como la psicología, el resultado de los metanálisis con frecuencia se presentan como tablas de datos. Eso significa que cada punto de datos (el principio y el final de cada intervalo de confianza y sucesivamente) son números en una columna en lugar de estar representados en un gráfico (ejemplo).

Es un trabajo pesado interpretar las tablas y es fácil perderse en los detalles. Por otra parte, la visualización de los datos puede proporcionar una rápida, fuerte y falsa impresión. Vale la pena dedicar tiempo a los detalles. He aquí 5 claves para tener una perspectiva razonable. Usaré metanálisis de estudios clínicos comparando dos grupos porque son los más comunes.

1) No pases a las conclusiones sin examinar detenidamente el contexto y la prespectiva.

Busca el tema concreto y la medida estadística. En el ejemplo falso de abajo, el tema son los resultados de una prueba de detección de algo (puede ser estancias hospitalarias o ataques cardíacos por ejemplo).

En este caso la línea vertical de "no efecto" es 1. Para otras medidas podría ser 0. Es uno porque la medida estadística es un RR (ratio de riesgo): "95% IC" es el nivel de significación para el intervalo de confianza. (aquí otra explicación). Hay una segunda línea vertical de puntos: indica donde cae el promedio de los resultados combinados.

A excepción del primero estos estudios imaginarios son bastante parecidos. Ese primer estudio no tiene mucha fuerza. Su intervalo de confianza es tan largo que el extremo izquierdo no cabe en el gráfico lo que no es bueno. Por eso tiene una flecha.
Lo que está a izquierda y derecha no es siempre lo mismo. Lo elige quien realiza el metanálisis y es su forma de enmarcar el tema. Su forma de funcionar en conjunto suele ser fácil y obvia pero no siempre.

Por ejemplo, este es uno en el que el grupo de control está en la izquierda del metanálisis y a la derecha está el resultado bueno (es sobre reducir el tamaño de las porciones, menor es mejor). Mientras que en este, el grupo control (placebo) está a la derecha, y los resultados a la izquierda son mejores. (Se trata de lágrimas artificiales sin receta para los síntomas del ojo seco.) Mientras tanto, en éste, hace dos metanálisis; en uno en la página 58 "favorece" la inmunoterapia está a la derecha y páginas más adelante está a la izquierda. Y eso no es poco frecuente.

El orden de los estudios también varía. En el gráfico de arriba los estudios están en orden cronológico. Pueden estar en orden alfabético por el nombre del estudio lo que hace más fácil encontrar información extra de otra tabla o metanálisis en el artículo. También se pueden ordenar por sus resultados.

No siempre hay una figuar de resumen de la estimación en la parte inferior del gráfico de estudios. No pienses que el de abajo es "el" resultado. Puedes tener gráficos de diferentes metanálisis. Por ejemplo uno muestrando un resumen estimado de un grupo de metanálisis de preguntas relacionadas.

2. No pierdas de vista que datos no están en el metanálisis.

Probablemente esta es la trampa más común en la que se cae en los metanálisis: No tener en cuenta que a menudo buscan en un subconjunto de resultados. Si quien recopiló los datos originales no midió la misma cuestión y de la misma forma no tendrás datos que puedas combinar de esos estudios.

He aquí un ejemplo dramático de eso. Es de la misma revisión sistemática sobre lágrimas artificiales de venta libre mencionada más arriba.

Hay 2 resultados, comparando la diferencia de medias en las escalas de síntomas a los 21, 28 días (gráfico de arriba) y 56 días.


Sólo hay 2 ensayos en el gráfico. Sin embargo se obtuvieron 43 ensayos sobre efectos de las lágrimas artificiales. Es muy frecuente que se enfoque y se informen el metanálisis de datos como el resumen de todos los estudios encontrados: "Un estudio con 43 ensayos sobre lágrimas artificiales encontró..." (más ejemplos de esto en la vida real).

Entonces surge la pregunta sobre cómo se encuentran y seleccionan los estudios. Un mentanálisis no es necesariamente una revisión sistemática, con una búsqueda cuidadosa y completa de la evidencia sobre una pregunta. Siempre hay que tener 2 niveles en mente.

¿es probable encontrar estudios relevantes? y ¿Cuales de esos se representan en este resultado metanalitico en particular?

3. Recuerda comprobar si hay signos de que los estudios pueden ser demasiado diferentes de alguna  forma.

Sólo porque puedar echar un montón de números en una marmita matematica no significa que formen parte del mismo cálculo.  Por desgracia no siempre es tan obvio como en esta señal.


Un concepto importante en metanálisis es el estudio de la heterogeneidad Una forma de decir "estos elementos nos son exactamente los mismos". La heterogeneidad puede deberse a algo que conozacas, como que un ensayo se realizó con niños y otro con adultos. Pero también hay una heterogeneidad inexplicable y puede ser un problema. Las diferencias en los resultados entre grupos y los conflictos entre estudios pueden deberse al azar, pero pueden deberse también a la heterogeneidad. (una explicación aqui).

Hay pruebas estadísticas para la heterogeneidad en metanálisis. Una prueba común es el I2, que proporciona un resultado en porcentaje. Aquí lo veis al final de la primera línea:


Es del mentanálisis de la página 58 mencionado más arriba. Combina clasificaciones de excema/dermatitits de 6 estudios para prevenirla con inmunoterapia alergénica. Fijaos sólo en el porcentaja el final: 19%. Está en la parte baja de la escala: hasta un 40% no representa un problema. Pero 75% o más lo puede ser mucho, y debe hacerte ser cauto con el resultado. Es más importante cuando los estudios son potentes, porque esta prueba estadística no es fiable con muestras pequeñas.

(La prueba estadística en la línea del medio es la de significación estadística).


4. Buscar si uno (o varios) resultados llevan la mayor parte del peso.

El peso que un estudio obtiene está relacionado con lo que se llama la precisión del estudio. La medida de la precisión depende de cuantos participantes y eventos hubo en el estudio. No importa únicamente el tamaño total del estudio.

Digamos que el evento en el que estás interesado son ataques cardíacos y estás investigando un método para reducirlos. Pero por alguna razón, ninguna persona en el grupo experimental o de control tuvo un ataque cardíaco aúnque el estudio era suficientemente grande para haber esperado varios. Este estudio tendría menos capacidad para detectar cualquier diferencia que tu método pudiera haber generado, por lo que debería tener menos peso (en el metanálisis).

Es bastante frecuente que sólo uno o un par de estudios carguen con la mayoría del peso en el metanálisis. Un estudio de Paul Glasziou y cols. encontró que el ensayo con más precisión significaba un promedio del 51% del total (del metanálisis).

Algunos estudios son tan grandes que sobrepasan a todos los demás, no importa cuantos haya. Les llamo los Hulk. Los Hulk no pueden ser puestos en duda, sólo por su tamaño nadie repetirá otro estudio como ese. Esto es genial si proporcionan una respuesta definitiva, pero no tanto si pueden no ser representativos.

El tamaño del punto estimado (resultado) y la longitud del intervalo de confianza son clave para la asignación de peso a un estudio. El metanálisis debe incluir un porcentaje para mostrar cuanto contribuye cada resultado individual al promedio. Si no lo hace puedes saberlo mirando si hay uno o dos estudios cuyo resultado está mucho más cerca del resultado resumen que los otros. (Clave: La linea punteada vertical ayuda a esto, si la ponen).

Aquí una versión extrema y actual de esto. El ensayo de la iniciativa "salud de la mujer" (WHI) probó el tratamiento hormonoal prolongado en cáncer de mama. Es un "Hulk" clásico: un estudio de investigación de 15 años con más de 160000 muejeres.

Este es un análisis 6.3.3 de Jane Marjoribanks y cols. versión 2012. Hay muchos más metanálisis que este.

Los 140 eventos en más de 160000 mujeres del WHI machacan a los 4 eventos en los dos ensayos previos más pequeños. El WHI se lleva el 95,4% del peso del promedio del resumen.


Clave: Si te sientes confuso por la medida estadística y necesitas ganar perspectiva sobre qué pasa, deberás mirar las cifras brutas de los eventos. En este caso están a la izquierda: 68 de las 9084 mujeres del grupo de tratamiento tuvieron cáncer de mama por 76 de las 8649 mujeres del grupo control. Está tocando la línea de "no efecto", luego no es un resultado estadísticamente significativo.

5. El tamaño no lo es todo, se cuidadoso con el "recuento de votos".

Una de las principales ventajas de los metanálisis es que son la alternativa más fiable que el "recuento de votos": "4 de 5 estudios muestran..."

¿Qué sucede si esos "4" son estudios pequeños y mal realizados en un grupo que no es relevante para tí (no es tu foco) y el quinto es el único ensayo bien diseñado, potente y relevante?

El ingenuo recuento de votos es un riesgo, hay más estudios que "podrían llevar a conclusiones desastrosas en varias circunstancias" escibieron Madden y Paul.

Aquí presentamos 2 metanálisis de una revisión sistemática sobre revistas biomédicas revisadas por pares. Hay también un resumen de la estimación combinada de los dos análisis. Se ha eliminado el contexto pero se ha dejado un elemento crítico extra a la derecha.


Pese a que la estimación del análisis en la parte inferiro favorece la revisión por pares no cegada, no es una respuesta definitiva. Los círculos de colores a la derecha muestran la evaluación del riesgo de sesgo de acuerdo a 4 criterios y muestran el porqué.

Sólo 1 estudio (el de arriba) tiene una valoración positiva de los cuatro criterios en un resultado, pero no es muy preciso. El segundo estudio tiene más precisión en esa pregunta, pero tiene un par de aspectos dudosos (marcados en amarillo).

Esto demuestar hasta que punto es complejo y exige juicio esta labor. Un estudio más o menos. La diferencia en juicio sobre la calidad del estudio. Enfocarse en resultados o preguntas diferentes. Cualquiera de estos cambios pueden modificar el resultado.

Una buena revisión sistemática y metanálisis puede ser de gran ayuda para clasificar estudios aparentemente en conflicto. Pero no debe sorprender que los resultados de los mentanálisis varien. Necesitamos más gente capaz de leerlos criticamente y ver porqué los mentanálisis se convierten en resultados conflictivos por si sólos.