Cada año, millones de americanos (nadie sabe cuántos exactamente) se presentan voluntarios como sujetos humanos en investigaciones médicas que comparan un nuevo tratamiento con otro viejo o, cuando no existe tratamiento anterior, con un placebo. Por medio de algo parecido al cara o cruz, a algunos voluntarios se les asigna someterse al nuevo tratamiento (el grupo experimental) mientras que otros se someten al viejo (grupo control).
<script async src=»//pagead2.googlesyndication.com/pagead/js/adsbygoogle.js»></script>
<!– Banner Articulos –>
<ins class=»adsbygoogle»
style=»display:block»
data-ad-client=»ca-pub-2257646852564604″
data-ad-slot=»2173848770″
data-ad-format=»auto»></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>
Este tipo de investigación se denomina ensayo clínico y en cualquier momento se llevan a cabo cientos de ellos en los Estados Unidos. La mayoría son patrocinados por el gobierno, principalmente por los National Institutes of Health (NIH). Un número cada vez mayor de ellos se llevan a cabo en el extranjero, particularmente en países con gobiernos autocráticos, donde es más fácil y más barato hacerlos.
El primer ensayo médico moderno fue publicado hace sólo sesenta y siete años, en 1948. Patrocinado por el British Medical Research Council, el ensayo comparaba la estreptomicina, un nuevo antibiótico, únicamente con el reposo en cama en pacientes con tuberculosis. (Se probó que la estreptomicina era mejor y pasó a formar parte del tratamiento habitual contra esta enfermedad).
Antes de eso, la experimentación con humanos era bastante fortuita; los sujetos eran tratados de una u otra manera para ver cómo les iba, pero normalmente no había ningún grupo de comparación. Incluso cuando lo había, la comparación carecía de los métodos rigurosos de los modernos ensayos médicos, que incluyen la distribución aleatoria para asegurarse de que los dos grupos son similares en todos los sentidos, salvo en el tratamiento que se está estudiando.
Después del estudio de la estreptomicina, los ensayos clínicos cuidadosamente diseñados pronto se convirtieron en el patrón científico para estudiar casi cualquier nueva intervención médica en sujetos humanos/1.
Los pacientes con enfermedades graves están normalmente dispuestos a participar en ensayos clínicos, creyendo equivocadamente que los tratamientos experimentales suelen ser mejores que los tratamientos estándar (la mayoría no resultan ser mejores y a menudo son peores)/2. Por otro lado, a los voluntarios con buena salud se les motiva con alguna combinación de los modestos pagos que reciben y del deseo altruista de contribuir al conocimiento médico.
Teniendo en cuenta la fe americana en los avances médicos (los NIH no sufren, en gran medida, la desafección que hay actualmente con el gobierno), es fácil olvidar que los ensayos clínicos pueden ser un negocio arriesgado. Suscitan problemas éticos formidables puesto que los investigadores son responsables tanto de proteger a los sujetos humanos como de avanzar en interés de la ciencia. Estaría bien si esas dos responsabilidades coincidieran, pero habitualmente no lo hacen. Al contrario, hay una tensión inherente entre la búsqueda de respuestas científicas y la preocupación por los derechos y el bienestar de los sujetos humanos.
Consideremos un caso hipotético. Supongamos que unos investigadores quieren probar una posible vacuna contra el VIH. Científicamente, la mejor forma de hacerlo sería elegir a pacientes con buena salud para un ensayo, dar la vacuna a la mitad de ellos y después inyectar a todos el virus del VIH para comparar después el índice de infección en los dos grupos. Si hubiera significativamente menos casos de VIH en el grupo vacunado que en el no vacunado, eso probaría que la vacuna funcionó. Un ensayo así sería simple, rápido y concluyente.
En poco tiempo, tendríamos una repuesta clara a la cuestión de si la vacuna fue efectiva, una respuesta que podría tener una importancia enorme sobre la salud pública y salvar miles de vidas.
Sin embargo, hoy todo el mundo estaría de acuerdo en que semejante ensayo no sería ético. Si se pregunta la razón, probablemente la mayoría diría que la gente no debería ser tratada como conejillos de indias, esto es, no debería ser usada meramente como medio para un fin (y por supuesto, ninguna persona completamente informada participaría en un ensayo semejante). Hay una repulsión instintiva contra la infección deliberada de sujetos humanos con enfermedades mortales, independientemente de lo importante del asunto científico.
Así que, en la práctica, los investigadores de este hipotético estudio, tendrían que hacer concesiones científicas a las razones éticas. Puesto que les estaría prohibido inyectar el VIH, tendrían sencillamente que esperar a ver cuántos sujetos en cada grupo (vacunados y no vacunados) se infectaban a lo largo de sus vidas.
Eso llevaría muchos años y se necesitaría un gran número de sujetos. Incluso si los investigadores seleccionaran sujetos con alto riesgo de quedar contagiados con el HIV —digamos, consumidores de drogas intravenosas—, se tendría que hacer un seguimiento a mucha gente, durante mucho tiempo, para acumular el número de infecciones necesarias que permitieran una comparación estadística válida entre los grupos vacunados y los no vacunados.
Incluso entonces, podría ser difícil interpretar los resultados, debido a la diferencia de condiciones a las que han estado expuestos los dos grupos. Dicho brevemente, hacer un ensayo médico sería mucho menos eficiente y concluyente —y mucho más caro— que inyectar sencillamente el virus.
Llevar a cabo el ensayo ética y más lentamente puede no significar simplemente una pérdida de eficacia científica. Si la vacuna resultara efectiva, podría significar también la pérdida de vidas: las vidas de todos aquellos alrededor del mundo que, en el tiempo extra que se necesitara para hacer un ensayo ético, contrajeran el VIH por falta de una vacuna. Habría habido un intercambio entre el bienestar de los participantes del ensayo y el bienestar del gran número de personas que se beneficiarían del rápido descubrimiento de una vacuna efectiva. O los sujetos humanos sufrirían por haber sido deliberadamente expuestos al VIH en ensayo no ético o los futuros pacientes sufrirían por no tener una vacuna mientras un ensayo ético estaba en curso.
Es cierto que este ejemplo hipotético de la tensión entre ciencia y sociedad, por una parte, y la ética, por la otra, es extremo. Casi todo el mundo aceptaría en seguir el curso de acción correcto en este caso; rechazarían la afirmación utilitarista de que inyectar VIH en sujetos humanos resultaría un máximo bien para un máximo número de personas.
Sin embargo, a lo largo de los años, ha habido muchos experimentos reales que involucraban elecciones no menos extremas, en las que los investigadores sacrificaban el bienestar de los sujetos humanos en favor de los intereses de la ciencia y de los futuros pacientes y creían que eso era lo correcto.
Los más espantosos y grotescos de ellos fueron los experimentos médicos llevados a cabo por la Alemania nazi durante la Segunda Guerra Mundial con reclusos de campos de concentración/3. Aunque hoy es difícil de creer, la gente que diseñó estos experimentos —entre ellos estaban algunos de los más señalados médicos del momento— tenía un objetivo. Querían obtener información que pudiera salvar las vidas de las tropas alemanas en la batalla.
En uno de estos experimentos en Dachau, por ejemplo, su objetivo era encontrar el máximo de altitud segura a la que los pilotos podían saltar en paracaídas de un avión averiado. Para ello, pusieron a reclusos en cámaras de vacío en las que se pudiera duplicar progresivamente la presión atmosférica, hasta el equivalente de una altitud de aproximadamente 20 726 metros (68 000 pies). Alrededor del 40% de las víctimas murió por falta de oxígeno durante estos horribles experimentos.
En otro experimento, los investigadores querían estudiar cuánto tiempo podrían sobrevivir los pilotos que se hubieran lanzado en paracaídas en el gélido Mar del Norte. Las víctimas fueron sumergidas en un tanque de agua helada durante tres horas y muchas murieron congeladas. Los nazis también experimentaron una vacuna contra el tifus administrándosela a una parte de un grupo de prisioneros, pero no a todos. Luego, los infectaron a todos con el tifus para comparar el número de muertes (un experimento de diseño idéntico a mi ejemplo hipotético).
Al final de la guerra, los aliados celebraron una serie de juicios por crímenes de guerra en Núremberg, Alemania. Uno de ellos, presidido por jueces americanos en un tribunal militar estadounidense fue conocido como “el juicio de los médicos”. En ese juicio, que empezó en diciembre de 1946, los veintitrés investigadores supervivientes (de los cuales veinte eran médicos) responsables de experimentos médicos en los campos de concentración fueron acusados de crímenes de guerra y de crímenes contra la humanidad. En su defensa, presentaron una retahíla de escusas. Dos de ellas son particularmente importantes, porque, de forma modificada, han sido usadas repetidamente en la actualidad para defender la investigación no ética.
Primero, los médicos nazis daban el argumento utilitarista de que su investigación salvaría más vidas de las que costaba. Continuaban diciendo que esta justificación era aun más convincente toda vez que las vidas en juego eran tropas luchando por la supervivencia misma de su país. Circunstancias extremas exigían acciones extremas, decían. Segundo, los médicos nazis señalaban que muchos de sus sujetos humanos eran, de todas formas, reos de muerte (por “crímenes” como ser gitano o judío). Los seleccionados para la experimentación médica podrían incluso haber vivido más tiempo de lo que lo harían de otro modo.
El juicio de los médicos acabó en agosto de 1947 con la condena de dieciséis de los veintitrés acusados, siete de los cuales fueron ahorcados y nueve ingresaron en prisión. Como parte del dictamen, la corte publicó el celebrado Código de Núremberg en 1947 (disponible en: www.hhs.gov/ohrp/archive/nurcode.html), el primero, más breve y en muchos sentidos el más inflexible de los grandes códigos éticos y regulaciones para la conducta de la investigación médica en humanos. Aunque el código no tenía autoridad legal en ningún país, tuvo gran influencia en las ideas sobre la experimentación humana y en ulteriores códigos y legislación internacionales.
El primer punto del código de Núremberg no admite reservas:
“Es absolutamente esencial el consentimiento voluntario del sujeto humano”. No caben excepciones. La razón es obvia, teniendo en cuenta la experiencia nazi. La experimentación en niños y otras personas incapaces de decidir por sí mismos queda prohibida, puesto que el código exige voluntarios que tengan la “capacidad legal” de consentir. Además, el código deja claro que el consentimiento deben darlo sujetos plenamente informados.
Se afirma: “[…] antes de aceptar una respuesta afirmativa por parte de un sujeto experimental, el investigador tiene que haberle dado a conocer la naturaleza, duración y propósito del experimento; los métodos y medios conforme a los que se llevará a cabo; los inconvenientes y riesgos que razonablemente pueden esperarse; y los efectos que para su salud o personalidad podrían derivarse de su participación en el experimento”.
Otros puntos no son tan absolutos y dependen del juicio de los investigadores. Uno es el requisito de que el experimento en cuestión sea “tal que dé resultados provechosos en beneficio de la sociedad” y “no debe ser de naturaleza aleatoria o innecesaria”. (Incluso con la más generosa interpretación, este principio es ahora violado rutinariamente, en particular por compañías que patrocinan investigaciones fundamentalmente para aumentar sus ventas).
El código también estipula que el “grado de riesgo que se corre nunca podrá exceder el determinado por la importancia humanitaria del problema que el experimento pretende resolver” y que los investigadores deberían poner fin a experimentos si creen que con su continuación habría “posibilidades, aun las más remotas, de lesión, incapacidad o muerte” para los sujetos. De acuerdo con el Código de Núremberg, por tanto, el consentimiento informado es necesario pero no suficiente.
¿Fue la publicación del código de Núremberg el fin de la investigación médica no ética? En absoluto. De hecho a lo largo de aproximadamente treinta años, de 1944 a 1974, el gobierno estadounidense llevó a cabo múltiples experimentos en los que la gente era deliberadamente expuesta a radiación sin su conocimiento o consentimiento.
El objetivo era estudiar los efectos de las armas nucleares en pruebas. Por citar sólo dos ejemplos, se irradiaron los testículos de prisioneros de los estados de Oregón y Washington para estudiar los efectos en la producción de esperma y a pacientes terminales de un hospital de Cincinnati se les irradió todo su cuerpo para dar a conocer sus peligros al personal militar/4. Es de notar la ironía de que estos experimentos estuvieran teniendo lugar durante los juicios de Núremberg y que supusieran una justificación similar a aquello de que circunstancias extremas, en este caso la guerra fría, exigían acciones extremas.
Desde 1956 a 1972, se llevó a cabo un estudio en la Escuela Estatal de Willowbrook para deficientes mentales en Nueva York, en el que los niños eran infectados deliberadamente con hepatitis para estudiar el curso natural de la enfermedad y su tratamiento. La justificación fue que la higiene de las instalaciones era tan mala que casi todos los niños habrían contraído la enfermedad de todos modos/5. Nótese el parecido con la excusa de los médicos nazis de que muchos de los reclusos de los campos de concentración estaban sentenciados a muerte de todas formas.
De todos modos, a pesar de tales clamorosas violaciones, con la promulgación de Código de Núremberg, se tenían algunos principios ampliamente aceptados. Sin embargo, con todas sus virtudes, se tenía la sensación de que el Código de Núremberg necesitaba cambiar, principalmente porque el requisito de un consentimiento informado de adultos competentes era visto por lo general como demasiado estricto. Había también necesidad de afrontar algunas cuestiones especiales surgidas por el diseño de los nuevos ensayos médicos introducidos en la década de 1940. ¿Cómo debían equilibrarse los riesgos y beneficios de los grupos experimentales y de control?
En 1964, la Asociación Médica Mundial (WMA), que consiste en un grupo de sociedades médicas nacionales, incluyendo a la Asociación Médica Americana (AMA), publicó la primera Declaración de Helsinki. Ha tenido siete revisiones desde entonces, las más reciente en 2013 (disponible en: www.wma.net/en/30publications/10policies/b3/). Como el Código de Núremberg, la Declaración de Helsinki no tiene autoridad legal, pero rápidamente se convirtió en el nuevo modelo ético por el que debían ser juzgados los ensayos clínicos, y durante muchos años el NIH y el FDA exigían explícitamente que las investigaciones que supervisaban fueran conformes a sus principios.
Desde el principio, la Declaración de Helsinki atenuaba los requisitos absolutos del Código de Núremberg sobre el consentimiento informado para exigir el consentimiento sólo “si fuera posible” y permitiendo la investigación en niños y otras personas incapaces de decidir por sí mismas, si los padres u otros tutores legales lo consentían. Sin embargo, la primera revisión (1975) contenía esta afirmación inequívoca: “la preocupación por los interese del sujeto siempre deben prevalecer sobre los intereses de la ciencia y la sociedad” y también recomendaba la supervisión de comités independientes.
Pero la Declaración de Helsinki se fue a pique con la quinta revisión en 2000 y su desenlace. El problema surgió al inicio del encendido debate sobre los ensayos clínicos patrocinados por el NIH y los Centros de Control y Prevención de Enfermedades (CDC) en los países en desarrollo.
Primero un poco de contexto: en un ensayo clínico típico, se compara un tratamiento nuevo con con uno antiguo. Para dar “prioridad al bienestar de los sujetos humanos”, como exige la Declaración de Helsinki, los investigadores no deben tener razones de antemano para pensar que el nuevo tratamiento es mejor o peor que el antiguo.
Debe haber una genuina incertidumbre o indeterminación en torno a eso (es patentemente la razón para hacer en ensayo). De otro modo, serían culpables de dar deliberadamente un tratamiento inferior a algunos de los voluntarios, algo que no deben hacer si el bienestar de los sujetos es prioritario. Este estado de indeterminación o incertidumbre (habitualmente llamado “equipoise”) es un requisito generalmente aceptado para la conducta ética de los ensayos clínicos. Una de sus implicaciones es que los investigadores no den placebos a los sujetos en el grupo control si se sabe que hay un tratamiento efectivo.
En 1994, la investigación mostró que administrando un régimen intensivo de zidovudina (también llamada AZT) se podía evitar que mujeres con VIH embarazadas transmitieran la infección a sus hijos. Ese régimen pronto se usó por todos los EEUU y otros países desarrollados/6. Pero había interés en saber si un régimen menos intensivo (y más barato) de zidovudina podría tener el mismo efecto y hubo también alguna razón para creer que así sería. Así que el NIH y el CDC patrocinaron una serie de ensayos médicos de un régimen menos intensivo, en países en desarrollo, principalmente en el África subsahariana.
Pero en vez de compararlo con el régimen intensivo, estos ensayos utilizaron placebos en los grupos de control. Los investigadores podrían haber proporcionado el régimen intensivo a los grupos de control, pero creyeron que se conseguirían resultados más rápidos usando placebos. Sin embargo, sabían que usando placebos en vez de un tratamiento efectivo conocido, aproximadamente uno de seis recién nacidos en los grupos de control desarrollaría el VIH, pudiendo haberse evitado fácilmente. (El índice de transmisión de una mujer no tratada estaba bastante bien establecido). Además, la investigación podría haber sido prohibida en EEUU y en Europa.
Cuando esto fue ampliamente sabido en 1997 como resultado de la publicación en el The New England Journal of Medicine, hubo una intensa controversia, con mucha gente (yo incluida) crítica con los ensayos y otra defendiéndolos fervientemente, incluyendo a los directores del NIH y del CDC/7.
Los defensores de la investigación usaban versiones de dos argumentos que ahora nos son familiares. Primero, decían que la investigación salvaría más vidas de las que costaba (argumento utilitarista que se usa en casi todas las investigaciones cuestionables) porque el uso de un control con placebo daría resultados más rápidamente y, segundo, decían que las mujeres en los grupos de control no habrían recibido tratamiento efectivo fuera de los ensayos, porque generalmente no era accesible en aquella parte del mundo, así que no necesitaban entrar en los pormenores del ensayo (una versión del argumento de «están sentenciados de todos modos»).
Continuando con esta controversia, algunos miembros del WMA, sobre todo el AMA, querían que la quinta revisión de la Declaración de Helsinki aprobara el uso de placebos en los ensayos clínicos si el mejor tratamiento del momento no era accesible en general en el país en el que se hacían los ensayos/8.
Pero otros sostenían que los investigadores eran responsables de todos los sujetos humanos participantes, tanto de los grupos de control como de los experimentales, incluso si la mejor atención médica no estaba generalmente disponible en el país concreto en el que se hacía la investigación. Para sorpresa de muchos, esta última visión fue la que se impuso y en la revisión del 2000 se afirmaba que no se le podría dar un placebo a nadie, a menos que no hubiera tratamiento conocido, independientemente de dónde se lleve a cabo el experimento.
La revisión también suscitó la cuestión de si los patrocinadores tenían obligaciones permanentes con los sujetos de sus investigaciones en los países en desarrollo, como proporcionarles cualesquiera tratamientos que hubieran demostrado ser efectivos en los ensayos en los que participaron.
Pero el debate no se cerró. En vez de eso, dos años después, por presión del AMA, se añadieron notas al pie en las secciones relevantes, modificándolas hasta el punto de que el documento se convirtió en algo carente de lógica interna. El NIH y el FDA no volvieron a referirse a la declaración de Helsinki (en vez de ello, el FDA se refiere a las directrices menos específicas de la Good Clinical Practice de la International Conference on Harmonisation) pero sigue siendo una piedra de toque en muchos otros países, a pesar de sus inconsistencias, y tiene gran importancia histórica/9.
(*) Pa primera mujer editora del New England Journal of Medicine, profesora titular en el Departamento de Salud Global y Medicina Social en la Escuela de Medicina de Harvard en Boston Massachusetts.
Fuente Viento Sur
Notas:
1/ Los resultados de la estreptomicina fueron publicados en el número del 30 de octubre de 1948 del British Medical Journal con el título: “Stretomycin Treatment of Pulmonary Tuberculosis: A Medical Research Council Investigation”. Para un testimonio posterior de primera mano del ensayo y sus implicaciones, cfr.: “The MRC Randomized Trial of Streptoycin and Its Legacy: A View from the Clinical Front Line”, Journal of the Royal Society of Medicine, vol. 99, nº 10 (octubre de 2006).
2/ Teniendo en cuenta los miles de ensayos clínicos llevados a cabo cada año y el número relativamente pequeño de tratamientos que se hacen accesibles, sería imposible que fuera de otra forma. De hecho, de acuerdo con FDAReview.org, sólo el 8% de todos los fármacos que se someten a ensayos clínicos, son aprobados en algún momento por el FDA para la venta.
3/ Cfr.: Nazi Doctors and the Nuremberg Code: Human Rights in Human Experimentation, editado por George J. Annas y Michael A. Grodin (Oxford University Press, 1992). Es una historia y análisis excelentes, que incluye el Código de Núremberg y la Declaración de Helsinki hasta la revisión de 1975.
4/ Descrito por Jonathan D. Moreno en: Undue Risk: Secret State Experiments on Humans (Routledge, 2000).
5/ En 1996, Henry Beecher, profesor de investigación anestésica de la facultad de medicina de Harvard, publicó veintidós ejemplos de investigación humana no ética. El ejemplo número 16 era el estudio de Willowbrook. El artículo de Beecher fue ampliamente difundido y contribuyó al ímpetu que desembocó en el National Research Act. Cfr. Henry K. Beecher: “Ethics and Clinical Research”, The New England Journal of Medicine, col. 274, nº 24 (6 de junio de 1996)
6/ Edward M. Connor, Rhoda S. Sperling, Richard Gelberg, et al.: “Reduction of Maternal-Infant Transmission of Human Immunodeficiency Virus Type 1 with Zidovudine Treatment, The New England Journal of Medicine, col. 331, Nº TK (3 de noviembre de 1994).
7/ Cfr. Peter Lurie y Sidney Wolfe: “Unethical Trials of Interventions to Reduce Perinatal Transmission of the Human Immudeficiency Virus in Developing Countries”, The New England Journal of Medicine, vol. 337, nº 12 (18 de septiembre de 1997). Para las respuestas, cfr. también: Marcial Angell, «The Ethics of Clinical Research in the Third World», The New England Journal of Medicine, vol. 337, nº 12 (18 de septiembre de 1997); y Harold Varmus y David Satcher, “Ethical Complexities of Conducting Research in Developing Countries”, The New England Journal of Medicine, vol. 337, nº 14 (2 de octubre de 1997).
8/ Para una discusión sobre esta controversia, cfr. Jonathan, Charles Weijer and Eric M. Meslin, “Helsinki Discords: FDA, Ethics and International Drug Trials”, The Lancer, vol. 373, nº 9, 657 (2 de octubre de 1997).
9/ Ver sobre todo ello: The Ethics Police? The Struggle to Make Human Research Safe de Robert L. Klitzman. Oxford University Press. 422 págs.
La ética y la investigación médica con humanos
Marcia Angell
<script async src=»//pagead2.googlesyndication.com/pagead/js/adsbygoogle.js»></script>
<!– Banner Articulos –>
<ins class=»adsbygoogle»
style=»display:block»
data-ad-client=»ca-pub-2257646852564604″
data-ad-slot=»2173848770″
data-ad-format=»auto»></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>
Cada año, millones de americanos (nadie sabe cuántos exactamente) se presentan voluntarios como sujetos humanos en investigaciones médicas que comparan un nuevo tratamiento con otro viejo o, cuando no existe tratamiento anterior, con un placebo. Por medio de algo parecido al cara o cruz, a algunos voluntarios se les asigna someterse al nuevo tratamiento (el grupo experimental) mientras que otros se someten al viejo (grupo control).
En la primera parte de este examen, discutí los principios y códigos éticos sobre la experimentación humana, incluyendo el Código de Núremberg y la Declaración de Helsinki/1. Pero los principios y códigos no son lo mismo que las leyes y regulaciones, incluso cuando puedan inspirarlas.
La primera ley de los Estados Unidos relativa a la ética de la investigación médica con sujetos humanos fue promulgada en 1962, como reacción a la tragedia de la talidomina de finales de 1950, cuando mujeres embarazadas a las que se les había administrado talidomina para aliviar las náuseas del embarazo dieron a luz bebés con las extremidades deformes o ausentes.
Aunque el fármaco no había sido aprobado para uso general en Estados Unidos, se administró a muchas mujeres americanas como un fármaco experimental y no se les dijo que eran sujetos de una investigación. La ley de 1962 obligaba a que los sujetos humanos fueran informados sobre la investigación y que dieran su consentimiento. Los Institutos Nacionales de Salud (NIH) comenzó también a exigir que las instituciones que recibieran financiación del NIH crearan comités para examinar la investigación en sujetos humanos.
En 1966, Henry Beecher, un anestesista del Hospital General de Massachusetts, sacó a la luz estudios no éticos que habían aparecido en revistas médicas/2. Pero no se le prestó mucha atención al asunto hasta la revelación pública en 1972 del «Estudio de Tuskegee sobre la sífilis no tratada en el varón negro». Cuando esta investigación salió en la portada del The Washington Star y The New York Times, ya se había desarrollado durante cuarenta años, abarcando la era nazi.
El estudio de Tuskegee fue iniciado por el Servicio Público de Salud de los Estados Unidos (organismo del que surgieron los NIH) en 1932. En él, 399 hombres afroamericanos pobres, con sífilis sin tratar, fueron observados y comparados con 201 hombres que no padecían la enfermedad para determinar la historia natural de la sífilis. Cuando comenzó el estudio, la sífilis era una gran plaga. Los únicos tratamientos eran metales pesados, como arsénico o mercurio, tóxicos y no muy efectivos.
La idea era observar la sífilis latente sin tratar, puesto que se sospechaba que, en fases sucesivas de la enfermedad, esos hombres podrían realmente mejorar sin tratamiento. Los hombres no fueron informados sobre la enfermedad ni del propósito del estudio. Sólo se les dijo que recibirían exámenes gratis y atención médica.
El consentimiento sin información no era algo extraño en esos días. (Tampoco hubo consentimiento informado en el ensayo de la estreptomicina en 1948, discutido en la parte uno de este examen). Lo peor era el hecho de que el estudio continuó incluso después de que en la década de 1940 se descubriera que la penicilina era efectiva contra la sífilis.
De hecho, durante la Segunda Guerra Mundial, estos hombres estuvieron exentos del servicio militar obligatorio para evitar que fueran tratados con penicilina mientras estuvieran en las fuerzas armadas. Posteriormente, los investigadores justificaron la continuación del estudio diciendo que nunca habría otra oportunidad de observar la sífilis sin tratar. Cuando fueron revelados los detalles del estudio, hubo una indignación generalizada y la administración Nixon paró el estudio.
De repente, se pasó a la acción. El Congreso aprobó el Acta de Investigación Nacional de 1974 y se publicaron regulaciones que obligaban a establecer comités de ética, ahora llamados Institutional Review Boards (IRB), para revisar la investigación humana financiada federalmente. La ley establecía también una Comisión Nacional para la protección de sujetos humanos de investigación biomédica y conductual para desarrollar principios generales. Su informe —llamado el Informe Belmont, por el centro de conferencias donde se iniciaron las deliberaciones— fue publicado en 1978. A partir de 2014, quince departamentos y agencias federales han adoptado un conjunto común de regulaciones basadas en el Informe Belmont que deben regir en las investigaciones con sujetos humanos.
Conocida como la Norma Común (aparece en el subapartado A del título 46 del Código de Regulaciones Federales), se aplica virtualmente a todas las investigaciones en sujetos humanos financiadas con fondos federales, y la mayoría de instituciones la siguen incluso para investigaciones financiadas de forma privada (las subpartes B, C y D se refieren a grupos especialmente vulnerables: mujeres embarazadas, niños y presos).
Miremos ahora cómo hemos llegado hasta el Código de Núremberg. La propia existencia del paraguas de las regulaciones federales, junto con el ascenso de los IRB, demuestra hasta qué punto ha variado el centro de la responsabilidad. Originalmente, la responsabilidad se situaba exclusivamente en las dos partes directamente implicadas: los sujetos humanos y los investigadores. De acuerdo al Código de Núremberg, los sujetos tenían una libertad absoluta de consentir o rechazar participar.
Y los investigadores tenían una total responsabilidad en encargarse de que la investigación se hiciera de forma ética. Ahora la responsabilidad recae principalmente en el gobierno y en los IRB. Los sujetos han perdido algo de su libertad, puesto que la exigencia de consentimiento informado es ahora condicional e incluso puede ser totalmente evitada. Y los investigadores deben atenerse a las regulaciones del gobierno y las decisiones del IRB. Es discutible que este viraje haya sido una ganancia neta, pero es ciertamente un gran cambio.
Frente a cualquier propuesta que se le presente, los IRB tienen la opción de permitir que la investigación siga adelante, de frenarla o de exigir una revisión. No hay mecanismo de apelación alguno a sus decisiones. Así que, ¿qué sabemos sobre cómo toman sus decisiones estos poderosísimos comités? Casi nada, de acuerdo con Robert Klitzman en su libro The Ethics Police? The Struggle to Make Human Research Safe. «Es destacable, escribe, que la cuestión de cómo funcionan realmente los IRB, cómo hacen las decisiones y contemplan y entienden estos dilemas haya recibido relativamente poca atención. Sólo se han publicado unos pocos estudios de los IRB y se centran en cuestiones logísticas y de procedimiento».
Comienza con una panorámica general de simples hechos. Ahora hay cerca de cuatro mil IRB en los Estados Unidos, en general en instituciones sin ánimo de lucro, principalmente centros médicos académicos (que consisten en facultades de medicina y hospitales universitarios), y se reúnen normalmente cada mes. Pero también han surgido IRB privadas y con ánimo de lucro que, por un precio, evalúan estudios para compañías farmacéuticas u otros patrocinadores.
Algunos IRB académicos han empezado también a cobrar a los patrocinadores industriales para la evaluación de protocolos: cerca de 2 500 dólares para evaluaciones iniciales y 500 dólares por las continuas. La mayoría de juntas evalúan cientos de estudios al año y muchos grandes centros médicos cuentan con cinco o seis IRB. La Norma Común exige que los IRB tengan al menos cinco miembros y que al menos uno de ellos no tenga afiliación a la institución; y, en palabras de la Norma Común, al menos uno «cuyas preocupaciones básicas sean en áreas científicas y al menos uno cuyas preocupaciones básicas sean en áreas no científicas». A los presidentes se les paga aproximadamente un quinto de sus salarios académicos u hospitalarios y a los administrados se les paga una jornada completa.
Después de ofrecernos la panorámica general, Klitzman pretende levantar el telón para ver el funcionamiento real de estos comités por medio de extensas entrevistas a cuarenta y seis miembros de IRB —veintiocho presidentes o vicepresidentes, otros siete miembros, diez administradores y un director— de sesenta instituciones de investigación académicas sin ánimo de lucro elegidas al azar, de las que treinta y cuatro decidieron participar. Los resultados son aleccionadores. Los entrevistados son por lo general gente seria y con buenas intenciones, pero admiten que casi carecen de base para sus decisiones éticas.
En palabras de Klitzman: «Llama la atención que, aunque los PI [investigadores principales] deban someterse regularmente a pruebas sobre la ética de la investigación para llevar a cabo los estudios, esas exigencias no las tienen los presidentes, miembros o personal de los IRB» y que «los miembros de los IRB pueden ser no sólo ’autodidactas’ en asuntos éticos sino que usan corazonadas y la prueba del olfato y no un ’análisis ético’ meticuloso». Contribuyendo a la confusión, muchos estudios multicentros exigen el visto bueno de más de un IRB. Uno de los miembros entrevistados confesaba «en una gran cantidad de cuestiones, no tenemos absolutamente ninguna guía, lo que contribuye a que los IRB, gestionando exactamente los mismos estudios, tengan reacciones muy heterogéneas».
El problema subyacente aquí es el fracaso de la Norma Común para proporcionar una guía ética sustancial. En vez de ello, se preocupa casi por completo de cuestiones de estructura y proceso, como la composición de los IRB, documentación (exigida de una forma tan comprensiva y detallada que llega al absurdo) y garantía de cumplimiento. Un miembro de un IRB, hablando del formulario de consentimiento de su institución, le decía a Klitzman: «tienen un formulario de 15 páginas cuya lectura es sencillamente ridícula.
Te das cuenta de que los abogados han estado detrás del formulario». Pero, en lo referente a la base ética de las decisiones, además del consentimiento informado, los único requisitos son éstos: «los riesgos para los sujetos están minimizados», y «los riesgos para los sujetos son razonables en relación con los beneficios anticipados, si hay, para los sujetos y la importancia del conocimiento que puede ser razonablemente ser esperado». Apenas se explican estos requisitos, vagos y casi improvisados.
La Regla Común también contempla que el requisito no sea exigible si «la investigación no pudiera ser llevada a cabo en la práctica sin ser eximida o alterada», pero dice poco sobre qué significa eso. Dicho brevemente, los IRB improvisan sobre la marcha.
Esto es lo que no se discute en la Norma Común: ¿debe hacerse una distinción entre voluntarios sanos y los pacientes enfermos que están siendo estudiados? Estos últimos creen habitualmente, diga lo que se les diga, que el objetivo principal de la investigación es tratarles, no estudiarles. Este malentendido se llama «equívoco terapéutico» y es ciertamente comprensible, especialmente porque muchos investigadores son también médicos.
Los pacientes naturalmente creen que los médicos los tratarán según su mejor juicio y que modificarán el tratamiento según parezca funcionar o no. ¿Debería ser más enfatizado el hecho de que serán tratados como un grupo, de acuerdo a un protocolo invariable? ¿Se les debería exigir a los pacientes de los ensayos clínicos tener un médico adicional que no tenga conexión con el ensayo?
Además, la Regla Común no dice casi nada sobre los problemas especiales de investigación en los países en desarrollo, incluyendo si es ético el uso de placebos en los grupos control en vez de un tratamiento efectivo conocido y si puede darse un consentimiento realmente voluntario en regiones con gobiernos autocráticos que se benefician del dinero y prestigio que conlleva albergar investigaciones patrocinadas por los países desarrollados/3.
Un miembro de un IRB, hablando del uso de placebos en grupos de control, le decía a Klitzman «la solución es hacer cosas en otro lugar que no serian éticas en este país. El FDA no tiene ningún problema en aceptar esos datos del extranjero». Continuaba diciendo «el lugar favorito para hacer esto es o Sudamérica o Europa del Este». Quizá los investigadores no deberían llevar a cabo investigaciones en los países en desarrollo a menos que la enfermedad médica que está siendo estudiada, como algunas enfermedades tropicales, sólo tenga lugar en estos países.
Otra cuestión que ha sido pasada por alto en la Regla Común: ¿debería ser tenida en cuenta la importancia científica de la investigación en las decisiones de los IRB? Muchos estudios de fármacos similares a los que ya hay en el mercado (llamados fármacos de imitación o «yo también»- me-too-) y muchos estudios de post-marketing (investigaciones adicionales para tratar de encontrar alguna ventaja frente a la competencia) no ofrecen casi ningún beneficio a la sociedad, como trataré de aclarar luego.
Como un miembro de un IRB contaba a Klitzman «se recogen algunos datos, normalmente muy naturalistas. Pero el verdadero propósito del estudio es preparar el terreno —conseguir que el fármaco pueda ser usado clínicamente— para facilitar su comercialización» (énfasis de Klitzman). Otro miembro decía:
«Mala ciencia es mala ética. Un mal estudio que no vaya a decirte nada —incluso si no pone a gente en riesgo, sino que sólo les plantea inconvenientes y requiere tiempo, simplemente para facilitar la comercialización— no tiene sentido para mí».
Además de la ausencia de guía ética, un problema serio que afrontan los IRB es su inherente conflicto de intereses, puesto que normalmente los IRB se establecen y trabajan en las instituciones que llevan a cabo la investigación. La investigación clínica les garantiza a los grandes centros médicos una enormes vía de ingreso. Cubren mucho más que los costes directos necesarios para llevar a cabo el experimento y pagan parte de los salarios de los investigadores de las facultades.
De acuerdo con Klitzman: «los miembros de los IRB pueden vacilar en cuestionar demasiado un estudio, porque la industria de los patrocinadores puede sencillamente ’retirar’ la financiación y llevársela a otra institución, obstaculizando las trayectorias profesionales de sus colegas». Los IRB, dice, «varían según consideren a sus principales clientes como investigadores, sujetos, financiadores o la institución»; un hecho concluyente, de ser verdad. Un miembro de un IRB le decía: «a los hospitales se les dice que necesitan la aprobación de un IRB o no se les financiará, y el hospital presiona a los IRB para que le aprueben», a veces reemplazando al presidente con alguien menos crítico. Cuando los IRB cobran tasas para evaluar propuestas de investigación, el conflicto es incluso más agudo.
Otro miembro decía que la tasa «solía ser acumulada como fondos a discreción de los IRB. Ahora, ha sido expropiada por altos funcionarios y absorbida como parte de los ingresos de las escuelas, lo que ha afectado a nuestro plazo de entrega».
(Apuesto a que fue más rápido). Los IRB con ánimo de lucro tienen casi los mismos conflictos, porque sus clientes tienen intereses financieros en la investigación.
Los miembros individuales de los IRB pueden tener también conflictos de intereses. La Norma Común declara:
«Ningún IRB puede tener un miembro que participe en la evaluación inicial o continua de ningún proyecto con el que el miembro en cuestión tenga un conflicto de intereses, excepto para proporcionar la información que le pida el IRB».
Pero esa disposición parece estar hecha para no ser cumplida. Klitzman escribe que «a pesar de las potenciales amenazas a la integridad, el 36 % de los miembros de los IRB tienen relaciones financieras con la industria; el 23 % de aquellos con un COI [conflicto de intereses] nunca lo han manifestado a un oficial del IRB; y el 19.4 %, sin embargo, votó siempre por el protocolo».
A Klitzman parece gustarle la gente a la que entrevistó; aprueba lo que tratan de hacer y quiere presentarlos de una manera justa. Pero también es consciente de las inconsistencias y la confusión que revelan sus comentarios y entiende claramente lo que implican. En sus últimos dos capítulos, ofrece algunas sugerencias de reforma y muchas tienen sentido. Pero no plantea un reajuste completo del sistema y creo que eso es lo que se necesita.
Primero, se necesita revisar la propia Norma Común, porque está prácticamente desprovista de contenido ético. Debería ocuparse, pues, de complicadas cuestiones sustantivas, entre las que se incluyen el «equívoco terapéutico» (la creencia de los pacientes, tal como se describió antes, de que los investigadores están allí para proporcionarles cuidado individual); la alta probabilidad de más daños que beneficios, puesto que los tratamientos experimentales normalmente no son mejores, sino peores que los tratamientos en curso; el intercambio entre beneficios individuales y beneficios para la ciencia y la sociedad; si se le debe dar peso al mérito científico del investigador (como se pedía en el Código de Núremberg); y si se debe limitar el traslado de los ensayos clínicos a los países en desarrollo donde son casi con certeza menos supervisados. Ninguna de estas cuestiones tiene respuesta fácil, pero las regulaciones sencillamente no las abordan con seriedad.
Segundo, puesto que los sujetos humanos son escogidos de entre la ciudadanía, los IRB deberían representar la ciudadanía. Actualmente, los IRB son las criaturas de las instituciones de investigación cuyo trabajo es evaluado o bien por las compañías privadas contratadas por patrocinadores de investigación, bien por las instituciones que llevan a cabo la investigación. Así, tienen todos los incentivos para aprobar proyectos de investigación.
En las instituciones académicas, por ejemplo, los prolíficos investigadores universitarios con grandes becas de investigación son una fuente principal de ingreso y los IRB, naturalmente, son reacios a oponerse a estas estrellas académicas. La solución es que los IRB sean entidades públicas regionales, totalmente independientes de las instituciones de investigación y de los patrocinadores privados. Podrían ser fácilmente establecidas por el Departamento de Salud y Servicios Humanos o por otro cuerpo gubernamental, pero lo esencial es que la protección a los sujetos humanos sea vista como una obligación pública, que los IRB representen a la ciudadanía directamente y no a los investigadores a la industria.
Tercero, el proceso de consentimiento informado debería ser modificado para que incluyera pruebas de que la información es relevante y comprendida. Sería cuestión sencillamente de grabar la conversación entre el investigador y el posible sujeto (o su representante legal). Habría dos partes en el vídeo: primero, el investigador proporcionaría la información esencial y, segundo, se le preguntaría al posible sujeto humano que reiterara su comprensión de lo que se acababa de decir.
Se podría obtener también una firma en un documento escrito, pero la cualidad real del consentimiento —esto es, si estaba realmente informado y si había comprendido (que no es lo mismo)— estaría en vídeo. Tal y como están hoy las cosas, el término «consentimiento informado» carece virtualmente de significado. De hecho, la palabra «consentimiento» se ha convertido en un verbo transitivo, como en «consiente el paciente», lo cual significa poner su firma en un documento legal. Habitualmente la labor no es considerada como una prioridad para el investigador y se le deja hacerlo al personal joven. Eso debería cambiar; informar al posible sujeto humano debería ser una conversación bidireccional que incluyera a los propios investigadores.
Cuarto, la investigación que use sujetos humanos debería tener un propósito científico serio, como lo estipula el Código de Núremberg. Actualmente, muchos ensayos clínicos son simplemente un medio para vender medicamentos con receta de poco o nulo valor. Algo de contexto: antes de que un medicamento con receta pueda ser vendido en EE UU, la compañía farmacéutica debe patrocinar ensayos clínicos para mostrar al FDA que el fármaco es razonablemente seguro y efectivo. Pero el nuevo fármaco no tiene por qué ser mejor que otros fármacos que estén ya en el mercado para tratar la misma enfermedad; de hecho, en muchos casos, sólo necesita ser mejor que un placebo. Una vez que el FDA aprueba el fármaco, ninguna otra compañía puede vender el mismo fármaco para el mismo uso mientras la patente esté vigente.
Pero la mayoría de los fármacos, según la propia FDA, probablemente no sean mejores que otros fármacos que ya están en el mercado y la mayoría ni siquiera son nuevos fármacos en absoluto, sino fármacos viejos modificados lo suficiente para conseguir una nueva patente (medicamentos de imitación o «yo también» -me-too drugs-).
Cada vez hay más clases de medicamentos de imitación, como estatina para bajar el colesterol (empezando con Mvacor en 1987 hasta llegar a Zocor, Lipitor, Pravachol y otros), ISRS para tratar la depresión (empezando con Prozac en 1987 hasta llegar a Paxil, Zoloft, Celexa y otros).
Hay pocas pruebas de que una sea mejor que las otras de la misma clase, puesto que pocas veces son examinadas en ensayos comparativos directos con dosis equivalentes. Los medicamentos de imitación los hace a veces la misma compañía cuando ve que el primero esta agotando el período de vigencia de la patente (AstraZeneca reemplazó al éxito de ventas Prisolec con una cantidad virtualmente idéntica de Nexium).
A veces un medicamento antiguo se prueba en un ensayo clínico para tratar una enfermedad un poco diferente, pero relacionada, para que puedan obtener una nueva patente y extender, así, su mercado; por ejemplo, Eli Lilly comercializó Prozac como Sarafem —misma dosis pero más cara— para síntomas premenstruales/4.
La cuestión relevante aquí es que todas estas maniobras comerciales necesitan usar sujetos humanos en los ensayos clínicos necesarios para obtener la aprobación del FDA. Sospecho que la gente que acepta convertirse en sujetos de una investigación porque creen que están contribuyendo a un importante conocimiento científico se desilusionarían si se dieran cuenta de que están contribuyendo, principalmente, a las finanzas de las compañías. Además, la investigación superflua desvía una gran cantidad de recursos —incluyendo sujetos humanos— de la investigación importante de las causas, mecanismos y tratamientos de la enfermedad.
Quinto, la Norma Común permite que la investigación de «riesgo mínimo» sea revisada rápidamente por uno o dos miembros del IRB y eso tiene sentido. Pero debería definir mejor el «riesgo mínimo». Cuando se estudia su enfermedad, los posibles sujetos humanos se arriesgan a que se les niegue el mejor tratamiento. Esto puede ser un gran riesgo y, en general, la investigación con gente enferma no debería ser considerada casi nunca de «riesgo mínimo».
En contraste, un gran número de investigaciones con voluntarios sanos es de riesgo mínimo. Pero la decisión sobre qué sea mínimo no debería ser dejada a los investigadores, que tienen un conflicto de intereses obvio. La investigación en ciencias sociales tiene riesgos muy diferentes, si es que tiene alguno, respecto a la investigación médica. Gran parte de ella está esencialmente exenta de riesgos y exige una aprobación muy rápida. Parte de ella, sin embargo, tiene riesgos sociales o psicológicos, particularmente en los países en desarrollo y debería ser revisada. Podría ser útil crear IRB separados o subcomités permanentes de los IRB para revisar la investigación en ciencias sociales.
A pesar de todos los problemas y abusos, la investigación con sujetos humanos es absolutamente necesaria para avanzar en nuestro entendimiento de las enfermedades y prevenir y tratarlas mejor. La gente que se ofrece voluntaria en tales investigaciones, da un servicio por el que el resto deberíamos estar agradecidos.
Debemos hacer todos los esfuerzos en proteger a los sujetos humanos del daño y también en proteger su autonomía y dignidad. Además, no deberíamos usarlos inadecuadamente en investigación que no tengan un propósito serio. En cierto sentido, los sujetos humanos pueden ser considerados como un recurso público de inmenso valor que no debe ser desperdiciado. Y, lo que es más importante, son humanos —a veces nuestros amigos y vecinos— y establecer un sistema para protegerles de cualquier manera posible es lo correcto.
Fuente: Viento Sur
Notas:
1/ Véase http://www.vientosur.info/spip.php?article11447.
2/ Henry K. Beecher, «Ethics and Clinical Research», The New England Journal of Medicine, vol. 274, nº24 (16 de junio, 1966).
3/ El libro de Sonia Shah, The Body Hunters: Testing New Drugs on the World’s Poorest Patients, (New Press, 2006) describe el estudio de la sífilis de Tuskegee, así como otras investigaciones no éticas, principalmente en los países en desarrollo.
4/ Para descripciones completas para incrementar la cuota de mercado, véase mi libro The Truth About the Drug Companies: How They Deceive Us and What To Do About It (Random House, 2004), especialmente el capítulo 5.