Dilemas éticos en la frontera de la ciencia

Los avances científicos y tecnológicos suscitan a menudo la duda de si, además de los beneficios que se puedan derivar de ellos, pueden también dar lugar a perjuicios o, incluso, causar daños que puedan eventualmente llegar a tener efectos catastróficos. El desarrollo científico actual no se ve libre de esos dilemas, que afectan a campos y líneas de investigación en las que se han creado tecnologías con un potencial impresionante. Para ilustrar estos dilemas hemos optado por presentar brevemente aquí tres de esas áreas en las que los avances en la frontera del conocimiento generan debate, inquietud o, incluso, provocan directamente ya la oposición de ciertos sectores sociales. Nos referiremos a la ingeniería genética, la selección de embriones con características prefijadas, y la nanociencia y nanotecnología.

En materia de ingeniería genética, hay asuntos que son objeto de controversia, algunos de los cuales se exponen brevemente a continuación (Spier, 2012).

La posibilidad de secuenciar de forma barata y rápida el genoma de numerosos individuos abre la puerta a que se pida a la gente, implícita o explícitamente, que proporcione su información genética a empleadores o aseguradoras, por ejemplo. Los gobiernos, a través de los sistemas públicos de salud también tendrían acceso a esa información. La intimidad de las personas afectadas se vería en todos esos casos y otros no contemplados aquí claramente vulnerada.

La sustitución o modificación de genes que puedan condicionar la predisposición a ciertas enfermedades, la propensión a determinados rasgos de carácter, el envejecimiento, las habilidades cognitivas, los rasgos físicos, el estado de ánimo, el vigor sexual u otras características también es motivo de preocupación. ¿Dónde se establecerían los límites? ¿Quién los establecería? ¿No supondría la aplicación de estas técnicas una forma de eugenesia “positiva”? En muchos casos se trata de posibilidades todavía lejanas, por las limitaciones técnicas, pero en el supuesto de que bastantes de esas limitaciones se superasen, subsistiría el dilema de si es lícito realizar dichas prácticas o, hasta dónde llegar con ellas (Neri, 2012).

Ya se producen de forma rutinaria animales de laboratorio con características especiales. También organismos a los que se les han inactivado ciertos genes (los ratones knockout son un excelente ejemplo). La biotecnología ha abierto también la puerta a la creación de quimeras o de nuevos organismos con características predeterminadas.

De un orden completamente diferente, pues no conciernen a la naturaleza humana, son las controversias relativas a la producción de organismos transgénicos con propósitos comerciales. Nos referimos, principalmente, a la producción de semillas transgénicas o de animales de esa misma condición, como salmones de crecimiento rápido, por ejemplo. Aunque la mayoría de la comunidad científica coincide en que no se han encontrado pruebas de la peligrosidad de estos organismos, a ellos se oponen sectores sociales y políticos con gran presencia mediática. Esgrimen argumentos de carácter ecológico y razones de salud, pues sostienen que pueden causar un daño grave e irreversible a ecosistemas y seres humanos.

La edición genómica con similares propósitos haciendo uso de las técnicas CRISPR suscita la misma oposición. Es más, el pasado año el Tribunal de Justicia de la Unión Europea sentenció que los organismos que se obtengan mediante la modificación del genoma haciendo uso de esas técnicas han de ser considerados legalmente organismos transgénicos, por lo que les será de aplicación la directiva 2001/18EC. La citada resolución da la razón a varias organizaciones de empresarios agrícolas y grupos ecologistas franceses. La resolución del Tribunal es de gran trascendencia. Dadas las dificultades que han de superarse en la UE para que sea autorizado el cultivo de un transgénico, los obstáculos que deberán salvar los organismos creados mediante edición genética serán similares.

La sentencia no debería extrañar si miramos la forma en que está redactada la normativa europea en materia de organismos modificados genéticamente (OMG). Sin embargo, la decisión no se sostiene desde el punto de vista científico, tal y como explica el genetista y especialista en el uso de estas técnicas Lluís Montoliu.

Volviendo a los seres humanos, con las técnicas hoy disponibles y las que puedan desarrollarse en el futuro inmediato se han abierto posibilidades antes nunca vistas. Para empezar, se pueden hacer diagnósticos genéticos previos a la implantación de embriones, lo que abre la puerta, de entrada, a una eugenesia positiva comentada antes. En noviembre pasado, el científico chino He Jiankui anunció haber creado bebes cuyo genoma había sido editado para hacerlos resistentes al VIH y otros patógenos. El problema, como muchos científicos se encargaron de alertar, es que no es en absoluto descartable que se produzcan errores, que pueden ser fatales o causar daños inasumibles. La clonación plantea problemas similares. Además, hay una gran incertidumbre con los resultados de los tests genéticos, y ser difícilmente interpretables por los interesados (Häyry, 2012).

Por otro lado, las técnicas de reproducción asistida generan también importantes dilemas como el estatus y derechos de un embrión humano viable congelado en caso de muerte de sus progenitores, el recurso a mujeres a quienes se paga para llevar a término un embarazo, la edad de una madre en el momento de la implantación de un embrión, o el desarrollo de clones humanos, entre otros. (Spier, 2012)

De una naturaleza completamente diferente son los dilemas que plantea la nanociencia y nanotecnología por los posibles riesgos que su uso pudiera provocar. Según Maynard et al (2006) y Johnson (2012), es posible que el temor a los posibles peligros de algunas nontecnologías sea exagerado, pero no carece necesariamente de fundamento. Investigaciones que han analizado la toxicidad de nanomateriales en cultivos celulares y animales han mostrado que el tamaño, el área superficial, la química de la superficie, la solubilidad y quizás la forma influyen en cierta medida en el daño que puede producir los materiales de dimensiones nanométricas. Y por otro lado, hay quien duda de que la ciencia disponga de la tecnología adecuada para evaluar esos posibles daños.

Entiéndase que los tres casos expuestos lo son a modo de ejemplo de muchos otros posibles (inteligencia artificial, “big data”, uso de robots, etc.)

 

Fuentes: Además de las enlazadas en el texto, las fuentes utilizadas han sido los artículos de la Encyclopedia of Applied Ethics referenciados a continuación:

Häyry, M (2012): Genetic Engineering of Human Beings, in Encyclopedia of Applied Ethics, Vol II, pp.: 437-444, 2nd edition, Academic Press, London

Johnson, S (2012): Nanotechnology, in Encyclopedia of Applied Ethics, Vol III, pp.: 183-185, 2nd edition, Academic Press, London

Neri, D (2012): Eugenics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 189-199, 2nd edition, Academic Press, London

Spier, R E (2012): Science and Engineering Ethics, Overview, in Encyclopedia of Applied Ethics, Vol 4, pp.: 14-31, 2nd edition, Academic Press, London

Notas:

  1. Esta es la décimo octava entrega de la serie “Los males de la ciencia”. Las anteriores han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia”, “Sesgos ideológicos que aquejan a la ciencia”, “La crisis de reproducibilidad en ciencia”, “Parte de la investigación científica es quizás irrelevante”, “Conflictos de intereses en la ciencia”, “Mala ciencia de consecuencias catastróficas” y “La ciencia al servicio de la guerra” y “Métodos perversos al servicio de la ciencia”.
  2. La figura presenta un esquema del procedimiento de edición genómica (Wikipedia)

 

 

No todo vale al servicio de la ciencia

Experimentación con seres humanos

El primer ejemplo conocido de experimentación con seres humanos fue el de Edward Jenner, cuando inoculó a una niña de ocho años de edad el pus tomado de viruela de ganado. El experimento de Jenner resultó un éxito y abrió la era de las vacunas pero, curiosamente, hoy resultaría inaceptable. Y antes de la abolición de la esclavitud en los Estados Unidos, no era infrecuente que los médicos comprasen esclavos negros para experimentar con ellos, realizando dolorosísimas y peligrosas intervenciones.

Fue en pleno siglo XX y en el contexto de la II Guerra Mundial, cuando se llegó a experimentar a gran escala con seres humanos. Como es de sobra conocido, médicos nazis realizaron experimentos atroces con prisioneros de campos de concentración (efecto de la hipoxia, efectos del gas nervioso, congelaciones, efectos de las altas presiones e ingestión de agua de mar). En Nürenberg 23 médicos fueron llevados a juicio por esas atrocidades.

Menos conocidos que los experimentos en los campos de concentración alemanes son los que realizaron los investigadores de la Unidad 731 del ejército japonés durante su ocupación de China y Manchuria durante los años 30 y 40. La Unidad 731 era de guerra química y biológica, y los experimentos, que incluían vivisecciones y provocaron la muerte de miles de prisioneros de diferentes nacionalidades, tenían como objetivo desarrollar técnicas para expandir y prevenir los efectos de agentes químicos y biológicos propios de esa modalidad bélica. En ellos colaboraron médicos y científicos, y al contrario de lo que ocurrió con los alemanes que fueron juzgados en Nürenberg, se les ofreció inmunidad a cambio de la información que poseían, información en la que estaban muy interesados científicos norteamericanos.

Entre 1963 y 1966 investigadores de la Willowbrook School de Nueva York hicieron ingerir a niños con retraso mental virus de la hepatitis vivos para estudiar la etiología de la enfermedad y la posibilidad de elaborar una vacuna.

En 1963, médicos del Hospital Judío de Enfermedades Crónicas de Brooklyn inyectaron células cancerosas vivas a pacientes ancianos sin informarles al respecto, para estudiar las respuestas inmunitarias del organismo.

En 1972 se dio a conocer que el Servicio de Salud Pública de los EEUU había desarrollado el “experimento de la sífilis de Tuskegee”, una investigación de larga duración. En ese estudio hombres afroamericanos en estadios avanzados de sífilis habían sido sometidos a experimentación sin haber garantizado que se había obtenido su consentimiento informado.

Lo que expondremos a continuación no tiene la gravedad de las actuaciones reseñadas en los párrafos anteriores, pero se trata de una práctica que se encuentra en el límite de lo admisible. Por otro lado, quizás no es del todo apropiado considerarlas como actividades al servicio de la ciencia, pero entendemos que debe figurar aquí porque, al fin y al cabo, en ella se hallan implicados médicos y científicos. Nos referimos a lo que podría denominarse, eufemísticamente, “deslocalización” de ensayos clínicos.

A lo largo de lo que llevamos de siglo, una parte importante de la investigación clínica se ha trasladado a países pobres. Ello puede haber sido debido a regulaciones cada vez más estrictas en los países desarrollados en lo relativo a la protección de las personas sujeto de los experimentos. También puede deberse a que los procedimientos se han hecho más costosos y burocratizados. Por otro lado, en los países más pobres pueden aplicarse variantes más flexibles de los protocolos de investigación. Los comités éticos son más permisivos. Los riesgos jurídicos, con las consiguientes indemnizaciones son menores de manera que los costes de los seguros también lo son. Es también más fácil contar con voluntarios para participar en ensayos clínicos. Todo ello ha conducido a que se usen estándares éticos diferentes en los países pobres y en los desarrollados.

15 ensayos clínicos en varios países africanos y República Dominicana han sido acusados de no respetar los estándares éticos exigibles. Se refiere a estudios que demostraron que suministrando AZT a mujeres embarazadas VIH-positivas y a los bebés durante 6 semanas tras el nacimiento, reducía la transmisión perinatal de VIH de un 25% a un 8%. La acusación se basó en haber mantenido un grupo control (placebo). La diferencia entre haberlo hecho con o sin placebo radicaba en la magnitud, coste y duración de los ensayos, mucho más largos y caros de no haber utilizado un grupo de placebo.

En general son muy problemáticos los ensayos hechos en países pobres: se utiliza a personas que no reciben una parte de los beneficios que proporcionan los ensayos.

Experimentación con animales

La experimentación con animales es una cuestión controvertida. Hay personas que se oponen radicalmente al uso de animales en investigación invocando argumentos de carácter ético. Sin embargo, los defensores de este tipo de investigaciones invocan la primacía del bienestar y dignidad humanas como razón para justificar su práctica, sobre todo en áreas en que se persiguen mejoras significativas en la salud humana.

La experimentación con animales tiene una larga historia que se remonta, al menos, hasta el Renacimiento. William Harvey, el descubridor de la circulación general, fue uno de los primeros, y lo justificó aduciendo que estudiando diferentes animales se podía aprender cómo funcionaba el ser humano. Y ya en el siglo XIX, son conocidísimos los experimentos con animales de Claude Bernard, experimentos que él justificaba abiertamente. En la actualidad los experimentos con animales persiguen diferentes propósitos; buscan conocer la propia biología de los animales, pero también se utilizan porque no se pueden usar seres humanos en cuestiones que nos afectan o interesan; en cierto modo son nuestros sustitutos. Los utilizamos como modelo en ensayos de fármacos y, en general, de tratamientos médicos.

La mayor parte de los laboratorios en que se trabaja con animales se encuentran en países en los que rigen normas y códigos de conducta que determinan qué prácticas son aceptables y cuáles no. Tales regulaciones persiguen disminuir el número de animales utilizados -en mayor medida cuanto más próximos se encuentren a los seres humanos- y también reducir el dolor y sufrimiento hasta los mínimos estrictamente necesarios.

En España, además de las normas legales que todos los laboratorios están obligados a cumplir, las sociedades científicas (COSCE) han impulsado un Acuerdo de transparencia sobre el uso de animales en experimentación científica. El acuerdo consiste en un documento que busca “establecer vías de comunicación entre la comunidad científica y la sociedad sobre cuándo, cómo y por qué se usan animales en investigación y los beneficios que se derivan de esta práctica”. Más de 80 instituciones (entre las que se encuentran organismos públicos de investigación como el CSIC; varias universidades; centros de investigación como CNIO y CNIC, sociedades científicas como SEBBM, SENC, empresas y hospitales) han suscrito el acuerdo, en virtud del cual se comprometen a “compartir información de forma transparente, y fomentar la comunicación acerca de la investigación con animales para hacer llegar al público toda la información sobre las razones, los métodos y el avance en el conocimiento que la misma genera y que justifica el uso de animales en investigación científica.”

 

Fuentes: Además de las enlazadas en el texto, las fuentes utilizadas han sido los artículos de la Encyclopedia of Applied Ethics referenciados a continuación:

Briggle, A (2012): Scientific Responsability and Misconduct, in Encyclopedia of Applied Ethics, Vol 4, pp.: 41-48, 2nd edition, Academic Press, London

Johnson, S (2012): Nanotechnology, in Encyclopedia of Applied Ethics, Vol III, pp.: 183-185, 2nd edition, Academic Press, London

Resnik, D B (2012): Developing World Bioethics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 771-778, 2nd edition, Academic Press, London

Solbakk J H, Vidal, S M (2012): Research Ethics, Clinical, in Encyclopedia of Applied Ethics, Vol 3, pp.: 775-785, 2nd edition, Academic Press, London

Spier, R E (2012): Science and Engineering Ethics, Overview, in Encyclopedia of Applied Ethics, Vol 4, pp.: 14-31, 2nd edition, Academic Press, London

 

Notas:

  1. Esta es la décimo séptima entrega de la serie “Los males de la ciencia”. Las anteriores han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia”, “Sesgos ideológicos que aquejan a la ciencia”, “La crisis de reproducibilidad en ciencia”, “Parte de la investigación científica es quizás irrelevante”, “Conflictos de intereses en la ciencia”, “Mala ciencia de consecuencias catastróficas” y “La ciencia al servicio de la guerra”.
  2. La imagen presenta a un médico extrayendo sangre en el contexto del experimento de Tuskegee (Fuente: Wikipedia)

La ciencia al servicio de la guerra

En las guerras siempre se ha utilizado el conocimiento del que se disponía en la época. Por tanto, la ciencia y la tecnología, en tanto que formas de conocimiento, no han sido ajenas a los conflictos bélicos. Más bien habría que decir que las guerras han incentivado la generación de conocimiento científico y tecnológico, y lo siguen haciendo en la actualidad.

A Arquímedes (s III aec) se le atribuye haber inventado un dispositivo basado en espejos ustorios para concentrar rayos de luz solar y producir suficiente calor como para dar fuego a las naves que transportaban las tropas romanas que pretendían ocupar la ciudad de Siracusa. Aunque en realidad, no sabemos si esa atribución es correcta.

Si nos limitamos al siglo XX y lo que llevamos del XXI, está claro que laboratorios y despachos de científicos han tenido un protagonismo determinante en los conflictos bélicos.

Fritz Haber fue galardonado con el premio Nobel por su descubrimiento del proceso llamado de Haber-Bosch, para la síntesis catalítica de amoniaco a partir de hidrógeno y nitrógeno atmosférico bajo condiciones de alta presión y temperatura. Ese proceso abrió la era de la producción industrial de fertilizantes y, en general, de la industria química. Pues bien, él fue el químico al frente del programa de producción de gases letales que utilizó Alemania en la I Guerra Mundial. F Haber puso sus conocimientos al servicio del esfuerzo bélico alemán por su forma de entender el patriotismo; llegó a decir que « en tiempo de paz, un científico pertenece al mundo, pero en tiempo de guerra pertenece a su país ».

No solo él, James Franck, Gustav Hertz y Otto Hahn, futuros premios Nobel, también formaron parte de la unidad de Haber. Y en el bando galo, otro galardonado con el Nobel, Victor Grignard, participó en el esfuerzo francés para producir gases venenosos.

El radar, invención basada en la patente obtenida por Robert Watson-Watt (descendiente de James Watt), fue seguramente determinante del curso que siguió la II Guerra mundial. El invento, de 1935, de Watson-Watt se basaba en el uso de ondas de radio para detectar y alertar de movimientos de objetos invisibles con la vista. En este caso se trató de una invención de carácter defensivo (sirvió, entre otras cosas, para poder anticipar los bombardeos alemanes sobre la población civil británica), pero en lo relativo a su influencia sobre el curso de la guerra, a largo plazo no es posible diferenciar la función defensiva de la ofensiva.

El ejemplo más evidente de contribución científica a la guerra es el proyecto Manhattan, nombre clave con el que se conocía el proyecto que desarrolló Estados Unidos para fabricar la bomba atómica durante la II Guerra Mundial. El objetivo del proyecto era producir la bomba antes de que los nazis lo consiguieran. Lo lograron, como es bien sabido. Y como consecuencia de ello, lanzaron sendas bombas sobre las ciudades japonesas de Hirosima y Nagasaki, provocando de esa forma la rendición del Japón. El proyecto, en su parte científica, fue dirigido por el físico Julius Robert Oppenheimer y de una u otra forma, participaren numerosos científicos e ingenieros. También estos científicos tomaron parte en el proyecto por una causa. Todos ellos quisieron colaborar en la derrota de las potencias del Eje.

En las guerras del siglo XXI los científicos e ingenieros siguen teniendo una función determinante en el perfeccionamiento del armamento clásico y en las innovaciones. Drones, robots, inteligencia artificial, sistemas de telecomunicaciones, invisibilidad a los sistemas de detección son áreas en las que los ejércitos más poderosos del mundo invierten enormes cantidades de recursos. Muchos científicos e ingenieros participan en el desarrollo de nuevas ideas con fines militares.

Tanto Haber como Oppenheimer ejemplifican bien el tipo de dilemas éticos al que se han de enfrentar los científicos que toman parte activa en el desarrollo de armas de gran potencial para segar vidas humanas. Ambos actuaron motivados por su compromiso con el destino de los conflictos bélicos en que se vieron involucrados. Haber por patriotismo y Oppenheimer para frenar el avance del fascismo. Sus casos son especiales porque el resultado de su trabajo científico tuvo como consecuencia la pérdida de miles de vidas humanas, pero en rigor, nada los diferencia de la actuación de otros científicos que han desarrollado y desarrollan su actividad al servicio del ejército de sus países.

Notas:

  1. Esta es la décimo sexta entrega de la serie “Los males de la ciencia”. Las anteriores han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia”, “Sesgos ideológicos que aquejan a la ciencia”, “La crisis de reproducibilidad en ciencia”, “Parte de la investigación científica es quizás irrelevante”, “Conflictos de intereses en la ciencia” y “Mala ciencia de consecuencias catastróficas”.
  2. La imagen que ilustra esta anotación muestra a Fritz Haber.

 

Mala ciencia con consecuencias catastróficas

En algunas ocasiones nociones erróneas, por carecer de suficiente respaldo científico o por ser claramente anticientíficas, han conducido a la adopción de medidas que han causado gran sufrimiento humano. Lo más sangrante, además, es que quienes las han aplicado lo han hecho con el objeto de promover un nuevo (y supuestamente mejor) orden social y convencidos de que contaban con suficiente sustento científico a su favor. Nos ocuparemos aquí de dos de esos casos, el de la eugenesia y el del lysenkoismo.

Francis Galton fue un polímata británico (primo de Charles Darwin) que, abogó en 1883 por apoyar a las personas más favorecidas para que tuvieran más hijos, en detrimento de las menos favorecidas. A este proceder lo denominó eugenesia, y se basaba en una interpretación errónea de la teoría de la evolución por selección natural. La eugenesia que proponía Galton era una eugenesia positiva, pues no pretendía actuar de forma directa para evitar que los menos favorecidos tuvieran descendencia (eugenesia negativa). Pero mucho de lo que vino después no lo era.

Las propuestas eugenésicas llegaron a ser aceptadas en varios países y se llegó incluso a practicar mediante esterilizaciones masivas de personas que, supuestamente, tenían rasgos genéticos considerados indeseables. En el conjunto de estados que aprobaron leyes eugenésicas en los Estados Unidos llegaron a esterilizarse a más de sesenta mil personas a lo largo de varias décadas en pleno siglo XX. Todavía en la década de 1960, el endocrinólogo D. J. Ingle, miembro de la Academia de Ciencias, director del Departamento de Fisiología de la Universidad de Chicago y fundador de la revista Perspectives in Biology and Medicine, reivindicó la esterilización masiva de la población afroamericana para “evitar el debilitamiento de la cepa caucásica”.

En Alemania, el gobierno del III Reich, a imitación del modelo estadounidense y al servicio de las doctrinas raciales nacionalsocialistas, llegaron a esterilizar a más de 400.000 personas. En el programa, iniciado a partir del ascenso de Hitler al poder, era conocido y apoyado por buena parte de los médicos y científicos que permanecieron en Alemania. Tres de los científicos que más responsabilidad tuvieron en las esterilizaciones fueron Ernst Rüdin, director del Instituto de Psiquiatría, y Ernst Fischer y Otmar von Verschuer, directores del Instituto de Antropología. Los tres asesoraron a las autoridades alemanas. Rüdin en concreto fue uno de los autores de las leyes de pureza racial y presidió el comité para “la higiene y la política raciales” que fijó los criterios para la castración de criminales y la esterilización forzosa de mujeres consideradas inferiores.

Además de los Estados Unidos y Alemania, Canadá llevó a cabo miles de esterilizaciones forzosas hasta la década de los años setenta y otros países como Australia, Reino Unido, Noruega, Francia, Finlandia, Dinamarca, Estonia, Islandia y Suiza también desarrollaron programas de esterilización de personas que habían sido declaradas deficientes mentales.

Durante los mismos años en que se practicaban esterilizaciones forzosas masivas en Norteamérica y Europa Occidental, en la Unión Soviética se inició un proceso de eliminación de la ciencia de la genética por razones puramente ideológicas. Al frente del proceso se encontraba Trofim Denisovich Lysenko, un ingeniero agrónomo ucraniano cuyo objetivo era obtener variedades de plantas que ofreciesen un mayor rendimiento. Lysenko rechazaba los principios de la genética basada en los descubrimientos de Mendel porque pensaba que eran una construcción burguesa. Defendía, además, la visión lamarckiana de la transmisión a la descendencia de caracteres que, supuestamente, se adquieren como mecanismo de adaptación a las condiciones ambientales. Esa adaptación era según Jean-Baptiste Lamarck, padre de esa teoría, el origen de las diferencias que presentan diferentes individuos de una misma especie y que, eventualmente, pueden conducir a la aparición de especies diferentes.

Lysenko adoptó las ideas de Lamarck, que resultaron ser del agrado de las autoridades comunistas. Postuló que las condiciones ambientales podían alterar la constitución genética del trigo y llego a proponer que el trigo, cultivado en un entorno especial, podía convertirse de esa forma en centeno. El gobierno lo respaldó y le permitió dirigir los destinos de la agricultura soviética durante décadas, a pesar de los sonoros fracasos que cosechó. En 1945 llegó a presidir el Instituto de genética de la Academia Soviética de Ciencias, puesto en el que se mantuvo hasta 1965. Muchos de quienes se opusieron a su doctrina fueron eliminados o deportados a Siberia.

Los dos casos analizados tienen algo en común: al objeto de defender o promover unas ideas, o construir un nuevo orden social, hay científicos que, consciente o inconscientemente, vulneran los principios básicos del funcionamiento de la ciencia. En muchos casos ni siquiera es necesario “actuar” conscientemente de forma incorrecta. Basta con dejar actuar a algunos de los sesgos que se han visto en una anotación anterior sin tomar las medidas necesarias para impedirlo. Cuando de esa forma de proceder se derivan actuaciones que afectan a numerosas personas, las consecuencias pueden llegar a ser catastróficas.

Fuente:

Agin, D (2007): Ciencia basura. Starbooks, Barcelona.

Notas:

  1. Esta es la décimo quinta entrega de la serie “Los males de la ciencia”. Las anteriores han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia”, “Sesgos ideológicos que aquejan a la ciencia”, “La crisis de reproducibilidad en ciencia”, “Parte de la investigación científica es quizás irrelevante” y “Conflictos de intereses en la ciencia”.
  2. La imagen que ilustra esta anotación muestra a Trofim Lysenko.

 

 

Conflictos de intereses en la ciencia

Como cualquier otra actividad humana, la práctica científica no está exenta de dilemas éticos. Los intereses, normalmente económicos, constituyen un incentivo muy poderoso para actuar de forma incorrecta. Por esa razón no es difícil incurrir en conflictos de intereses, que son los que enfrentan la búsqueda libre de la verdad con el deseo de satisfacer los deseos o intereses del agente que financia la investigación. En esos casos, no obstante, se pueden producir situaciones de diferente gravedad desde el punto de vista ético. La situación más justificable es la que se produce cuando de manera inconsciente de toman decisiones erróneas que favorecen el resultado supuestamente deseado por quien patrocina la investigación. Las malas decisiones pueden ser metodológicas, principalmente de índole estadística (aunque raramente si son inconscientes) o pueden obedecer a sesgos cognitivos como razonamiento motivado u otros. En teoría, si el investigador declara la posible existencia de un conflicto de intereses, su responsabilidad quedaría a salvo o, al menos, eso es lo que aceptamos socialmente.

Estas situaciones se pueden producir, por ejemplo, en el sector farmacéutico, ámbito en el que confluyen la actividad científica y los intereses de un sector empresarial poderoso. Ya en el año 2000 la industria farmacéutica destinaba del orden de mil quinientos millones de dólares a la financiación de programas universitarios. Esos fondos sirvieron para impulsar importantes proyectos de investigación, pero la posibilidad de que se lleguen a hacer públicos resultados negativos acerca de la efectividad de algún tratamiento disminuye si quien los ha obtenido depende económicamente de la empresa que financia el estudio o, incluso, gran parte de la investigación que desarrolla (Agin, 2007). En tales casos, ni siquiera viene a cuento plantear la cuestión de los conflictos de interés porque, aunque obviamente existen, no han de declararse dado que no se llegan a publicar los resultados.

Por otra parte, no está en absoluto garantizada la efectividad de buen número de los medicamentos que se aprueban y se lanzan al mercado. A modo de ejemplo, un estudio publicado en octubre de 2017 en el British Medical Journal puso de manifiesto que 33 de 68 nuevos fármacos anticancerosos aprobados por la Agencia Europea del Medicamento entre 2009 y 2013 no habían demostrado mejorar la calidad de vida o extender la supervivencia de los pacientes. Ni siquiera está claro si sus bases farmacológicas son fiables. Y por si lo anterior era poco, los que sí arrojaban resultados mejores que tratamientos ya existentes o que el placebo, a menudo tenían un efecto solo marginal.

Lo cierto es que los ensayos clínicos se pueden prestar a serias interferencias, con potenciales consecuencias graves. Esa es la razón por la que los investigadores están obligados a declarar los conflictos de interés que pudieran darse en el contexto de la investigación que da lugar a los resultados que se publican. Por eso, es muy grave que un investigador omita esa declaración, máxime cuando la materia acerca de la cual se investiga y se publica puede conducir a la aprobación o comercialización de un medicamento. Hace unos meses se dio a conocer el caso del oncólogo Josep Baselga, director médico del Memorial Sloan Kettering Cancer Center de Nueva York, que no dio a conocer en sus artículos publicados en revistas tan importantes como The New England Journal of Medicine o The Lancet, el haber recibido importantes cantidades de dinero procedentes de empresas farmacéuticas.

La revista Prescrire , publicada por una asociación independiente de profesionales sanitarios, informa con regularidad de los problemas relacionados con fármacos aprobados por las autoridades. Cada año actualiza la lista de los que producen más daño que beneficio. Y en general hace un examen crítico de la información disponible acerca de los medicamentos e informa de su efectividad, y posibles problemas. El simple hecho de su existencia y su amplia difusión en el mundo sanitario de diferentes países[1] son muestra de los problemas de los que adolece el sistema farmacéutico.

Hay casos en los que a la existencia de conflictos de intereses que pueden verse alimentados por motivaciones más o menos inconscientes, se suma un deseo de obtener beneficios económicos a cambio del aval “científico” a productos que, o bien carecen de los efectos que se predican o pueden, incluso, ser perjudiciales para la salud.

En el primer caso se encuentra la actitud de científicos que avalan productos comerciales cuyos supuestos efectos beneficiosos no han sido demostrados y que, de hecho, no cuentan con la aprobación de la EFSA, la Agencia Europea de Salud Alimentaria. El bioquímico José M López Nicolás (2016) ha ilustrado esta forma de proceder por parte de científicos del CSIC que han avalado un producto comercial (revidox), por sus supuestos efectos antienvejecimiento, aunque no haya pruebas de que tal producto ejerza los efectos que se le atribuyen.

De mayor gravedad es el aval científico al consumo de alcohol (aunque sea a dosis bajas) por sus supuestos efectos beneficiosos para la recuperación física tras la práctica de alguna actividad deportiva. Cada vez hay más pruebas de que el consumo de alcohol es potencialmente dañino para la salud a cualquier dosis. Sin ir más lejos, el último gran estudio, cuyos resultados fueron publicados en The Lancet, ha llegado a esa conclusión, aunque desde hace unos años ya se dispone de datos que indican que desde dosis realmente bajas, el consumo de alcohol está asociado con la posibilidad de desarrollar varios tipos de cáncer. También sabemos ahora que el consumo incluso de bajas dosis de alcohol durante el embarazo, puede tener efectos negativos duraderos sobre el feto. Y son de sobra conocidos los efectos muy dañinos que provoca la adicción al alcohol, tanto de salud, como de convivencia y de seguridad. Por todo ello, resulta difícilmente comprensible que científicos se presten a avalar los beneficios del consumo de cerveza, por ejemplo.

Por último, cabe atribuir la máxima gravedad a la actitud de científicos que han realizado informes fraudulentos y ocultado de forma voluntaria información relevante en asuntos con graves implicaciones de salud. Nos referimos, en concreto, a los efectos del consumo de tabaco sobre la salud de fumadores (activos y pasivos).

Durante la segunda mitad del siglo pasado se fueron acumulando pruebas de la peligrosidad del tabaco. Tanto por el potente efecto adictivo de la nicotina como por la toxicidad de las numerosas sustancias que contiene, el tabaco causa un daño grave a los fumadores. Sin embargo, las compañías tabacaleras desarrollaron numerosas tácticas para contrarrestar el impacto negativo de los científicos y médicos que alertaban acerca de los males que causa el tabaco (Agin, 2007). Y entre esas tácticas, una de ellas fue la de contratar prestigiosos científicos cuyo papel fue el de obtener datos que sirviesen para sembrar dudas acerca de la vinculación entre el tabaco y el cáncer.

Las compañías de tabaco realizaron también estudios demoscópicos para conocer la opinón de la ciudadanía y poder diseñar mejores campañas de desinformación. Editaron folletos e informes para los médicos, medios de comunicación y, en general, los responsables de tomar medidas políticas y público en general; el mensaje era que no había ningún motivo de alarma. La industria sostenía que no había «ninguna prueba» de que el tabaco fuese malo y en ese quehacer contaron con el apoyo de científicos de alto nivel. Su papel en todo este asunto es hoy bien conocido y ha sido expuesto por Oreskes y Conway (2018).

Fuentes:

Agin, D (2007): Ciencia basura. Starbooks, Barcelona.

López Nicolás, J M (2016): Vamos a contar mentiras. Cálamo, Madrid.

Oreskes, N y Conway, E N (2018): Mercaderes de la duda. Cómo un puñado de científicos oscurecieron la verdad sobre cuestiones que van desde el humo del tabaco al calentamiento global. Capitán Swing, Madrid.​

Notas:

  1. Esta es la décimo cuarta entrega de la serie “Los males de la ciencia”. Las anteriores han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia”, “Sesgos ideológicos que aquejan a la ciencia”, “La crisis de reproducibilidad en ciencia” y “Parte de la investigación científica es quizás irrelevante”.
  2. La imagen muestra la estructura química del resveratrol, principio activo del revidox y otros complementos a los que se atribuyen efectos beneficiosos para la salud, aunque tales efectos no han sido acreditados.

 

[1] Aunque Prescrire es un medio francés, cuenta también con una edición internacional en inglés.

Parte de la investigación científica es quizás irrelevante

La actividad investigadora no ha dejado de crecer en el mundo. Cada vez son más los países que dedican importantes volúmenes de recursos a sostenerla. Y como consecuencia de ello, cada vez hay más resultados que publicar. Por otro lado, no dejan de surgir disciplinas o subdisciplinas, y es normal que la aparición de esas disciplinas venga acompañada por la creación de una o varias revistas científicas en las que se publica los trabajos de aquellas. Además, como se ha señalado antes, los profesionales de la ciencia y quienes aspiran a formar parte de la profesión se encuentran cada vez más presionados para publicar artículos con los resultados de su trabajo. Y por otro lado, las revistas científicas cada vez imponen más restricciones a las dimensiones de cada publicación. Por todo ello, se publican infinidad de artículos científicos cada día, miles, de todo tipo de temas, cada vez más y, en promedio, cada vez más breves.

Una parte importante de esos artículos no son leídos por nadie. Según estimaciones relativamente antiguas, un 55% de los artículos científicos no se citan nunca, y muchos otros son consultados y, a veces, citados, en muy pocas ocasiones (Hamilton, 1990; Pendlebury, 1991). Las cosas, sin embargo, no parecen alcanzar extremos tan alarmantes (Van Noorden, 2017) para las alrededor de 12.000 revistas referenciadas en la Web of Science. Al parecer no llega al 10% el porcentaje de artículos no citados en las revistas de esa base de datos, aunque es probablemente bastante más alto en los miles de revistas no recogidas y que, sin embargo, figuran en el currículo de muchísimos investigadores y en la producción de muchos centros de investigación.

Un 4% de todos los artículos publicados en revistas biomédicas, un 8% de los de química y un 11% de los de física no había sido citado diez años después. Si se excluyen las autocitas, o sea, las ocasiones en que un investigador cita su propio trabajo, el porcentaje de artículos no citados sube de manera considerable (en algunas especialidades hasta un 50%). Esas son las disciplinas en las que los porcentajes de artículos no citados son los más bajos. Los artículos no citados llegan a ser el 24% en ingeniería y tecnología, mucho más alto que en las ciencias naturales. Considerando la literatura científica en su conjunto (39 millones de artículos de todas las disciplinas regogidas en la Web of Science) desde 1990 hasta 2016, un 21% no habían recibido ninguna cita. La mayor parte de esos artículos no citados se habían publicado en revistas poco conocidas. Esa es la razón por la que hay razones para pensar que el porcentaje de artículos no citados es aún mayor en las revistas no recogidas en esa base documental.

En otra categoría se encuentran las revistas de humanidades. El 65% de los artículos de ese campo no habían sido citados en 2006, lo que puede deberse, en parte al menos, a que en la investigación en humanidades hay quizás menor dependencia del saber acumulado que en las ciencias naturales. Aunque también ocurre que en la Web of Science no están bien representadas esas disciplinas, porque ignora muchas revistas y libros.

La diferencia entre las estimaciones de 1990 y 1991, por un lado, y la de 2006 por el otro, se debe, en parte, a que las primeras incluían cartas al editor, respuestas, editoriales y, en general, todas las piezas publicadas por las revistas, mientras que la última solo valoraba las de los artículos de investigación publicados. Pero otra razón es que a lo largo de los años se ha producido un descenso en el porcentaje de artículos no citados y es descenso obedece, también en parte, a que en cada artículo se incluyen cada vez más citas.

Por último, los especialistas en cienciometría advierten acerca del hecho de que hay más artículos que son citados una o dos veces que los que no son citados. Y si se tiene en cuenta lo superficiales que son muchas de las citas, el diagnóstico del fenómeno no es nada halagüeño. Hay muchísima investigación que tiene un impacto mínimo o que lo tiene nulo.

Puede resultar aventurado considerar muchos de esos artículos carentes de todo interés. La trayectoria de un artículo puede ser muy azarosa y acabar teniendo suficiente impacto muchos años después de su publicación aunque en los inmediatamente siguientes su influencia haya sido nula. Pero no es verosímil que eso ocurra con la mayoría de los artículos que no se citan o se citan mínimamente. La cruda conclusión es que mucha investigación realizada (a la vista de los datos anteriores cabría hablar quizás de un 20%, aproximadamente) no interesa a nadie, y quizás un porcentaje similar interesa a algunos, pero interesa poco. En otras palabras, una parte muy importante de la investigación no es relevante a juicio de la propia comunidad científica, por lo que es desconocida y el esfuerzo que se le ha dedicado, es un esfuerzo baldío.

Una derivación extrema y, cabría decirse, patológica, de este estado de cosas, es el fenómeno de las revistas depredadoras de acceso abierto. Como puede atestiguar cualquier investigador en ejercicio, hay empresas que organizan congresos científicos y editoriales que publican revistas supuestamente especializadas que ofrecen la posibilidad de presentar comunicaciones (en los congresos) o publicar artículos (en las revistas) previo pago de importantes cantidades de dinero. Jeffrey Beall, bibliotecario de la Universidad de Colorado en Denver (EEUU), ha confeccionado una lista de ese tipo de revistas, que puede consultarse aquí (actualizada en 2015) y Antonio Martínez Ron ha tratado el fenómeno en Vozpópuli.

Existen esas revistas y se celebran esos congresos porque hay investigadores que los alimentan con sus contribuciones. No solamente carecen de la más mínima credibilidad en la comunidad científica; no tienen, además, ningún interés para nadie. Se publican porque el sistema de publicaciones ha perdido su función original y ha pasado a satisfacer los requerimientos de una comunidad necesitada de acreditar logros para estabilizarse o progresar en la carrera académica. Las revistas de calidad, al menos, ejercen un cierto control aunque sus publicaciones tengan eco escaso o nulo. Las depredadoras no llegan ni a cubrir esos mínimos. Pero no debemos engañarnos, todo ello es consecuencia de un sistema que ha pervertido sus objetivos primordiales.

Notas:

  1. Esta es la decimoterecera entrega de la serie “Los males de la ciencia”. Las anteriores entregas han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia”, “Sesgos ideológicos que aquejan a la ciencia” y “La crisis de reproducibilidad en ciencia”.
  2. La figura muestra la variación del número de artículos científicos publicados en el mundo de acuerdo con diferentes bases de datos bibliográficas. Fuente: Shiffrin et al (2018) PNAS 115 (11): 2632-2639

 

La crisis de reproducibilidad en ciencia

Uno de los elementos más valiosos con que debiera contar la comunidad científica es con la replicación sistemática de los estudios o, al menos, con aquellos que introducen alguna novedad significativa. Sin embargo, la mayoría de los científicos se muestran poco inclinados a tratar de replicar los experimentos o análisis realizados por otros investigadores. Al fin y al cabo, resulta mucho más gratificante hacer nuevos estudios que puedan aportar novedades de interés en un campo que limitarse a comprobar si se obtienen los mismos resultados que obtuvieron antes otros. Además, las revistas científicas no están interesadas en publicar repeticiones, máxime si las conclusiones no refutan las del primer trabajo; en ese caso no hay novedades que contar.

En varios estudios se ha llegado a la conclusión de que muchos resultados publicados no son reproducibles o solo lo son parcialmente. Aunque lleva años generando preocupación, este problema se manifestó con toda su crudeza a raíz de la publicación en 2015 de un estudio en la revista Science, según el cual tan solo para una treintena de 100 experimentos de psicología publicados en las mejores revistas científicas del campo se habían podido reproducir sus resultados. Pero el problema no se limita a la psicología, sino que afecta a un buen número de disciplinas.

De acuerdo con una encuesta realizada en 2016 por la revista Nature a 1500 investigadores de diferentes campos, el 70% habían sido incapaces de reproducir los resultados de otros colegas y el 50% no lo habían sido de reproducir sus propios resultados. Por disciplinas, estos fueron los datos de la encuesta: en química el 90% y el 60% (ajenos y propios, respectivamente), en biología el 80% y el 60%, en medicina el 70% y el 60%, en física e ingeniería el 70% y el 50%,en medicina, y en ciencias de la Tierra y el ambiente el 60% y el 40% (Baker, 2016).

Parece evidente que la imposibilidad o dificultad para reproducir resultados constituye una severa limitación al ejercicio del escepticismo, sin el cual no es posible someter a contraste los resultados y conclusiones publicadas.

Aunque a veces la imposibilidad de reproducir los resultados se refiere a casos de fraude, lo normal es que no haya trampa ni malas prácticas realizadas de forma voluntaria. Las razones por las que los resultados experimentales no se reproducen al repetirse los experimentos son diversas. Muchas veces no se especifican de forma correcta las condiciones experimentales. En otras los investigadores se ven afectados por sesgos como los expuestos en una anotación anterior y que tienen que ver con el grado de aproximación de los resultados obtenidos a las expectativas iniciales. Cuando en un conjunto de datos alguno destaca como “anómalo” es relativamente común descartarlo basándose en el supuesto de que la anomalía bien puede deberse a un error experimental sin trascendencia. En todo esto influyen de forma decisiva dos factores. Uno es que el personal de universidades y centros de investigación, como ya hemos visto, está sometido a una fuerte presión por publicar. Y el otro es que las revistas científicas rara vez aceptan publicar resultados negativos. Por esa razón, no es de extrañar que funcionen sesgos que, inconscientemente, facilitan la obtención de resultados positivos y, por lo tanto, publicables.

El tratamiento estadístico es también una fuente de resultados de difícil reproducción. Es relativamente común la práctica de ensayar diferentes procedimientos y seleccionar, entre un catálogo más o menos amplio de posibilidades, aquél cuyos resultados mejor se acomodan a las expectativas. Este es un problema serio en los campos en que se realizan ensayos que han de conducir al desarrollo posterior de tratamientos médicos. Pero, el daño que causa es general, ya que esa forma de proceder tiende a neutralizar la emergencia de nuevas ideas que debería caracterizar, de forma intrínseca, a la práctica científica. Si se opta por mostrar los resultados que mejor se acomodan a las expectativas, se deja de lado el examen crítico de posibilidades que podrían haber conducido a nuevas ideas.

La revista Proceedings of the National Academy of Sciences, más conocida por sus siglas PNAS y una de las más prestigiosas del mundo, publicó una serie de artículos analizando la llamada “crisis de reproducibilidad” y, en general, la validez de un discurso muy en boga mediante el que se difunde la idea de que la ciencia se encuentra hoy en crisis. De ese conjunto de estudios parece concluirse que esa idea no tiene suficiente base y que se trata, más bien, de una leyenda urbana. Sin embargo, en nuestra opinión, lo que esos estudios documentan es que el fraude no ha crecido durante las últimas décadas, de la misma forma que no ha crecido el número de artículos retractados (retirados de la publicación por los editores) en términos relativos. Pero no es tan clara la conclusión de que no hay problemas de reproducibilidad, porque el procedimiento seguido para llegar a esa conclusión es demasiado indirecto, mientras que los estudios que documentan las dificultades para reproducir resultados anteriores son bastante más directos.

En nuestra opinión, la falta de reproducibilidad procede de una progresiva relajación de los estándares que se consideran aceptables en cuanto calidad de la evidencia científica; nos referimos a asuntos tales como tamaños de muestra, claridad de la significación estadística más allá del valor de p, calidad de los blancos, etc. Los científicos como colectivo somos a la vez autores de los experimentos, autores de los artículos y revisores de estos. Que poco a poco se vayan aceptando niveles cada vez más bajos nos conviene si nuestro objetivo es el de publicar más rápidamente y engrosar un currículo investigador en un tiempo breve. Pero eso conduce, lógicamente, a un declive del rigor y exigencia generales. Ahora bien, al tratarse de un declive gradual, no se aprecia con nitidez la pérdida de calidad. Sin embargo, cuando el deterioro se acentúa se acaban dando por buenos (publicándolos) resultados que realmente no responden a hechos reales y por tanto no se pueden reproducir.

Notas:

  1. Esta es la duodécima entrega de la serie “Los males de la ciencia”. Las anteriores entregas han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica”, “Sesgos cognitivos que aquejan a la ciencia” y “Sesgos ideológicos que aquejan a la ciencia”.
  2. La figura muestra la frecuencia de aparición de expresiones relativas a, reales o supuestas, crisis científicas. Fuente: D Fanelli (2018) PNAS 115 (11): 2628-2631

 

Sesgos ideológicos que aquejan a la ciencia

Los cognitivos no son los únicos sesgos que afectan al desarrollo de la ciencia. También hay sesgos ideológicos. Quienes se dedican a la investigación científica no son ajenos a la influencia de la cosmovisión, la ideología, las creencias, etc., y esos factores inciden en el desarrollo de la ciencia o en aspectos colaterales a la misma aunque de importantes repercusiones sociales. Los científicos llevados por sus creencias se ven afectados por sesgos (inconscientes, no serían casos de mala ciencia voluntaria) que les llevan realizar una actividad científica poco rigurosa (eligiendo datos -cherry picking- , interpretándolos, etc.) en la dirección de sostener con sus conclusiones científicas lo que ya creían antes de comenzar. El “razonamiento motivado” a que se ha hecho mención en la anotación anterior estaría en la base cognitiva de este comportamiento y la motivación sería un fuerte convencimiento ideológico.

En lo que a este aspecto se refiere y antes de poner algunos ejemplos ilustrativos, conviene advertir de que la incidencia de los sesgos es mayor cuanto más complejos son los sistemas que se estudian, más son las variables en juego y más difícil resulta aislar los efectos de los factores cuyo efecto se desea establecer empíricamente. La ciencia funciona a partir de la identificación de regularidades en los sistemas que estudia, pero esa identificación arroja mayores garantías cuando el sistema permite fijar o excluir factores que pueden incidir en ellas de forma incontrolada y limitar el análisis al efecto de aquellos que pueden ser modificados a voluntad o, al menos, medidos con precisión. La física es, en ese sentido, la disciplina cuyas observaciones ofrecen mayores garantías pues los sistemas que estudia son fácilmente acotables. Y a las ciencias sociales les ocurre lo contrario: es muy difícil eliminar factores de confusión y fijar con garantías los factores que se desea analizar. Y cuando es especialmente difícil descartar factores de confusión y fijar o controlar efectos de unas pocas variables, queda un amplio margen para la influencia de las motivaciones de carácter ideológico, tanto en el diseño de las investigaciones como en el posterior análisis de los resultados.

Quizás los antecedentes más antiguos del efecto de los segos ideológicos se remontan a los mismos orígenes de la ciencia moderna. En la controversia acerca del heliocentrismo o la naturaleza geométrica de las órbitas de los planetas (del movimiento de los cuerpos celestes, al fin y al cabo) ejercieron un efecto claro las creencias de sus protagonistas.

Algunos de los sesgos tuvieron carácter general en ciertas épocas. Las ideas de superioridad de la (supuesta) “raza blanca” o de las personas de origen caucásico con respecto a otras (supuestas) “razas” o procedencias condicionaron la investigación que se hizo en las épocas en que eran predominantes. Los prejuicios en relación con la capacidad de las mujeres para desempeñar roles considerados masculinos han ejercido una influencia muy fuerte en fechas relativamente recientes e, incluso, hoy lo siguen ejerciendo. Marlenne Zuk (2013) ha revisado críticamente algunas ideas muy extendidas acerca del (supuesto) “origen evolutivo” de las diferencias entre hombres y mujeres y ha refutado las bases de algunas de ellas.

Las creencias religiosas han alimentado actitudes claramente anticientíficas. En la actualidad el ejemplo más claro, quizás, de esta actitud es el del bioquímico Michael J. Behe, profesor de la Universidad de Lehigh, en Pensilvania (EEUU). Behe se opone a la teoría de la evolución por selección natural y defiende el llamado “diseño inteligente” que es, en realidad, una forma sofisticada de creacionismo. Según Behe, ciertas estructuras bioquímicas son demasiado complejas como para poder ser explicadas en virtud de los mecanismos de la evolución. Desarrolló el concepto de “complejidad irreducible” como un “sistema individual compuesto de varias partes bien coordinadas que interaccionan para desempeñar la función básica de este, de modo que si se eliminara cualquiera de esas partes dejaría de funcionar por completo”.

La ideología política puede tener también una influencia notable. No solo entre el púbico general, también en la comunidad científica la negación del cambio climático, en sus diferentes modalidades, está vinculada al campo conservador. La base ideológica está aquí relacionada con lo que podría considerarse una visión “optimista” del mundo, según la cual la naturaleza no tiene límites, ni desde el punto de vista de la disponibilidad o existencia de los recursos naturales, ni de la capacidad para asimilar la influencia de las actividades humanas. Esa visión optimista, junto con el hecho de que los efectos que se le atribuyen al cambio climático nos remiten a un futuro que se percibe como indefinido, neutraliza el peso de los argumentos y datos en que se basa el consenso científico al respecto.

Las actitudes anticientíficas más características de la izquierda suelen estar relacionadas con cuestiones de carácter ambiental y de salud. Sostienen que ciertas tecnologías ejercen efectos negativos sobre la salud de las personas y del medio ambiente. Se incluye en esa categoría, por ejemplo, la oposición a los organismos modificados genéticamente. Quienes defienden esas posturas suelen invocar el hecho de que son fuente de enriquecimiento para las empresas que las fabrican y comercializan, y que sus intereses se anteponen a otras consideraciones, incluidas las relativas a la salud de las personas o del medio ambiente.

Es probablemente una motivación de esa naturaleza la que anima a investigadores como Gilles-Eric Seralini. Seralini es conocido por sus opiniones contrarias a los transgénicos. En 2012 publicó un artículo en Food and Chemical Toxicology cuya conclusión era que el consumo de maíz transgénico provocaba el crecimiento de tumores en ratas de laboratorio que acababa provocándoles la muerte. El artículo, tras ser duramente criticado por numerosos científicos, fue finalmente retractado al año siguiente al entender el editor que no cumplía los estándares propios de una publicación científica debido a sus graves deficiencias metodológicas. La impresión que causa un caso como ese es que el investigador ha sacrificado el rigor exigible a un trabajo científico al objeto de obtener los resultados que mejor se acomodan a sus expectativas. J M Mulet (2013) ha expuesto aquí con claridad los pormenores de este caso.

Fuente:

Zuk, M (2013): Paleofantasy: What Evolution Really Tells Us about Sex, Diet, and How We Live. Norton & Co, New York.

Nota:

Esta es la undécima entrega de la serie “Los males de la ciencia”. Las anteriores entregas han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia”, “Ciencia patológica” y “Sesgos cognitivos que aquejan a la ciencia”.

 

Sesgos cognitivos que aquejan a la ciencia

Algunas de las modalidades de fraude, así como los casos de ciencia patológica vistos en anotaciones anteriores no se producirían de no ser por la existencia de malas prácticas y sesgos que los facilitan o, incluso, los propician.

En lo relativo a los sesgos, estos pueden ser de dos tipos. Están, por un lado, los que afectan a las personas concretas que practican la investigación científica. Y por el otro, los que afectan al funcionamiento del sistema en su conjunto y a los que podríamos denominar sistémicos. Eso que se suele denominar “método científico” no deja de ser, en el fondo, un conjunto de estrategias que se han ido poniendo en práctica para evitar los sesgos que afectan a los científicos; se trata, por lo tanto, de que el conocimiento no dependa de la persona que lo produce y que, por esa razón, tenga la máxima validez posible. Los sesgos sistémicos precisan de otro tipo de medidas para su corrección pues no afectan a los individuoa, sino al conjunto del sistema.

El sesgo de confirmación lleva a favorecer, interpretar y recordar la información que confirma las creencias o hipótesis propias. Es un sesgo que nos afecta a todos, también opera en la actividad científica. Una variante de este sesgo es la que afecta a las publicaciones científicas, aunque en este caso se suele denominar sesgo de publicación. Es la tendencia a publicar solamente resultados positivos, confirmatorios. Incluye también la tendencia a publicar resultados novedosos, que anticipan interesantes desarrollos científicos. Por esa razón, puede consistir en la confirmación de los resultados que avalan la hipótesis de partida, los de investigaciones anteriores que han abierto una nueva vía o, incluso, resultados acerca de los cuales de piensa que abren nuevas posibilidades. Lo que no se suelen publicar son resultados que simplemente no confirman las hipótesis de partida.

Los evaluadores de las revistas (los pares) tienen la tendencia a rechazar la publicación de resultados negativos con el argumento de que no suponen una aportación relevante al campo de conocimiento. Además, como ha mostrado Fanelli (2010), ese fenómeno se acentúa en las disciplinas consideradas “ciencias blandas”. O sea, es de menor importancia en física o química, intermedia en ciencias biomédicas y máxima en ciencias cognitivas o sociales. Mientras que el sesgo de confirmación es personal, el de publicación, sin embargo, es sistémico.

El sesgo retrospectivo consiste en proponer post hoc una hipótesis como si se hubiese formulado a priori. En otras palabras, se adapta la hipótesis de un trabajo a los resultados obtenidos. Este sesgo actúa porque la hipótesis original que era el punto de partida de la investigación no se suele publicar con anterioridad. Kerr (1998) denomina a esta práctica HARking (de HARK: Hypothesizing After the Results are Known). El problema del HARKing radica en que eleva la probabilidad de rechazar erróneamente una hipótesis nula, o sea, de que se produzcan errores de tipo I (falsos positivos). También conduce, de manera indirecta, a un despilfarro de recursos, tanto de tiempo como de dinero, ya que se necesitan más estudios de los que deberían ser necesarios para mostrar que no se producen los efectos que se producen.

El psicólogo Brian Nosek, de la Universidad de Virginia, sostiene que el sesgo más común y de mayores consecuencias en ciencia es el razonamiento motivado, que consiste en interpretar los resultados de acuerdo con una idea preconcebida. La mayor parte de nuestro razonamiento es, en realidad, racionalización. En otras palabras, una vez tomada una decisión acerca de qué hacer o de qué pensar sobre algo, nuestro razonamiento es una justificación post hoc por pensar o hacer lo que queremos o lo que creemos (Ball, 2017).

Karl Popper sostenía que los científicos buscan refutar las conclusiones a que han llegado otros científicos o ellos mismos. Esa es la forma en que, a su entender, avanza la ciencia. La práctica real es, sin embargo, diferente. Lo normal es que los científicos busquemos la manera de verificar nuestros hallazgos o los de los científicos con los que nos alineamos. Por eso, cuando los datos contradicen las expectativas, no es extraño que se rechacen por irrelevantes o erróneos.

Estos sesgos ejercen un efecto muy importante debido a que para los investigadores es crucial publicar artículos con sus resultados en revistas importantes. Es clave pata obtener la estabilidad en el puesto de trabajo, para promocionarse, para obtener financiación para sus proyectos, en definitiva, para ser reconocidos en su comunidad. Y para poder publicarlos, han de acomodarse a lo que se ha señalado antes: descartar resultados negativos, seleccionar los positivos y, si es posible, dar cuenta de hallazgos que sean considerados relevantes para el avance del conocimiento. La presión por publicar es tan fuerte que provoca una relajación de los controles subjetivos frente a los sesgos personales e introduce sesgos sistémicos, dirigiendo el tipo de investigaciones que se hacen y los resultados que se reportan, dado que las revistas acepatan más fácilmente resultados positivos.

Curiosamente, sin embargo, tampoco resulta fácil conseguir que se acepten para su publicación resultados verdaderamente revolucionarios. En cierto modo eso es lógico, ya que el escepticismo obliga a tomar con cautela todas las alegaciones relativas a hallazgos novedosos y a exigir que superen el cedazo de la prueba o, al menos, que las evidencias a su favor sean muy sólidas. Pero eso no quiere decir que esas alegaciones se desestimen o se les opongan obstáculos difícilmente salvables sin darles la debida oportunidad. Eso es lo que ocurrió con las investigaciones de, entre otros, Barbara McClintock (Nobel en 1984), Stanley Prusiner (Nobel en 1997), Robin Warren y Barry Marshall (Nobel en 2005), o Dan Shechtman (Nobel en 2011) cuyos descubrimientos necesitaron más tiempo y esfuerzo del que debería haber sido necesario para su aceptación. Y no sabemos en cuántas ocasiones resultados de similar trascendencia y carácter revolucionario han sido silenciados. Por lo tanto, no se trata solo de que ideas erróneas pervivan durante demasiado tiempo, sino que además, estos sesgos suponen un obstáculo serio para que nuevos descubrimientos e ideas se abran paso y se afiancen en el bagaje universal del conocimiento.

Los científicos solemos decir que la ciencia se corrige a sí misma. Y es cierto, pero a veces pasa demasiado tiempo hasta que se produce la corrección. Y a veces la corrección se hace con alto coste para quienes se atreven a desafiar el status quo. Las dificultades para la corrección se deben, en parte, a lo que hemos expuesto aquí. Pero también a que no se suelen intentar replicar las investigaciones y cuando se replican, es relativamente probable que no se reproduzcan los resultados originales. Pero de eso nos ocuparemos en una próxima anotación.

Para acabar, merece la pena reseñar, eso sí, que ya se han hecho propuestas concretas para mejorar la fiabilidad de los resultados que se publican (Ioannidis, 2014). Propone, entre otras, la participación en proyectos colaborativos de gran alcance, generalizar una cultura de la replicación, registrar los proyectos con sus hipótesis de partida antes de empezarlos y mejorar los métodos estadísticos. Algunas de esas propuestas se están llevando a la práctica.

Notas:

(1) La dama de la imagen es Barbara McClintock

(2) Esta es la novena entrega de la serie “Los males de la ciencia”. Las anteriores entregas han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los dueños del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia”, “El fraude y las malas prácticas en ciencia” y “Ciencia patológica”.

Ciencia patológica

Además del fraude, hay otros comportamientos por parte de quienes realizan investigación de vanguardia que pueden conducir a obtener –y en ocasiones anunciar o publicar- conclusiones erróneas o insostenibles. El que da lugar a la denominada “ciencia patológica” es uno de ellos.

La expresión “ciencia patológica” fue acuñada por Irvin Langmuir, químico y físico estadounidense que fue premio Nobel de química en 1932. Se movió entre la ciencia experimental y la teórica, y fue presidente de la Asociación Química Americana.

En la conferencia “Coloquio en el Laboratorio de Investigación Knolls de la General Electric”, impartida el 18 de Diciembre de 1953, Langmuir describió la “ciencia de las cosas que no son”, más tarde conocida como “ciencia patológica”. Esa denominación no hace referencia a una forma particular de pseudociencia, pues esta no tiene pretensión alguna de seguir el denominado “método científico”, sino a un tipo de investigación científica afectada por sesgos inconscientes y efectos subjetivos.

En su conferencia, Langmuir previno contra los peligros del autoengaño y dio cuenta de varios casos famosos, entre ellos: Los Rayos N, (Blondlot, 1903), una prueba experimental contraria a la Teoría de la Relatividad (Kaufmann, 1906), las radiaciones mitogenéticas o rayos Gurwitsch (1923), una verificación prematura del ”corrimiento al rojo” gravitacional (Adams, 1924), y los experimentos dudosos sobre rayos canales de Rupp (1926)[1]. J M Barandiarán (2017) incluye también en esa relación el caso de Percival Lowell y los “canales” marcianos, a los que dedicó la mayor parte de su actividad en el observatorio (privado) de Flagstaff (Arizona).

La ciencia patológica es un fenómeno que presenta los siguientes rasgos relativos a un supuesto descubrimiento científico:

  • El efecto observable máximo es producido por un agente causante de intensidad apenas perceptible, y la magnitud del efecto es sustancialmente independiente de la intensidad de la causa.
  • La magnitud del efecto es cercana al límite de la detectabilidad, o muchas medidas son necesarias debido a la baja relevancia estadística de los resultados. Suele ocurrir que el investigador encuentre excusas en estos casos para descartar datos convenientemente.
  • Hay afirmaciones de gran exactitud.
  • Se proponen teorías fantásticas contrarias a la experiencia.
  • Las críticas se resuelven con excusas ad hoc.
  • La proporción de partidarios frente a los críticos aumenta y después cae gradualmente al olvido. Los críticos no pueden reproducir los experimentos, sólo pueden los que son partidarios. Al final no se salva nada. De hecho, nunca hubo nada.

Como regla general la ciencia patológica trabaja en los límites difusos, no hay pretensión de fraude, simplemente es mala ciencia, que se practica por no saber reconocer las limitaciones epistemológicas del investigador, sus instrumentos y sus diseños experimentales. Hay mucha más de lo que sería deseable, sobre todo en algunos campos nuevos y de moda. El caso más sonado de ciencia patológica es, quizás, el de la supuesta “fusión fría”.

Si pensamos que para los investigadores constituye un fuerte incentivo la posibilidad de realizar descubrimientos cruciales, nos encontraríamos, paradójicamente, ante un caso en el que el reconocimiento por los hallazgos –que compensa, supuestamente, el carácter desinteresado de la actividad científica-, actuaría como factor principal de esta variedad de mal. Se trata de un efecto similar al de la segunda modalidad de fraude científico. También en este caso, es el escepticismo, la virtud mertoniana que queda en entredicho, no tanto porque se impida su ejercicio, sino porque no se actúa conforme a lo que tal virtud exige.

El contenido de esta anotación se ha basado, sobre todo, en esta otra de César Tomé (2013) en el Cuaderno de Cultura Científica, y en la de J M Barandiarán (2017) en la web de BC Materials.

 

Notas:

(1) El caballero de la imagen es Irving Langmuir

(2) Esta es la novena entrega de la serie “Los males de la ciencia”. Las anteriores entregas han sido “El marco en que se desarrolla la ciencia”, “Las publicaciones científicas”, “El ethos de la ciencia”, “Los valores en la filosofía de la ciencia”, “Los propietarios del conocimiento”, “El papel de los gobiernos en el desarrollo científico”, “No todos tienen las mismas oportunidades de hacer ciencia” y “El fraude y las malas prácticas en ciencia”.

[1] Rupp tuvo que admitir finalmente que sus extraordinarios resultados se debían, en parte, a una falsificación de datos.

Jakiunde / Zientzia, Arte eta Letren Akademia
Miramar Jauregia Miraconcha 48
Donostia-San Sebastián
Gipuzkoa - Spain
T. (+34) 943 225 773
akademia@jakiunde.eus

© Jakiunde. Todos los derechos reservados
Aviso Legal · Cookies