CONTRARRELATO
Por Emilia Niemiec
1Centre for Research Ethics and Bioethics, Uppsala University, Uppsala, Sweden
*Corresponding author. E-mail: emilia.niemiec@med.lu.se
EMBO Rep (2020)21:e51420 https://doi.org/10.15252/embr.202051420
En febrero de este año, cuando el nuevo coronavirus comenzó a propagarse fuera de China, el Director General de la Organización Mundial de la Salud (OMS), Tedros Adhanom Ghebreyesus, anunció: “no sólo estamos luchando contra una epidemia; estamos luchando contra una infodemia“. El término, acuñado en 2003 en el contexto de la primera epidemia de SARS, se refiere a una rápida proliferación de información que a menudo es falsa o incierta. Los investigadores académicos, las organizaciones internacionales como las Naciones Unidas y la Unión Europea, los gobiernos individuales y los medios de comunicación han reconocido y debatido la prevalencia de la supuesta infodemia de COVID-19 y la importancia de combatirla. Se han lanzado campañas de información para proporcionar a un público más amplio información fiable sobre el COVID-19. Las principales plataformas de medios sociales también han luchado activamente contra la información falsa filtrando o marcando los contenidos considerados como desinformación. En este ensayo, analizaré la censura en las plataformas de medios sociales relacionada con el COVID-19 y los problemas que plantea, junto con un enfoque alternativo para contrarrestar la difusión de la desinformación médica y científica.
Censura en las plataformas de medios sociales
La censura en las principales plataformas de medios sociales, como Facebook, Twitter y YouTube, no es un fenómeno nuevo. Estas empresas eliminan regularmente los contenidos que consideran objetables basándose en las categorías que se actualizan continuamente en sus políticas. Entre los ejemplos de “contenido objetable” se encuentran la “incitación al odio”, la “glorificación de la violencia” o el “contenido dañino y peligroso”. Estas categorías no sólo son a menudo más amplias que las excepciones a la libertad de expresión arraigadas en las legislaciones de los países democráticos, sino que también son implícitamente vagas y dejan mucho espacio a la interpretación. De hecho, un análisis de los contenidos prohibidos en las redes sociales sugiere que la moderación suele tener un sesgo político (Stjernfelt & Lauritzen, 2020). Algunos ejemplos muy recientes de moderación con aparentes ramificaciones políticas incluyen el etiquetado por parte de Twitter de los tuits del presidente estadounidense Donald J. Trump como una violación de la política de Twitter sobre el enaltecimiento de la violencia o el comportamiento abusivo, o la adición de una advertencia que sugiere que una publicación era inexacta en cuanto a los hechos.
Las plataformas de medios sociales son empresas privadas y, como tales, se podría argumentar que deberían poder decidir qué contenidos toleran o no. Sin embargo, este punto de vista pasa por alto aspectos destacados de la cuestión. En primer lugar, la censura en Facebook, Twitter o YouTube parece contradecir la idea misma de estas redes de comunicación, es decir, de espacios donde todo el mundo puede expresar su opinión. YouTube, por ejemplo, declara en su página web que su “misión es dar voz a todo el mundo. El director de Twitter describió una vez su empresa como “el ala de la libertad de expresión del partido de la libertad de expresión“. Mark Zuckerberg, el director general de Facebook, también ha manifestado su compromiso con la libertad de expresión. Es posible que muchos usuarios de las redes sociales creyeran en estos ideales cuando se unieron a las comunidades online. O, al menos, no esperaban una censura sesgada en las plataformas. Desde este punto de vista, las apelaciones a la libertad de expresión realizadas por las redes sociales parecen injustas o engañosas.
Otro punto importante a tener en cuenta es el hecho de que unas pocas grandes empresas tecnológicas dominan actualmente los servicios de las redes sociales, que también sirven como fuente de noticias para muchos usuarios. Según una encuesta realizada en 2020 por el Instituto Reuters para el Estudio del Periodismo, el 36% de los 24.000 encuestados de 12 países utiliza Facebook para informarse semanalmente, mientras que el 21% de los encuestados utiliza YouTube con el mismo fin. Si a esto le añadimos el hecho de que Google es el motor de búsqueda más popular, queda claro que unas pocas empresas tecnológicas tienen un enorme poder sobre la información que los usuarios de Internet pueden ver y cómo se forman sus opiniones.
Refiriéndose, entre otras cosas, al papel de “plaza pública moderna” que se atribuye a las plataformas en línea, el presidente Trump emitió recientemente una orden ejecutiva que pretende limitar las actuales protecciones legales de las grandes empresas tecnológicas e impedir la censura en sus plataformas. Está por ver cuál será el efecto de la orden y si es una solución adecuada al problema. Lo que está claro, sin embargo, es que el papel de los gigantes tecnológicos en la configuración del discurso público se ha hecho evidente. Los gobiernos de varios países han intentado encontrar una solución a esta cuestión o utilizar la posibilidad de censura por parte de las grandes empresas tecnológicas para sus propios fines (Stjernfelt & Lauritzen, 2020).
Aunque es difícil pasar por alto la censura por motivos políticos en las plataformas en línea y sus implicaciones, la eliminación de la desinformación relacionada con temas médicos como el COVID-19 puede parecer que pertenece a una categoría diferente, no política, sino más bien científica, en la que la información puede juzgarse objetivamente sobre la base de pruebas científicas. Sin embargo, si se mira con detenimiento, no parece que sea así.
Censura de la información sobre COVID-19
En respuesta a los llamamientos para combatir la desinformación sobre el COVID-19, un grupo de empresas, entre las que se encuentran Facebook, Twitter y YouTube, emitió una declaración conjunta a mediados de marzo de este año. Afirmaron que están “combatiendo conjuntamente el fraude y la desinformación sobre el virus, elevando el contenido autorizado en [sus] plataformas“. Sus acciones incluyen la introducción de “ventanas emergentes educativas que conectan a la gente con la información de la OMS” (Facebook), la adición de etiquetas de advertencia a los contenidos que se consideran falsos o engañosos (Facebook, Twitter), la eliminación de contenidos que contradicen a las autoridades sanitarias o a la OMS (YouTube) y de contenidos que podrían contribuir directamente o provocar daños (físicos) (Facebook y Twitter).
Un ejemplo es un vídeo retirado por YouTube, en el que un investigador, John Ioannidis, discutía datos relacionados con el COVID-19, cuestionaba la necesidad de continuar con el bloqueo en curso y planteaba su preocupación por el impacto negativo de las restricciones. Se han denunciado otros casos de censura en las principales plataformas de medios sociales, como la eliminación de información sobre las protestas contra la cuarentena en Facebook.
Una cuestión importante en relación con las políticas de las plataformas de comunicación es quién define exactamente y cómo qué información se considera falsa o perjudicial. ¿Y podemos confiar en estos juicios? Una de las fuentes autorizadas que las tres principales plataformas de medios sociales mencionan en sus políticas sobre COVID-19 es la OMS. Se trata de una organización consolidada e influyente, pero que puede cometer errores, incluso en el contexto de la gestión de epidemias. Por ejemplo, se ha planteado la preocupación por las influencias de las empresas farmacéuticas en las directrices relacionadas con la pandemia de gripe de 2009 (Cohen y Carter, 2010).
YouTube y Twitter también hacen referencia a las directrices de las autoridades sanitarias locales. Aunque éstas suelen ser elaboradas por expertos y pueden ser legalmente vinculantes, esto no implica que sean infalibles. Ha habido desacuerdos entre los investigadores de las ciencias médicas sobre la necesidad de las medidas de cierre (Melnick & Ioannidis, 2020). Además, los investigadores y muchos profesionales de la salud han señalado numerosas y graves repercusiones negativas de las políticas introducidas para combatir la propagación del COVID-19, y han expresado dudas sobre las pruebas que respaldan estas medidas (Ioannidis, 2020).
Esta variedad de opiniones sobre cómo manejar la pandemia de COVID-19 está relacionada, entre otras cosas, con el hecho de que se trata de una enfermedad nueva y los conocimientos sobre ella son relativamente limitados e inestables. Además, las implicaciones de la pandemia y las medidas adoptadas para contrarrestarla exceden las competencias de los expertos en epidemiología o salud pública y se sitúan en áreas de economía, educación, psicología y sociología. Mientras tanto, los expertos que elaboran políticas o expresan
opiniones sobre la COVID-19 pueden no tener una visión completa de las implicaciones de las políticas relacionadas con la pandemia.
Además, existen los problemas “habituales” relacionados con la evaluación y la traslación de las pruebas a la práctica médica o de salud pública. Entre ellos se encuentran las dudas sobre la validez de un determinado estudio, las limitaciones de los métodos, la reproducibilidad de los resultados, etc. Los procesos de revisión de los resultados de la investigación, la extracción de conclusiones y la elaboración de directrices pueden ser complejos, propensos a errores y no inmunes a los intereses políticos o comerciales. Los artículos retractados sobre COVID-19, incluidos los publicados en The Lancet y el New England Journal of Medicine, sugieren que la investigación sobre COVID-19 no es una excepción a los problemas relacionados con la ética de la investigación.
Así pues, la crítica constructiva, el cuestionamiento de las pruebas y las opiniones de los científicos y los responsables políticos son necesarios para identificar y corregir posibles errores y evitar que se propaguen. Siguiendo sus políticas de COVID-19, las plataformas de medios sociales filtran los contenidos que contradicen puntos de vista específicos que no son necesariamente correctos o unánimemente aceptados, con respecto a las pruebas científicas subyacentes o a los valores y puntos de vista políticos representados. Si se eliminan o restringen las críticas a estos puntos de vista, se limita la posibilidad de corregir errores, contribuir a la comprensión del tema e informar el debate público. Además, dado que la censura no se basa únicamente en la ciencia -ya que las pruebas científicas son actualmente limitadas y los expertos médicos siguen discrepando sobre diversos temas-, hay otros factores que influyen en las decisiones de eliminar contenidos. Las preguntas sobre el compromiso con la libertad de expresión de los proveedores de medios sociales y el riesgo de manipulación de la opinión pública son, por tanto, relevantes también en el caso de la información sobre COVID-19.
El remedio a la desinformación médica
Si la censura de la información científica no parece ser una solución adecuada al problema de las noticias médicas falsas en las redes sociales, ¿cuál es entonces el remedio adecuado para la “infodemia”? Para abordar adecuadamente esta cuestión, parece que hay que tratar algunas cuestiones relacionadas y más fundamentales. ¿Qué es exactamente la infodemia COVID-19? ¿En base a qué criterios se declara y cuáles son las implicaciones de dicha declaración? ¿Cómo definen los distintos actores la “desinformación”? ¿Cuáles son los daños reales y potenciales de la difusión de información médica falsa? Hay que responder a estas preguntas para determinar cuál es exactamente el problema que se pretende resolver.
No obstante, podemos reflexionar sobre los enfoques generales para prevenir los posibles daños relacionados con la desinformación. La educación y la sensibilización del público, incluso durante la educación escolar formal, puede ser una estrategia crucial para inmunizar a la sociedad contra la desinformación. En este contexto, hay dos áreas de conocimiento que parecen especialmente relevantes para los usuarios de Internet: la relacionada con los medios sociales, en particular, los mecanismos que utilizan, sus modelos de negocio, así como los beneficios y riesgos relacionados con el uso de sus servicios; y el conocimiento general relacionado con la información científica, la investigación científica y sus limitaciones.
La comprensión general del funcionamiento de los medios sociales puede ayudar a los usuarios a tomar decisiones informadas sobre el uso de Facebook, YouTube, Twitter y servicios similares, de acuerdo con los objetivos y valores de cada uno. En particular, el hecho de que las plataformas de medios sociales sean proporcionadas y operadas por empresas privadas, que están interesadas principalmente en obtener beneficios, y las implicaciones de este hecho pueden ser dignas de consideración. El modelo de negocio de las empresas de medios sociales se basa en los ingresos procedentes de los anuncios adaptados a los usuarios: cuantos más usuarios y más tiempo pasen en sus sitios web, mayor será el beneficio. En consecuencia, estas empresas utilizan los conocimientos de la psicología y enormes cantidades de datos personales para diseñar mecanismos cada vez más eficaces para motivar a los usuarios a pasar más tiempo en sus sitios web. Sean Parker, antiguo presidente de Facebook, lo expresó así: “…tenemos que darte un pequeño golpe de dopamina de vez en cuando, porque a alguien le ha gustado o ha comentado una foto o un post o lo que sea. Y eso va a hacer que contribuyas con más contenido, y eso va a conseguir… más likes y comentarios. Es un bucle de retroalimentación de validación social… exactamente el tipo de cosa que un hacker como yo idearía, porque estás explotando una vulnerabilidad en la psicología humana”.
La psicología humana utilizada por los sitios de redes sociales -por ejemplo, la necesidad de aprobación social, la reciprocidad y la búsqueda de novedades- también puede desempeñar un papel en la difusión de información errónea. Por ejemplo, un estudio sobre las noticias compartidas en Twitter sugiere que no solo las historias falsas tienen más probabilidades de ser compartidas que las verdaderas, sino también que las noticias falsas suelen ser más novedosas que las verdaderas (Vosoughi et al, 2018). Darse cuenta de los mecanismos psicológicos que a menudo impulsan el uso de los medios sociales y el intercambio de información, así como de los beneficios que obtienen las empresas por el uso de sus plataformas, puede ayudar a evitar que nos manipulen e impulsar una mayor reflexión sobre por qué compartimos o interactuamos con un determinado contenido.
Además, un mejor conocimiento de la calidad variable de la información científica, así como de las limitaciones de la investigación científica, puede ser útil para discernir si se debe compartir una determinada noticia científica o un consejo médico. El público en general suele recibir las noticias científicas de los medios de comunicación, especialmente de los periódicos y los blogs, donde la información puede ser, intencionadamente o no, sesgada o errónea. Además, aunque la información científica sea de la máxima calidad o se lean directamente artículos científicos, hay que tener en cuenta que sigue existiendo el riesgo de que se cometan errores o haya sesgos. La investigación la llevan a cabo personas que no están libres de errores, intereses profesionales o comerciales, opiniones políticas y morales y otras influencias que pueden afectar a sus conclusiones. Aunque el sistema de revisión por pares y la obligación de informar sobre los conflictos de intereses en los artículos publicados abordan algunas de estas cuestiones, estos mecanismos no son del todo eficaces.
La comprensión de estas dos cuestiones puede suscitar una actitud más crítica con respecto a las noticias científicas y hacer que se consideren más los posibles beneficios y perjuicios de compartir un determinado contenido -así como el uso de los medios sociales en general-, de modo que no se base en reacciones compulsivas, sino que sea reflexivo y esté en consonancia con los objetivos y valores de cada uno. La prudencia en el uso de Internet, incluida la actitud crítica ante la información, debe ser inculcada lo antes posible por padres y profesores, ya que los jóvenes pueden ser más propensos a caer en las estrategias empleadas por las plataformas de comunicación online. En este sentido, hay que esforzarse por introducir clases que aborden estos temas en los planes de estudio de las escuelas y universidades, así como desarrollar la investigación para aumentar la comprensión de los problemas relacionados con el uso de los medios sociales, incluida la cuestión de la desinformación, y su impacto en la sociedad.
Aunque la censura en las redes sociales puede parecer una solución eficaz e inmediata al problema de la desinformación médica y científica, paradójicamente introduce un riesgo de propagación de errores y manipulación. Esto está relacionado con el hecho de que la autoridad exclusiva para definir lo que está “científicamente probado” o “médicamente fundamentado” se atribuye a los proveedores de los medios sociales o a determinadas instituciones, a pesar de la posibilidad de que se produzcan errores por su parte o de que se abuse de su posición para fomentar intereses políticos, comerciales o de otro tipo. Centrarse en la comprensión y el estudio del problema de la desinformación, la educación y la promoción de un uso virtuoso de los medios sociales y de la información parece más laborioso y puede no dar resultados inmediatos, pero, a largo plazo, puede contribuir a una sociedad más inmune a la infodemia.
Agradecimientos
Agradezco a la Dra. Heidi Howard sus comentarios sobre este ensayo.
Conflicto de intereses
El autor declara no tener ningún conflicto de intereses.
References
1. Cohen D, Carter P (2010) WHO and the pandemic flu “conspiracies”. BMJ 340: 1274–1279Crossref Web of Science®Google Scholar
2. Ioannidis JPA (2020) Coronavirus disease 2019: the harms of exaggerated information and non-evidence-based measures. Eur J Clin Invest 50: e13222Wiley Online Library CAS PubMed Web of Science®Google Scholar
3. Melnick ER, Ioannidis JPA (2020) Should governments continue lockdown to slow the spread of covid-19? BMJ 369: m1924Crossref PubMed Google Scholar
4. Stjernfelt F, Lauritzen AM (2020) Chapter 12 Facebook and Google as offices of censorship. In Your post has been removed: tech giants and freedom of speech, pp 139–172. Cham, Switzerland: Springer Nature Switzerland AGCrossref Google Scholar
5. Vosoughi S, Roy D, Aral S (2018) The spread of true and false news online. Science 359: 1146–1151