Print Friendly and PDF

Introducción a la guía

El mundo en línea juega un papel cada vez más dominante en la configuración de la conversación pública y en la conducción de eventos políticos. Al mismo tiempo, la desinformación, el discurso de odio y el extremismo en línea aparentemente han saturado el contenido en las plataformas de redes sociales, y sus daños se han visto agravados por efectos de red y sistemas computacionales cada vez más poderosos. Las consecuencias negativas para la sociedad presentan un desafío global que afecta a todos los países y a casi todas las áreas del discurso público. La desinformación refuerza a los autoritarios, debilita las voces y la participación democráticas, se dirige a las mujeres y los grupos marginados, explota y exacerba las divisiones sociales existentes y silencia la oposición. En la esfera pública en red 1, la sociedad civil, los gobiernos y el sector privado están lidiando con estas nuevas amenazas en línea y trabajando a través de sus propias redes y entre sí como parte de un esfuerzo de toda la sociedad para mejorar la integridad de nuestro entorno de información. . 

Si bien la desinformación ha sido durante mucho tiempo un desafío para la democracia, la era digital requiere un compromiso renovado y una nueva urgencia para igualar la escala, la velocidad y la omnipresencia de las amenazas de la información en línea. El acceso significativo a un entorno de información saludable es parte integral del funcionamiento de sociedades libres y respetuosas de los derechos; como tal, contrarrestar la desinformación y promover la integridad de la información son prioridades necesarias para garantizar que la democracia pueda prosperar a nivel mundial en el próximo siglo y más allá.  

CÓMO SE REALIZÓ EL TRABAJO

Esta guía es un esfuerzo ambicioso para dar una mirada global a las medidas para combatir la desinformación y promover la integridad de la información - un examen colaborativo de lo que se está haciendo, lo que está funcionando y quién lo está haciendo. Este recurso ha sido desarrollado por la International Foundation for Electoral Systems, el International Republican Institute y el National Democratic Institute con el apoyo de USAID al Consorcio para el Fortalecimiento de Elecciones y Procesos Políticos, y está destinado a servir como guía para los profesionales, la sociedad civil. y las partes interesadas del gobierno que trabajan para promover la integridad de la información y fortalecer la resiliencia social. La investigación se ha realizado durante dos años, dirigida por expertos de las tres organizaciones. El equipo realizó una investigación en tres países y la base de datos incluye más de 275 entradas en más de 80 países en todas las regiones fuera de la Antártida, que se actualizarán y ampliarán con el tiempo. Más de una docena de expertos externos se han desempeñado como revisores y editores. Debido al COVID-19, se redujeron algunos esfuerzos de investigación. Debido al alcance y la escala del desafío, la investigación es exhaustiva, pero no exhaustiva. Durante la redacción, las acciones de las plataformas de redes sociales, los gobiernos, los actores de la sociedad civil y los activistas continuaron evolucionando. Como resultado, tenemos la intención de que esta guía sea una plataforma viva con capítulos sustantivos actualizados anualmente y la Base de datos global actualizada con mayor regularidad. 

QUE HAY EN LA GUIA

Destacar


 

Durante dos años, CEPPS llevó a cabo investigaciones en el país en Colombia, Indonesia y Ucrania. Los actores clave fueron entrevistados en función de su experiencia en el desarrollo de intervenciones, su papel en el sistema político, así como su perspectiva sobre el panorama de la información y otros temas relacionados. Estos países fueron elegidos en base a las intervenciones y programas relevantes que han desarrollado, la diversidad demográfica y geográfica, el riesgo de intervención extranjera, así como las críticas recientes elecciones y otros eventos políticos. Ucrania está en la primera línea de los problemas del espacio de información, ya que una guerra civil desencadenada por la invasión rusa de Crimea ha creado un espacio de información controvertido, a menudo influenciado por el Kremlin. Indonesia, una democracia asiática masiva e importante, ha tenido elecciones recientes en las que las redes sociales desempeñaron un papel fundamental, estimulando respuestas innovadoras de los órganos de gestión electoral y la sociedad civil para mitigar los impactos de la desinformación y promover un entorno de información saludable. Colombia representa el último ejemplo, un país con elecciones recientes y un importante acuerdo de paz entre el gobierno y los grupos rebeldes que pone fin a una guerra de décadas. La negociación del pacto, un referéndum fallido y finalmente la ratificación por parte de la legislatura se han sucedido en años sucesivos y proporciona un importante estudio de caso de cómo un proceso de paz y reconciliación se reflejan y negocian en línea junto con las elecciones y otros eventos políticos.

A lo largo de la guía se integran ejemplos y citas de los tres casos para ilustrar las lecciones aprendidas y la evolución de la programación contra la desinformación y otras intervenciones. Siempre que sea posible, se proporcionan enlaces a las entradas de la Base de datos global de intervenciones informativas. La base de datos es el esfuerzo más sólido en la comunidad democrática para catalogar financiadores, tipos de programas, organizaciones y descripciones del proyecto. Además, los temas incluyen citas de entrevistas a las partes interesadas, revisiones y análisis de programas e informes sobre monitoreo y evaluación. También se han incluido informes de los medios y literatura académica centrados en el impacto y la eficacia. Por último, esta guía pretende ser un documento dinámico, y la base de datos y los temas se revisarán y mejorarán periódicamente para reflejar la evolución continua del entorno en línea y del mundo real.

Los temas se dividen en tres categorías amplias, examinando los roles de grupos de partes interesadas específicos, respuestas legales, normativas y de investigación, así como temas transversales para abordar la desinformación dirigida a mujeres y grupos marginados, y elecciones. Los temas incluyen:

Los temas incluyen:

ROLES

RESPUESTAS

DIMENSIONES TRANSVERSALES

  • Comprender las dimensiones de género de la desinformación explora cómo las campañas de desinformación, la desinformación viral y el discurso del odio apuntan y afectan particularmente a mujeres y personas con diversas orientaciones sexuales e identidades de género mediante la explotación y manipulación de sus propias identidades. Como resultado, esta sección y todos los demás temas incluyen consideraciones de género y grupos marginados en la programación y otras intervenciones.

La Base de datos de intervenciones informativas proporciona un conjunto completo de intervenciones que los profesionales, donantes y analistas pueden utilizar a nivel mundial para comprender y contrarrestar la desinformación. 

9 grandes conclusiones

Al realizar este análisis y observar estos aspectos críticos de los problemas, el equipo de investigación ha identificado puntos clave que deberían impulsar los esfuerzos de desinformación en el futuro.

1
La desinformación existe en todos los ecosistemas de información del mundo. Ningún actor puede abordar esto solo. Por esta razón, se necesita un enfoque de toda la sociedad que aliente a los actores de los gobiernos, la sociedad civil y la industria a trabajar juntos para contrarrestar la desinformación y fortalecer la respuesta social.
2
Contrarrestar la desinformación no es LA máxima prioridad para la mayoría de las instituciones, gobiernos, partidos políticos o grupos de la sociedad civil. Sin embargo, algunos de estos actores proliferan tanto desinformación como desinformación. Hasta que este sentido de urgencia impulse un esfuerzo colectivo para abordarlo, no se puede lograr un cambio duradero.
3
Los esfuerzos para combatir la desinformación en las elecciones y para combatir las divisiones sociales existentes son desafíos distintos pero superpuestos. Los donantes e implementadores no deben permitir que un sesgo hacia la programación tecnológicamente innovadora socave la inversión continua en la construcción de los tipos de capacidad duradera que hacen que los actores democráticos sean más resilientes cuando surgen desafíos de desinformación.
4
Las instituciones públicas y privadas, como los organismos y las plataformas de gestión electoral, suelen estar bien equipadas para abordar los desafíos de la desinformación, pero carecen de credibilidad. Por el contrario, la sociedad civil es un actor creíble, ágil y esencial, pero crónicamente carente de recursos.
5
Ningún enfoque (alfabetización mediática, verificación de datos, investigación y monitoreo, eliminación de redes sociales, etc.) es suficiente. Un enfoque holístico para contrarrestar la desinformación es esencial.
6
Centrarse en eventos importantes, como los resultados de las elecciones y los referendos, es eficaz para crear procesos políticos seguros. Esto contribuye, pero no logra, un ecosistema de información saludable.
7
Comprender el impacto de la desinformación de género y el papel que juega el género en la integridad de la información es fundamental. Como tal, las intervenciones deben incluir un componente de género y estar localizadas para un contexto más amplio, desde el diseño del programa hasta la implementación, con el fin de aumentar la efectividad y minimizar el daño potencial.
8
Los esfuerzos de desinformación que se basan únicamente en estructuras de moderación de contenido no son suficientes. Se debe abordar el desarrollo de normas y estándares, marcos legales y regulatorios y una mejor moderación del contenido de las plataformas de redes sociales para crear un ecosistema de información saludable. Esto es especialmente importante para fortalecer entornos de información complejos en el Sur Global.
9
Los partidos juegan un papel fundamental tanto en los sistemas políticos como en la creación y difusión de campañas en línea que a menudo propagan desinformación y otras formas dañinas de contenido. Es importante que se establezcan marcos que desalienten a los partidos políticos de participar en la desinformación.

ENTENDIENDO LA DESINFORMACIÓN

Se ha realizado un trabajo significativo en los últimos años para comprender y diagnosticar conceptualmente el trastorno de la información. Para fundamentar conceptualmente nuestro análisis, esta guía construye sus definiciones y comprensión de los problemas y soluciones principalmente en el trabajo de Data and Society, First Draft y el Proyecto de Propaganda Computacional del Oxford Internet Institute. Estos tres recursos fundamentales están bien considerados en la comunidad más amplia que analiza la desinformación, así como por las formas en que sus marcos conceptuales se prestan a la adaptación para su aplicación práctica.  

El trastorno de la información del primer borrador proporciona definiciones claras del trastorno de la información, las implicaciones para la democracia, el papel de la televisión, las implicaciones para los medios locales, la microtargeting, la amplificación computacional, las burbujas de filtro y las cámaras de eco, y la disminución de la confianza en los medios y las instituciones públicas. El marco también describe cómo la desinformación (información transmitida sin la intención de engañar), la desinformación (información incorrecta transmitida con la intención) y la malinformación (información verdadera que se hace pública con la intención de dañar) están desempeñando un papel en la contribución al trastorno, que también puede entenderse como una contribución a la corrupción de la integridad de la información en los sistemas políticos y el discurso. 

Gráfico sobre el trastorno de la información que muestra las definiciones de desinformación, desinformación y malinformación, y cómo se cruzan.


   
De Wardle, Claire y Hossein Derakhshan. "Trastorno de la información: Hacia un marco interdisciplinario para la investigación y la formulación de políticas ”. Consejo de Europa, 31 de octubre de 2017. https://shorensteincenter.org/information-disorder-framework-for-research-and-policymaking/.

El marco del trastorno de la información también se centra en elementos del ecosistema de la información, incluidos el agente (o productor) de la información, el mensaje y el intérprete. Los mensajes pasan por varias fases, a saber, creación, producción y distribución. Estos aspectos nos permiten interpretar diferentes tipos de esfuerzos, ya sea que se centren en un elemento de estos tres componentes, en algunos o incluso en todos. Los marcos legales y regulatorios y las normas y estándares pueden enfocarse en todos estos aspectos, y diferentes actores como plataformas, organizaciones de la sociedad civil y gobiernos pueden diseñar respuestas que los aborden de diferentes maneras. Por ejemplo, los esfuerzos de alfabetización mediática se dirigen a los intérpretes, mientras que la moderación del contenido se centra en los mensajes y los agentes. 

Gráfico que muestra el ecosistema de información que incluye al agente (o productor) de la información, el mensaje y el intérprete.

De Wardle, Claire y Hossein Derakhshan. "Trastorno de la información: Hacia un marco interdisciplinario para la investigación y la formulación de políticas ”. Consejo de Europa, 31 de octubre de 2017. https://shorensteincenter.org/information-disorder-framework-for-research-and-policymaking/.

El Oxford Internet Institute (OII) desarrolló el término "propaganda computacional" y define esta práctica como "el ensamblaje de plataformas de redes sociales, agentes autónomos y big data encargados de la manipulación de la opinión pública". 2 Este marco nos permite ampliar nuestra comprensión de las amenazas en el espacio en línea más allá de la desinformación a otras formas de manipulación en línea, ya sea automatizada o humana. También ayuda a enmarcar el problema como uno que incluya respuestas técnicas, sociológicas y políticas.  Para ayudar a comprender la viralidad de la desinformación, el trabajo de OII demuestra cómo las comunicaciones, los estudios conductuales y psicológicos, así como las ciencias de la computación, los datos y la información, juegan un papel.  

El Oxígeno de amplificación de Data & Society demuestra cómo los medios tradicionales desempeñan un papel en la amplificación de las narrativas falsas y cómo se pueden manipular para promover la desinformación y la desinformación de diferentes maneras.  Otro grupo de investigación que reúne diversos aspectos de los medios y el análisis de datos, así como la investigación en ciencias sociales, también ayuda a definir términos y estándares. Nuestro glosario se basa en el informe de Data & Society sobre el Lexicon of Lies 3, así como en el Glosario esencial del primer borrador de su estudio Information Disorder, y otras fuentes que se cultivan a través de nuestra base de datos global de enfoques y otra literatura, incluida la orientación de USAID 4. y otras organizaciones, incluido CEPPS. Los conceptos técnicos, de medios y de comunicación se incluirán en las secciones y estos términos clave ayudan a describir el problema de manera compartida.

Notas al pie

1 Benkler, Yochai. La riqueza de las redes: Cómo la producción social transforma los mercados y la libertad. Prensa de la Universidad de Yale, 2006.

2 Howard, PN y Sam Woolley. "Comunicación política, propaganda computacional y agentes autónomos". Editado por Samuel Woolley y Philip N. Howard. Revista Internacional de Comunicación 10, no. Número especial (2016): 20.

3 Jack, Caroline. "Léxico de las mentiras: Términos para información problemática ". Data & Society, 9 de agosto de 2017. https://datasociety.net/output/lexicon-of-lies/.

4 Disinformation Primer, Center for Excellence on Democracy, Human Rights and Governance, USAID, febrero de 2021.

Complete Guide

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

Escrito por Amy Studdart, asesora sénior de Digital Democracy en el Instituto Republicano Internacional.

Los enfoques de la sociedad civil para contrarrestar la desinformación abarcan una variedad de tipos de programas que incluyen verificación de datos, investigación y análisis forense digital, defensa ante los gobiernos y plataformas, alfabetización digital y mediática, creación de redes y coaliciones y cooperación internacional. En todos estos enfoques programáticos, la implementación por parte de las organizaciones de la sociedad civil (CSO) tiene varias ventajas que podrían aumentar de manera convincente la efectividad de los programas. Los grupos cívicos pueden innovar rápidamente, están más conectados con los ciudadanos a los que afecta la desinformación, están mejor situados para comprender su impacto inmediato y son capaces de generar confianza con las comunidades locales, un factor clave para responder a trastornos específicos de la información, y es más probable que sean percibidos por todas las partes como relativamente objetivos. Más específicamente, las asociaciones cívicas promueven la cooperación de ciudadanos de distintos intereses e identidades, como mujeres, minorías étnicas y personas con discapacidades. Por tanto, entre las partes interesadas clave, estas organizaciones y coaliciones suelen estar en mejores condiciones para identificar campañas de desinformación dirigidas a grupos marginados o que explotan las normas de género o las divisiones sociales existentes, y para movilizar una amplia oposición y respuestas a estas campañas. En todos los países y regiones del mundo, los grupos cívicos han diseñado e implementado los siguientes tipos de programas de lucha contra la desinformación:

Comprobación de hechos

Las iniciativas de verificación de hechos intentan identificar y corregir información falsa o engañosa propagada por las élites políticas y económicas o mediante interacciones entre pares en las redes sociales o aplicaciones de mensajería. Los grupos cívicos se encuentran en una posición única para implementar estos programas por dos razones relacionadas: primero, al actuar como fuentes relativamente objetivas y desapasionadas, las CSO pueden ser fuentes de correcciones, especialmente dada la naturaleza altamente politizada de las campañas de desinformación. En segundo lugar, las CSO tienden a estar menos limitadas, especialmente en relación con los periodistas, tanto en métodos como en soluciones.

Identificación de relatos, recursos y comportamiento engañoso coordinado de desinformación 

Las CSO, a menudo en colaboración con académicos u organizaciones de investigación, desempeñaron un papel destacado en el descubrimiento de operaciones de información. Los grupos cívicos han descubierto operaciones de información en curso en torno a las elecciones, han identificado comportamientos engañosos coordinados para las plataformas y han realizado un seguimiento de los medios para identificar narrativas de información clave. Las CSO a menudo están en una posición totalmente adecuada para respaldar la captación y la utilización de los resultados de los enfoques de investigación sofisticados, lo que garantiza que los resultados sean rápidamente procesables para los tomadores de decisiones o los objetivos de las campañas de desinformación. Además, dado que las mujeres y otros grupos marginados suelen ser objetivos tempranos de campañas emergentes, los grupos cívicos que representan estos intereses suelen estar en la mejor posición para identificar el surgimiento de estas tácticas y abogar por respuestas efectivas. 

Defensa frente a las plataformas 

En su papel de mediador entre ciudadanos y gobiernos, las CSO tienen una función natural de incidencia. Específicamente, las CSO están muy bien ubicadas para identificar cómo las campañas de desinformación apuntan y dañan a los grupos marginados, que de otro modo no serían obvios para las propias plataformas, y posteriormente para abogar por cambios en las políticas de la plataforma que respondan a esos problemas específicos. Sin embargo, los grupos cívicos enfrentan varios desafíos en la promoción de los medios de comunicación y las plataformas digitales, incluidos fuertes incentivos financieros de plataformas, acceso limitado a los tomadores de decisiones y brechas de conocimiento dentro de los grupos cívicos. Los enfoques de promoción basados en redes y coaliciones, en particular a nivel internacional, pueden ayudar a superar estos desafíos lo que aumenta la influencia a través de la acción colectiva, incluso al amplificar las voces de los grupos marginados y al vincular sus prioridades con objetivos políticos más amplios. 

Defensa frente a los gobiernos

La sociedad civil juega dos papeles importantes en las respuestas del gobierno a la desinformación: (1) abogar por políticas prodemocráticas que protejan y promuevan la integridad de la información, incluida la igualdad de valor y los mismos derechos de asociación para los grupos marginados cuya participación los perpetradores de la desinformación a menudo buscan socavar; y (2) asegurar que las respuestas a la desinformación, las operaciones de información y otros trastornos de la información no repriman la libertad de expresión, el acceso a la información o las políticas participativas de manera que puedan dañar los procesos y los principios democráticos, nuevamente con un enfoque en cómo las restricciones de asociación y expresión a menudo afectan de manera desproporcionada a los grupos marginados de las CSO como relativamente objetivas puede aumentar su credibilidad ante los tomadores de decisiones, y la acción colectiva entre organizaciones puede hacer que las campañas de promoción sean más efectivas. 

Campañas de concientización pública/alfabetización mediática

La conexión de las CSO con las comunidades locales y su posición como una fuente de información relativamente confiable las coloca en un lugar ideal para diseñar e implementar programas de concientización pública y alfabetización mediática. Estas intervenciones se implementan bajo el supuesto de que si las audiencias pueden utilizar las habilidades de pensamiento crítico necesarias mientras consumen contenido de medios tradicionales y en línea, aumentará su capacidad para diferenciar entre contenido fáctico y engañoso o falso. Si bien internet y las plataformas de redes sociales han mejorado el acceso a los medios de comunicación y la información, así como la pluralidad de fuentes de noticias, han contribuido a una disminución en la calidad de las noticias y la información. Con el tiempo, una mejor alfabetización mediática y digital entre las audiencias podría desempeñar un papel importante para ayudar a reducir la susceptibilidad a la desinformación. Las campañas de concientización pública por parte de grupos cívicos también pueden ayudar a crear percepciones de intereses compartidos, particularmente cuando destacan de qué manera las campañas de desinformación afectan los derechos democráticos o el compromiso de las mujeres y otros grupos marginados que de otro modo no serían visibles.

Highlight


Sin embargo, la colaboración internacional, especialmente en términos de filantropía y ayuda al desarrollo, debe tener en cuenta las limitaciones impuestas por las pequeñas subvenciones y los cortos plazos. Responder a los desórdenes informativos, o crear resistencia a ellos en primer lugar, puede requerir una infraestructura con altos costos de puesta en marcha, y un apoyo continuo a largo plazo para garantizar que estas iniciativas sean sostenibles. 

Creación de redes confiables para obtener información precisa 

Las CSO han sido fundamentales para servir como una fuente confiable de información, particularmente en entornos en los que los medios estatales o el gobierno son los principales responsables de la desinformación, y en los que la propagación activa de la desinformación va acompañada de censura. Si bien el "boca a boca" y otras actividades creativas de distribución de información siempre han estado presentes en sociedades cerradas, esos canales han adquirido una mayor formalidad y escala a medida que las tecnologías digitales, y en particular las aplicaciones de chat grupal encriptadas, se han vuelto ampliamente accesibles.

Colaboración internacional

La cooperación internacional es un factor fundamental en el éxito de la sociedad civil. Además de la cuestión del apalancamiento concerniente a las empresas que se discutió en este capítulo, la cooperación internacional permite a la sociedad civil compartir las mejores prácticas en los campos en rápida evolución de la ciencia forense digital y las herramientas para contrarrestar mensajes, y compartir información sobre amenazas transnacionales emergentes y la proliferación de conjuntos de herramientas de desinformación utilizados por actores malignos tanto nacionales como extranjeros. 

Recomendaciones programáticas

Las organizaciones civiles desempeñan un papel clave en la identificación y respuesta a los desórdenes informativos, especialmente cuando pueden establecer una reputación como actores objetivos relativamente independientes. Sin embargo, estas ventajas vienen con compensaciones, especialmente si sus electores tienden a ser relativamente urbanos, altamente educados, más ricos o más conectados a internet en promedio. Los diseños de programas deben tener cuidado al focalizar las intervenciones para fomentar la aceptación entre los grupos desatendidos. 

Los enfoques de redes y coaliciones para contrarrestar la desinformación, incluida la colaboración internacional, pueden identificar ventajas comparativas, aumentar la escala y mejorar la diversidad de enfoques programáticos. 

En relación con lo anterior, los programas enfocados en la sociedad civil deben incorporar un enfoque intencional en la inclusión, y más específicamente, la interseccionalidad de múltiples identidades marginadas, particularmente en los enfoques de coalición y redes. El apoyo a los grupos civiles debe incorporar un análisis distinto para identificar los desafíos únicos que enfrentan las personas que afrontan diversas formas de marginación dentro de un contexto histórico específico, ya que los responsables de campañas de desinformación pueden depender de la apatía o complicidad de grupos identitarios no marginados. La acción colectiva es más probable cuando estos grupos e individuos que no están políticamente o socialmente marginados comprenden que tienen interés en defender los derechos de los grupos minoritarios o marginados.

Las organizaciones civiles pueden considerar asociarse con instituciones políticas o sociales existentes para ajustar las respuestas programáticas a la desinformación, especialmente si la organización en sí tiene una audiencia pequeña o limitada. Un ejemplo podría incluir la asociación con los sistemas escolares para implementar programas de alfabetización mediática.

Los programas que trabajan en la defensa, especialmente en torno a la regulación de internet o plataformas, deben considerar el contexto cultural específico de los debates en torno a las compensaciones entre libertad de expresión y seguridad. 

Los programas que trabajan con organizaciones civiles para implementar programas de lucha contra la desinformación deben considerar componentes de capacitación en seguridad específicos, incluida la ciberseguridad, la protección de datos, los planes de respuesta para ataques a la información y la seguridad física contra represalias. 

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

El papel de la sociedad civil en la lucha contra la desinformación se desarrolla en varios niveles: verificación de datos, investigación y análisis forense digital, defensa ante los gobiernos, defensa ante las plataformas, campañas de alfabetización digital, reconciliación y cooperación internacional. 

Si bien las definiciones de sociedad civil varían ampliamente y, de hecho, existe un debate significativo sobre qué constituye y qué no constituye una sociedad civil, Larry Diamond, investigador sénior del Freeman Spogli Institute for International Studies de la Universidad de Stanford, ofrece una conceptualización que se corresponde estrechamente con lo que los profesionales de programas de democracia, derechos humanos y gobernanza (DRG, por sus siglas en inglés) entienden por el concepto:

"La sociedad civil es el ámbito de la vida social organizada que es voluntaria, autogenerada, autosuficiente (en gran medida), autónoma del estado y sujeta a un orden legal o un conjunto de normas compartidas. Se diferencia de la sociedad en general en que involucra a ciudadanos que actúan colectivamente en una esfera pública para expresar sus intereses, pasiones e ideas, intercambiar información, lograr objetivos mutuos, plantear demandas al estado y hacer que los funcionarios estatales rindan cuentas. La sociedad civil es una entidad intermediaria entre la esfera privada y el Estado. Por lo tanto, excluye la vida individual y familiar, la actividad grupal introspectiva (por ejemplo, para recreación, entretenimiento o espiritualidad), los emprendimientos con fines de lucro de empresas comerciales individuales, y los esfuerzos políticos para tomar el control del Estado".1

Claramente, la sociedad civil (como un tipo ideal) crea lo que los científicos políticos denominan "divisiones transversales": identidades superpuestas que trascienden grupos de intereses o identidades reducidos basados en género, clase económica, raza o etnia, afiliación religiosa, orientación sexual o afiliación política2. La asociación a través de grupos civiles genera familiaridad y un sentido de intereses compartidos entre miembros de grupos de identidad reducidos y dispares.  Con respecto a la respuesta a la desinformación, en relación con estas otras formas de organización social identificadas por Diamond, los actores de la sociedad civil se benefician de una serie de ventajas: son más capaces de innovar rápidamente que los gobiernos, las empresas de tecnología u organizaciones de medios de comunicación; están más cerca de las personas más afectadas por la desinformación, tienen más probabilidades de comprender su impacto inmediato y son más capaces de generar confianza con las comunidades afectadas; su conocimiento localizado y de base es fundamental para reprender los relatos falsos; y, a diferencia de los gobiernos o los actores políticos, es menos probable que se perciba que muchos grupos de la sociedad civil tienen un interés personal en propagar o contrarrestar la desinformación política. Una importante fortaleza potencial de las organizaciones civiles para responder a la desinformación es su capacidad para generar intereses y objetivos compartidos entre grupos de identidad dispares. Dado que la desinformación a menudo se dirige desproporcionadamente (y a menudo antes) a las mujeres y a los grupos históricamente marginados dentro de contextos específicos, las coaliciones u organizaciones de la sociedad civil (CSO, por sus siglas en inglés) suelen estar en mejores condiciones para identificar las campañas emergentes de manera temprana y generar conciencia, movilizar a la oposición o promover respuestas de manera amplia. Al crear este sentido de solidaridad e interés compartido, las organizaciones civiles son las más indicadas no solo para defender a los grupos vulnerables de daños específicos, sino también para aumentar la resiliencia a la desinformación de la sociedad en general, incluidos los miembros de grupos que históricamente no han sido vulnerables o marginados. Por todas estas razones, la sociedad civil juega un papel fundamental en el ecosistema más amplio para contrarrestar la desinformación. 

Este capítulo analiza varias de esas intervenciones, detalla las ventajas y desventajas de la sociedad civil en lo que respecta a cada intervención y concluye con recomendaciones, muchas de las cuales se extraen de las indicadas a lo largo del capítulo, sobre cómo apoyar y fortalecer las contribuciones de la sociedad civil al abordar la desinformación. 

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

Muchas de las iniciativas de verificación de datos más exitosas y confiables han sido impulsadas y atendidas por medios independientes o periodistas capacitados. Esos actores son los más indicados para comprender cómo investigar a fondo el contenido engañoso, obtener fuentes confiables y comunicarse de manera desapasionada sobre cómo y por qué una parte del contenido o un discurso en particular es engañoso.  Sin embargo, este es también un espacio en el que las organizaciones de la sociedad civil han jugado un papel fundamental. 

Primero, las CSO a menudo complementan las iniciativas de verificación de datos al actuar como fuentes de información. Cuando los periodistas no tienen conocimiento de primera mano sobre un tema, una comunidad o un área geográfica sujeta a desinformación, la sociedad civil juega un papel esencial, ya sea para ayudar a los periodistas a desacreditar un reclamo compartiendo su experiencia o identificando las formas en que la desinformación está impactando, por ejemplo, en las comunidades marginadas. Dado que la desinformación se enfoca de manera desproporcionada en temas polémicos de la sociedad, este segundo papel es particularmente importante.

Highlight


En la India, después de que la incitación al odio y la desinformación en WhatsApp provocaran violencia en el mundo real y pérdidas de vidas humanas, Facebook, la empresa matriz de WhatsApp, limitó el tamaño de los grupos y el reenvío de mensajes. Varios gobiernos han cerrado las plataformas de mensajería encriptada en distintos momentos. E incluso las democracias avanzadas han empezado a exigir (e incluso a legislar) la creación de puertas traseras de cifrado para las fuerzas del orden. 

En segundo lugar, debido a que la sociedad civil está menos restringida que los periodistas en términos de metodología y soluciones disponibles, tiene un área más amplia para innovar. Por ejemplo, la propagación de la desinformación en las aplicaciones de mensajería privada cifrada fue un problema que causó tanta consternación que muchos abogaron por el fin del cifrado.  

De manera similar, en Ucrania, los grupos civiles han liderado el desarrollo de iniciativas de verificación de datos para contrarrestar tanto la propaganda rusa como la desinformación nacional.

VoxUkraine es una plataforma de medios digitales sin fines de lucro que se centra en cuestiones económicas. Como parte de sus servicios, que también incluyen investigación, informes analíticos, periodismo explicativo e iniciativas de educación en economía, su servicio VoxCheck utiliza a un equipo de expertos para verificar las declaraciones públicas de los políticos sobre temas económicos. La orientación cívica y sin fines de lucro de estos medios ofrece varias ventajas; estas iniciativas de verificación de datos se sitúan dentro de iniciativas más amplias que se centran en la defensa, el periodismo, la educación pública y la alfabetización mediática. Además, como medios digitales, en gran medida pueden conservar más independencia editorial que los medios de televisión, radio e impresos. Sin embargo, estas ventajas implican compensaciones. Por ejemplo, los representantes de VoxCheck señalaron que, si bien tenían una vasta audiencia, estaba ubicada principalmente en la capital de Kiev y estaba compuesta por consumidores más jóvenes, más ricos y más educados, que probablemente ya estarían de acuerdo con sus informes.4

Design Tip


Los grupos cívicos que se plantean la posibilidad de llevar a cabo iniciativas de verificación de datos deben considerar la posibilidad de identificar nuevos públicos, en particular aquellos que de otro modo no estarían dispuestos a participar en las redes sociales. 

En los últimos cinco años, han surgido cientos de iniciativas de verificación de datos de la sociedad civil en torno a puntos críticos específicos, y las lecciones aprendidas y la infraestructura construida en torno a esos puntos críticos se han aplicado a otros problemas que afectan el mismo ecosistema de información. Entre los foros más sistemáticos de colaboración internacional, se encuentra la International Fact-Checking Network (IFCN)5, un programa del Poynter Institute que reúne a verificadores de datos, brinda capacitación, crea estándares básicos para la verificación de datos y defiende a los verificadores de datos en todo el mundo. El grupo también facilita la colaboración informal y reactiva: en mayo de 2020, un grupo en Francia compartió una historia con la IFCN que afirmaba que los italianos habían encontrado una manera de curar potencialmente la COVID-19. En una hora, otros grupos de Europa compartieron evidencia de la misma historia falsa que circulaba en otros países, y su propia evidencia que desacreditaba la historia.

Durante las elecciones generales mexicanas de 2018, una iniciativa impulsada por COS, Verificado 2018, se asoció con Pop-Up NewsAnimal Político y AJ+ Español, junto con otros 80 socios para verificar datos y distribuir información relacionada con las elecciones, particularmente entre los jóvenes. Antes de las elecciones, Verificado se creó como un grupo de la sociedad civil juvenil, Verificado19S, nombrado en referencia al terremoto de Puebla del 19 de septiembre de 2017, que causó mucha destrucción en los estados mexicanos de Puebla y Morelos y en el área metropolitana de la ciudad de México, lo que provocó cientos de muertes. La iniciativa de verificación de datos alcanzó a más de 200.000 seguidores en Facebook y Twitter y a más de 10.000 suscriptores de WhatsApp. Verificado19S tuvo como objetivo recopilar y proporcionar información de testigos presenciales sobre el terremoto a través de un cuestionario en línea. Luego, Verificado 2018 utilizó la infraestructura y la reputación construidas alrededor del terremoto para replicar una iniciativa similar en torno a las elecciones. Las iniciativas llenaron un vacío de información ante la ausencia de iniciativas dirigidas por el gobierno y otras fuentes de información confiables.  La iniciativa recibió una amplia base de apoyo financiero de Facebook, Google News Initiative, Twitter, Open Society Foundation, Oxfam México y Mexicanos contra la Corrupción y la Impunidad, lo que amplió aún más su alcance y aseguró la independencia real y percibida de la iniciativa.

De manera similar, Colombia ha desarrollado fuertes grupos de investigación y verificación de datos centrados en el espacio en línea que integra la verificación de datos. Una red de periodistas conocida como "Concejo de Redacción" respalda varias iniciativas periodísticas, incluido el apoyo a la capacitación y la investigación, así como la verificación de datos, y avala a un grupo llamado ColombiaCheck, que verifica declaraciones políticas. Este trabajo se inspira en parte en el modelo de Chequeado, un grupo con sede en Argentina. ColombiaCheck comenzó a verificar información sobre las negociaciones del proceso de paz entre el gobierno y el grupo rebelde de las FARC en 2015, y desde entonces ha continuado desarrollando su metodología a través de las elecciones posteriores y los eventos políticos continuos6. ColombiaCheck está certificado por International Fact-Checking Network del Poynter Institute y ha trabajado para verificar el contenido en Facebook como un verificador de datos externo.

América Latina en su conjunto ha desarrollado sólidas iniciativas de verificación de datos, incluso en Brasil, donde Agência Lupa representa una de las primeras iniciativas, que comenzó en 2015 y ahora se está integrando con la red UOL de Folha de São Paulo, la segunda red de medios en línea más grande del país. En las elecciones nacionales de 2018, varias organizaciones, entre ellas Agência Lupa, Aos Fatos y organizaciones de medios tradicionales, trabajaron para colaborar a través de Comprova, una iniciativa conjunta respaldada por First Draft, que es un proyecto global para combatir la mala información y la desinformación que también proporciona el marco de desorden informativo en el que se basa parcialmente esta guía. Esto se basa en el modelo "CrossCheck", en el que varias organizaciones de medios "cotejan" los datos y los confirman de forma conjunta en todas las plataformas, lo que ha sido replicado en Francia, Alemania, Nigeria, España, Reino Unido y los Estados Unidos. No faltan iniciativas exitosas de verificación de datos en todo el mundo, desde Africa Check, el Cyber News Verification Lab en Hong Kong, BOOM en India, Checazap en Brasil, el Archivo de verificación de datos del Center for Democracy and Development en África Occidental, y la iniciativa Check de Meedan en Ucrania. Como parte del CEPPS, Internews ha apoyado varias iniciativas a nivel mundial, que van desde Etiopía a Filipinas y Turquía.

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

Si bien gran parte del trabajo de descubrimiento de operaciones de información ha sido realizado por el mundo académico y las empresas privadas de inteligencia de amenazas, la sociedad civil internacional ha desempeñado un papel destacado en el descubrimiento de operaciones de información. Una vez más, debido a su función de facilitar la cooperación entre miembros de grupos potencialmente dispares, las CSO suelen ser las más indicadas para identificar campañas emergentes dirigidas a grupos vulnerables que de otro modo no serían visibles, y para movilizar respuestas.

Highlight


En Ucrania, grupos como StopFake han desarrollado métodos para la exposición digital, la presentación de informes y la concientización pública de las campañas, mientras que grupos como Texty han colaborado con el NDI para desarrollar mapas de redes, contenidos y tendencias críticas en ese contexto.

Por ejemplo, el Digital Forensics Lab (DFRLab) con sede en Washington, DC, ha identificado una serie de operaciones de información coordinadas, muchas de las cuales están diseñadas para desacreditar las elecciones. Durante un período de un mes, DFRLab publicó un trabajo que expone varias formas de operaciones de información en Ucrania, Georgia y Nigeria. El trabajo anterior sobre Brasil, Colombia, México, El Salvador, Ecuador y Bolivia ha avanzado en la comprensión de los actores de la desinformación en América Latina. Esas investigaciones son fundamentales para informar el trabajo de integridad electoral. Los grupos locales también juegan un papel fundamental. En Colombia, grupos como La Silla Vacía, Linterna Verde y la Liga Contra el Silencio han trabajado para explorar el espacio en línea tanto en redes abiertas como Facebook y Twitter como en redes más cerradas como WhatsApp durante las elecciones, el referéndum sobre su proceso de paz y otros eventos políticos. Como ejemplo específico de cómo los grupos civiles pueden identificar los relatos dañinos emergentes y vincularlos con los intereses de los ciudadanos de manera más amplia, Linterna Verde se ha focalizado en el discurso en línea centrándose en las candidatas en línea con la Fundación para la Libertad de Prensa o FLIP y cómo la desinformación sobre las mujeres se difundió en línea en el contexto de las elecciones presidenciales de 2018

Highlight


Aunque este campo es, por naturaleza, muy accesible, muchos de los recursos en los que se basan los investigadores de la ciencia forense digital, incluidas las guías para principiantes, a menudo sólo están disponibles en inglés o en un conjunto limitado de idiomas y no son ampliamente conocidos.

Highlight


Como ejemplo específico de cómo los grupos civiles pueden identificar los relatos dañinos emergentes y vincularlos con los intereses de los ciudadanos de manera más amplia, Linterna Verde se ha focalizado en el discurso en línea centrándose en las candidatas en línea con la Fundación para la Libertad de Prensa (FLIP) y cómo la desinformación sobre las mujeres se difundió en línea en el contexto de las elecciones presidenciales de 2018.

Una vez más, esta alerta y respuesta tempranas es importante no solo para proteger a los grupos vulnerables que son los destinatarios de estas campañas emergentes, sino también para movilizar respuestas de una manera que mantenga la integridad del ecosistema de información más amplio, incluso para los miembros de grupos que no son necesariamente marginados. 

Las organizaciones comunitarias de la sociedad civil también están realizando esfuerzos de análisis forense digital, y hay evidencia de este impacto. Por ejemplo, días antes de las elecciones de 2019 en Moldavia, Facebook eliminó más de 100 cuentas y páginas identificadas por el grupo de la sociedad civil Trolless por participar en un comportamiento engañoso. Internews también ha desarrollado métodos para rastrear rumores en contextos comenzando en Liberia en 2014, los cuales ha integrado en una metodología detallada que forma parte de su colección de recursos de aprendizaje para la capacitación sobre desinformación y otros temas relacionados con los medios de comunicación. Sin embargo, es necesario trabajar mucho para garantizar que los grupos locales de la sociedad civil tengan acceso a la experiencia en análisis forense digital y las herramientas de monitoreo de medios de comunicación que ayudan a los investigadores a identificar problemas. NDI ha desarrollado la guía Análisis de datos para el monitoreo de redes sociales y la ha traducido al árabe, portugués y español, en parte para abordar esta brecha en la comunidad de investigación. Hay más ejemplos disponibles en la Base de datos de intervenciones.

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

La defensa de la sociedad civil es fundamental para cambiar el producto, las políticas y la asignación de recursos de las plataformas. También es absolutamente esencial para plantear inquietudes a las plataformas en maneras que las obliguen a actuar. Nuevamente, dado que los responsables de la desinformación a menudo se enfocan en cuestiones polémicas específicas del contexto, incluidas las divisiones sociales y políticas, las organizaciones que representan los intereses de grupos históricamente marginados pueden ser las más indicadas para identificar problemas emergentes, que de otro modo no serían obvios para las plataformas o los reguladores aparentes, y abogar por la reforma. 

En los EE. UU., un exitoso esfuerzo de defensa de la sociedad civil llevó a Reddit a prohibir 2000 subreddits (foros dedicados a comunidades particulares o áreas de interés), incluidos r/The_Donald, r/gendercritical y r/ChapoTrapHouse. Las decisiones marcaron un cambio importante en la política. Anteriormente, Reddit había funcionado como un espacio esencialmente libertario y las reglas de lo que estaba y no estaba permitido en cada subreddit fueron establecidas por moderadores y creadores de cada subreddit en lugar de la plataforma en sí. Esto condujo a algunos resultados bastante extraños, a veces encantadores: en un subreddit popular, las únicas publicaciones aceptables son imágenes de gatos de pie y el único título o comentario aceptable es "Cat". La teoría era que si a un usuario no le gustaba el contenido o la comunidad de un subreddit en particular, simplemente debería buscar o establecer otro subreddit que le gustara. Sin embargo, a medida que Reddit evolucionó de un lugar de nicho para el humor absurdo y los intereses compartidos a una importante plataforma de redes sociales, la desinformación, el discurso de odio y las posibilidades en torno a la construcción de comunidades comenzaron a generar daños en el mundo real: la generación y popularización de teorías de conspiración que luego saltaría la plataforma y se volvería viral, el abuso de la plataforma por parte de actores malignos y la coordinación en la plataforma que llevó a la actividad delictiva fuera de línea. Dado que todo el producto de Reddit se basa en la automoderación de la comunidad, la prohibición marcó una divergencia significativa en el enfoque. Si bien es posible que la plataforma haya decidido dar el paso de todos modos, es notable que la decisión de Reddit de poner en cuarentena a r/The_Donald se tomó dos días después de que el grupo de la sociedad civil de los EE. UU., Media Matters, lanzara una campaña para llamar la atención sobre cómo los miembros del subreddit apoyaban los ataques contra agentes de policía y funcionarios públicos en Oregón. 

Highlight


Grupos cívicos, alerta temprana y defensa frente a las plataformas

Facebook ha establecido vías estructuradas para la defensa y las aportaciones de la sociedad civil a través de su programa Civic Integrity y Global Insights7, una iniciativa diseñada para solicitar las aportaciones viables de las comunidades de base de todo el mundo. Estas aportaciones son intrínsecamente limitadas en su alcance y es poco probable que conduzcan a un cambio radical en el enfoque, pero ha creado un mecanismo a través del cual la sociedad civil de determinados países puede trabajar con un equipo interdisciplinario para adelantarse a los problemas o resolver rápidamente las amenazas en evolución a la integridad de la información. Este programa y ejemplo de un mecanismo a través del cual los grupos cívicos, especialmente los que representan a las mujeres o a los grupos marginados, pueden abogar por respuestas de la plataforma a las campañas de desinformación emergentes, tanto para proteger a los miembros de los grupos que representan, como para desarrollar una resistencia más amplia del ecosistema de la información. 

A pesar de estos pasos incipientes en la dirección correcta, los grupos y organizaciones de la sociedad civil fuera de los Estados Unidos y, en menor medida, Europa, se encuentran en desventaja en su capacidad para llevar a cabo una defensa efectiva frente a las plataformas. Los intentos más exitosos de cambiar el comportamiento de las plataformas, como en Myanmar, Kenia o Taiwán, han estado acompañados de presiones del gobierno, la sociedad civil o los medios de comunicación de los EE. UU. Existen ciertas limitaciones que las CSO de base enfrentan fuera de los EE. UU.: 

  • Incentivo financiero: para la mayoría de las empresas, los Estados Unidos son el mercado más grande en términos de rentabilidad financiera (aunque no de usuarios absolutos o de crecimiento). Por lo tanto, los esfuerzos en busca de apoyo en los EE. UU. y una revisión negativa de esos esfuerzos por parte de los expertos generan un impacto en el comportamiento del consumidor, que influye directamente en los resultados de una empresa determinada. 
  • El espectro de regulación. Para las plataformas estadounidenses, la regulación que surge de Washington es lo suficientemente preocupante como para que las empresas a menudo intenten adelantarse a los problemas que preocupan a los votantes y, por lo tanto, lo más probable es que conduzca a los tipos de regulación que pueden ser perjudiciales para los intereses u operaciones comerciales. 
  • Afinidad cultural. Las plataformas de los EE. UU. y sus empleados están más claramente alineadas con la sociedad civil estadounidense que con los grupos de la sociedad civil a nivel mundial, por lo que las críticas aterrizarán con un peso emocional de una manera que puede afectar la moral de los empleados, conducir a levantamientos internos o incluso repercutir más claramente en el liderazgo de tal manera que equilibre otros intereses. Por ejemplo, el discurso de odio dirigido a los afroamericanos es un daño más fácil de entender para las empresas con personal estadounidense que el discurso de odio dirigido a los dalit en la India. Los debates sobre la libertad de expresión están arraigados en un contexto cultural estadounidense, mientras que las preocupaciones que conducen al deseo de armonía social pueden no resonar tan fácilmente. 
  • Acceso. En muchos países, incluso en aquellos en los que la mayoría de la población utiliza una plataforma, las empresas tienen, en el mejor de los casos, personal de ventas y de políticas en el lugar. El personal de políticas es lobista: se lo recompensa en función de su capacidad para dar forma al entorno regulatorio de una manera que beneficie a la empresa. No son contratados ni recompensados por sus relaciones con la sociedad civil y, a menudo, luchan por navegar por la compleja red de intereses de una plataforma tecnológica determinada. En el mejor de los casos, estos puntos de contacto limitados resultan en inacción. Mucho peores son aquellos casos en los que el equipo de políticas de la empresa en el país tiene intereses que se oponen activamente a los grupos de la sociedad civil o pueden ponerlos en peligro (por ejemplo, cuando un grupo es crítico con el gobierno). En los Estados Unidos, la sociedad civil tiene múltiples puntos de contacto con la representación de la empresa, en todos los equipos y niveles de antigüedad. Por lo tanto, la sociedad civil en los mercados más pequeños lucha por encontrar el punto adecuado de apalancamiento dentro de una empresa, incluso cuando esas empresas tienen equipos diseñados para cubrir el tema de interés. 
  • Brecha de conocimiento. Los grupos de la sociedad civil, en particular los que trabajan en temas que no están directamente relacionados con los problemas digitales o la desinformación, a menudo carecen de conocimientos suficientes sobre cómo funcionan las plataformas tecnológicas, las herramientas y los recursos que tienen para abordar los problemas o las tensiones endémicas y posibles externalidades negativas que rodean las decisiones sobre la moderación del contenido. 

Esfuerzos como la Design 4 Democracy (D4D) Coalition, que incluye al Instituto Nacional Demócrata (NDI, por sus siglas en inglés), el Instituto Republicano Internacional (IRI), la Fundación Internacional para Sistemas Electorales (IFES) e International IDEA, así como varias ONG de base y la KeepItOn Coalition, dirigida por AccessNow, han comenzado a afrontar el desafío del apalancamiento frente a las empresas. Al crear vías confiables a través de las cuales las CSO de base pueden trabajar con organizaciones no gubernamentales internacionales (INGO, por sus siglas en inglés) de mayor capacidad en los esfuerzos en busca de apoyo, la brecha comunicacional debería ser teóricamente más fácil de superar. Sin embargo, es necesario trabajar mucho para garantizar que las empresas se desarrollen e inviertan aún más en los equipos que necesitan para garantizar que las políticas y los productos respondan a los desórdenes de información hiperlocal (información centralizada en una comunidad bien definida) que conducen a resultados negativos.

Highlight


Enfoque de la investigación: El dilema de la expresión libre de normas

En el transcurso de la investigación para este proyecto, varios encuestados identificaron las posibles compensaciones de la libertad de expresión por la regulación de las plataformas digitales como un debate político clave en curso. En Ucrania, por ejemplo, el conflicto armado con los separatistas apoyados por Rusia en las regiones orientales del país, Donetsk y Luhansk, ha originado una necesidad imperiosa de equilibrar la libertad de expresión y la seguridad nacional. El gobierno de Ucrania ha prohibido las plataformas de redes sociales rusas y las cadenas de televisión nacionales acusadas de difundir propaganda pro rusa, recibiendo reprimendas de organizaciones internacionales y organizaciones no gubernamentales internacionales que defienden la libertad de los medios de comunicación. Aunque no hay un consenso claro sobre la cuestión de la regulación de las plataformas, los grupos de defensa cívica son importantes conductos para canalizar los argumentos a los responsables de la toma de decisiones. 

A principios de 2019, la presión internacional de varias partes interesadas, incluidos los esfuerzos de la sociedad por conseguir apoyo, alentó a Facebook a aumentar la supervisión de la publicidad política, especialmente antes de las elecciones cruciales en India, Nigeria, Ucrania y la Unión Europea. Estos esfuerzos han llevado a Facebook a "extender algunas de sus reglas y herramientas de publicidad política para frenar la interferencia electoral en India, Nigeria, Ucrania y la Unión Europea antes de votaciones significativas". La iniciativa basada en la web Media Matters for Pakistan también destaca los esfuerzos independientes para responsabilizar a los principales medios de comunicación ante los más altos estándares de periodismo. Este grupo juvenil de vigilancia crea conciencia sobre los problemas éticos e ideológicos que se encuentran en el contenido de los medios de comunicación y se manifiesta en contra del aumento de las restricciones del gobierno paquistaní contra los medios digitales y la libertad de expresión. Del mismo modo, el EU DisinfoLab proporciona investigación y análisis sobre campañas de desinformación en la región, en plataformas de medios tradicionales y en línea, para garantizar que sus esfuerzos en busca de apoyo estén "basados en análisis sólidos". Las iniciativas mencionadas anteriormente se unieron a actores gubernamentales para liderar reformas positivas con el fin de aumentar la transparencia. Para obtener más información sobre la participación de la plataforma, consulte la sección de la guía sobre el tema o continúe leyendo la sección sobre el desarrollo de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación.

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

La sociedad civil juega dos papeles importantes en las respuestas del gobierno a la desinformación: (1) abogar por políticas prodemocráticas que protejan y promuevan la integridad de la información, especialmente la protección de la libre expresión y la libre asociación de grupos marginados; y (2) asegurar que las respuestas a la desinformación, operaciones de información y otros desórdenes informativos no repriman la libertad de expresión, el acceso a la información o la política participativa en formas que podrían dañar los procesos y principios democráticos, dado que estas respuestas en sí mismas pueden, en última instancia, usarse de manera desproporcionada para socavar los derechos democráticos de los grupos marginados.
 

Highlight


La guía del Poynter Institute de acciones contra la desinformación en todo el mundo detalla una serie de iniciativas de expertos en políticas para hacer frente a la creciente amenaza de la desinformación.

En el peor de los casos, las respuestas del gobierno pueden incluir cierres de redes sociales o de internet, regulación estricta del discurso en línea o criminalización de ciertos tipos de actividad en línea, todo lo cual puede ser contraproducente al infringir las libertades civiles o exacerbar la desigualdad política. Por lo tanto, la sociedad civil sirve no solo como una fuerza útil para contrarrestar esos resultados potenciales, sino también como un espacio en el que las intervenciones políticas, técnicas o sociales se pueden probar, socializar e iterar antes de estar sujetas a ajuste. La sociedad civil también está aliviada con otro desafío que tienen los gobiernos: dada la naturaleza a menudo política de la desinformación y su utilización por parte de los actores políticos, los gobiernos en ejercicio a menudo carecen de la neutralidad real y percibida para garantizar que las respuestas se consideren justas, en lugar de un intento para socavar una oposición que bien puede ser el principal beneficiario de la desinformación.

Arabia Saudita amenazó a los ciudadanos y residentes que difundían rumores y noticias falsas con cinco años de cárcel y fuertes multas, enviando una fuerte señal tras el brutal asesinato del columnista del Washington Post Jamal Khashoggi en 2018 en la embajada saudí de Estambul. En el mismo año, los funcionarios de Uganda introdujeron un "impuesto a las redes sociales" que requiere que los usuarios paguen 200 chelines ugandeses al día para acceder a plataformas específicas de redes sociales y en línea a fin de hacer frente a los chismes en línea. En Bielorrusia, el parlamento aprobó una ley que permite la persecución de ciudadanos que difundan noticias falsas. Las organizaciones como el Committee to Protect Journalists (CPJ) y sus socios han estado a la vanguardia de los esfuerzos de promoción y reforma de políticas para apoyar la libertad de expresión y contrarrestar los esfuerzos de censura en lugares como Sudáfrica y Bolivia, donde los líderes usan la desinformación como una excusa para encarcelar a los periodistas en medio de los temores por la pandemia de COVID-19. 

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

Las intervenciones de alfabetización mediática y digital se implementan bajo el supuesto de que si las audiencias pueden utilizar las habilidades de pensamiento crítico necesarias mientras consumen contenido de medios tradicionales y en línea, aumentará su capacidad para diferenciar entre contenido fáctico y engañoso o falso. Las CSO están particularmente bien posicionadas para implementar estos programas debido al papel de la sociedad civil en la creación de divisiones transversales e intereses compartidos. Más allá de las posibles mejoras en la capacidad ciudadana para identificar noticias falsas, estos programas pueden ayudar a crear conciencia sobre cómo los relatos de desinformación dañan de manera desproporcionada a las mujeres y los grupos marginados. Es plausible que esta conciencia compartida pueda ayudar a los grupos civiles a generar un apoyo más amplio para la defensa o las respuestas, aunque la evidencia del efecto de estos programas en las actitudes de los ciudadanos hacia los grupos marginados aún no está clara. Este tipo de intervenciones tienen como objetivo ayudar a las audiencias a actuar con cautela y evitar la confianza ciega en el contenido de los medios de comunicación y otra información disponible en internet. Las intervenciones se implementan en respuesta a las audiencias que no solo consumen desinformación, sino que también ayudan a difundir dicho contenido a un grupo más grande de audiencias sin esfuerzos por verificar la precisión del contenido. El creciente desplazamiento de los medios de comunicación hacia el entorno digital ha demostrado ser un arma de doble filo. Internet y las plataformas de redes sociales han mejorado el acceso a los medios de comunicación y la información, así como la pluralidad de fuentes de noticias, pero han contribuido a una disminución en la calidad de las noticias y la información. Con el tiempo, una mejor alfabetización mediática y digital entre las audiencias podría desempeñar un papel importante para ayudar a reducir la susceptibilidad a la desinformación.

Como algunos responsables de la implementación identificaron a través de su trabajo, gran parte de la alfabetización mediática y digital y las habilidades de pensamiento crítico asociadas pueden y deben enseñarse desde una edad temprana, de manera similar a otras habilidades educativas necesarias. Learn to Discern (L2D) del International Research & Exchanges Board (IREX) es una de las iniciativas de alfabetización mediática más exitosas que se basa en el punto mencionado anteriormente. El IREX ha desarrollado un plan de estudios de alfabetización mediática que se imparte en aulas, bibliotecas y centros comunitarios en Ucrania, y llega a más de 62.000 personas de todas las edades. El enfoque adoptado por el IREX tiene como objetivo desarrollar la resiliencia de las comunidades para resistir la desinformación, la propaganda y el discurso de odio, que está muy extendido en los medios tradicionales y en línea en Ucrania. Después de ganar mucho terreno y éxito en Ucrania, L2D se ha implementado en Serbia, Túnez, Jordania, Indonesia y Estados Unidos. Con un plan de estudios interactivo que involucra al público en el tema a través de juegos y contenido multimedia, la iniciativa L2D logró atraer a los adultos jóvenes y crear conciencia entre ellos sobre el impacto de la desinformación en la vida de los ciudadanos promedio. 

Un año y medio después del lanzamiento del proyecto en Ucrania, IREX realizó una encuesta de evaluación del impacto en 2017, que reflejó que el 28 % de los beneficiarios de L2D tienen "más probabilidades de demostrar un conocimiento sofisticado de la industria de los medios de comunicación" y el 25 % son "más propensos a autoinformarse verificando múltiples fuentes de noticias". Después de poner a prueba los planes de estudio mejorados de L2D en 2018 para más de 5.000 estudiantes en los grados 8vo. y 9no. en 50 escuelas, IREX evaluó a sus beneficiarios a través de una encuesta que demostró que los estudiantes de L2D se desempeñaron mejor que sus compañeros en un grupo controlado cuando "identificaron hechos y opiniones, historias falsas, discursos de odio y demostraron un conocimiento más profundo del sector de los medios de comunicación". Desde entonces, IREX ha ampliado los planes de estudio a más de 650 escuelas en Ucrania y colabora con el Ministerio de Educación y Ciencia de Ucrania para incorporar los planes de estudio en el sistema educativo de Ucrania. Desde 2015, IREX ha recibido el apoyo del gobierno canadiense, la Embajada estadounidense en Ucrania, y el Departamento para el Desarrollo Internacional del gobierno del Reino Unido, y se ha asociado con organizaciones locales como la Academia de Prensa Ucraniana y StopFake para implementar el programa L2D desde 2015. 

Debido a la mayor atención prestada a la propaganda y la desinformación prorrusas, Ucrania y los países vecinos de Europa del Este han servido como laboratorio de pruebas para un gran número de iniciativas contra la desinformación. Sin embargo, las iniciativas de alfabetización mediática y digital no se han limitado a Europa ni a abordar la propaganda rusa, y han adoptado muchas formas en otras partes del mundo. El creciente uso de herramientas de información y tecnológicas en África ha dado lugar a iniciativas como el African Centre for Media and Information Literacy (AFRICMIL) con el objetivo de educar a los jóvenes sobre el uso eficaz de esas herramientas. En 2008, AFRICMIL inició la primera  Conferencia sobre alfabetización mediática en África para promover aún más ese objetivo. Con el apoyo de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), AFRICMIL ha trabajado con la juventud nigeriana para mejorar su comprensión del impacto de los medios de comunicación y el consumo de información a fin de aumentar su alfabetización mediática. La conferencia lanzó la MIL University Network of Nigeria (MILUNN) con el fin de involucrar a los jóvenes de Nigeria para que sean más conscientes del papel de los medios de comunicación y la información en sus comunidades y crear conciencia sobre el tema. La contribución realizada por AFRICMIL para concientizar a los periodistas sobre las herramientas de las tecnologías de la información y comunicación y crear un diálogo entre pares a nivel local y regional con todo el contenido ha demostrado ser fundamental para garantizar que se escuchen las voces de los jóvenes. La organización egipcia de verificación de datos Matsda2sh ("¡No lo crea!") ha llegado a más de 500.000 seguidores en Facebook con videos y fotos de concientización que destacan los peligros de la desinformación para la sociedad mediante infografías y declaraciones desmentidas con hechos, incluidas declaraciones hechas por el presidente egipcio Abdel Fattah Al-Sisi.

En Indonesia, la organización civil comunitaria contra el engaño Masyarakat Anti Fitnah Indonesia (MAFINDO) ha dirigido un CekFacta, un sitio de iniciativa de verificación de contenido que promueve la alfabetización digital entre el público. La página de Facebook de MAFINDO tiene más de 34.000 "Me gusta" y a través de ella crea conciencia sobre los engaños y los peligros que representan para la comunidad. MAFINDO también ha trabajado en el mapeo de un engaño popular en 2018 y 2019 para mejorar la comprensión de las audiencias sobre el contenido malicioso que más se infiltra en sus sociedades. El grupo ha publicado videos en su página que apuntan a resaltar los peligros de los engaños y la información falsa; dos de los videos subidos a Facebook han superado los 32.000 "Me gusta". Sin embargo, a pesar del número relativamente grande de seguidores de la página y el apoyo que parte del contenido del grupo obtiene de las audiencias, las publicaciones recientes no han recibido más de un promedio de unos pocos cientos de visitas y un mínimo de "Me gusta" e interacción de las visitas. Además, otro grupo de Indonesia, Turn Back Hoax, tiene más de 200.000 "Me gusta" y seguidores en su página de Facebook y recibe participación regular en las publicaciones de los seguidores.

Design Tip


Con el fin de evaluar eficazmente la integridad de la información para comprender las necesidades y adaptar las respuestas programáticas a contextos específicos, las campañas de alfabetización digital y mediática deben ir acompañadas de las iniciativas de monitoreo y verificación de los medios de comunicación que se analizan en la siguiente sección.  

Las iniciativas globales de código abierto, como el Mozilla Web Literacy Framework y la Facebook Digital Literacy Library, donde los usuarios pueden acceder a materiales de capacitación educativa que pueden consultar en cualquier momento y en cualquier lugar, ofrecen una oportunidad para que los usuarios aprendan a navegar de manera efectiva por el mundo virtual. Los juegos interactivos como Bad News DROG, patrocinado por el Dutch Journalism Fund, llevan a los usuarios a un viaje en el que se les pide que demuestren su credibilidad. Dicho software interactivo sirve como herramienta educativa. Proporciona un contexto más digerible para los peligros de la desinformación en la vida cotidiana de los ciudadanos y de la sociedad en general. La iniciativa Checkology del News Literacy Project fue creada para apoyar tanto a los estudiantes como a los educadores y sirve como herramienta educativa para brindar una comprensión integral a los consumidores de información. El proyecto afirma haber logrado resultados significativos en las aulas virtuales, ya que "más de dos tercios de los estudiantes pudieron identificar los estándares de periodismo de calidad después de completar las lecciones de Checkology".

Los programas de alfabetización digital y mediática ayudaron significativamente a comprender el consumo de las audiencias y a enmarcar sus necesidades con el fin de aumentar la resiliencia a la información falsa, principalmente la desinformación dirigida que tiene como objetivo crear divisiones entre los ciudadanos.

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

En entornos de información en los que los medios estatales o el gobierno son los principales responsables de la desinformación, y en los que la propagación activa de la desinformación va acompañada de censura, la sociedad civil ha sido absolutamente importante en el desarrollo de redes y entornos confiables a través de los cuales se puede compartir información. Si bien el "boca a boca" y otras actividades creativas de distribución de información siempre han estado presentes en sociedades cerradas, esos canales han adquirido una mayor formalidad y escala a medida que las tecnologías digitales, y en particular las aplicaciones de chat grupal encriptadas, se han vuelto ampliamente accesibles.

En Zimbabue, donde los medios estatales dominan el espacio mediático, grupos de medios digitales como 263 Chat, creado en 2012, capitalizaron el mayor uso de plataformas digitales en el país para que los ciudadanos puedan expresarse más, aumentar su acceso y fomentar el diálogo entre ellos. El grupo entendió desde el principio que con el uso de WhatsApp, que representa casi la mitad de todo el tráfico de internet en Zimbabue, pueden elaborar un paquete informativo de noticias de una manera más digerible que aborde la propagación de la desinformación en el país. De esta manera, 263 Chat distribuye su publicación electrónica de forma gratuita a más de 35.000 suscriptores en WhatsApp. El fundador de 263 Chat, Nigel Mugamu, tiene más de 100.000 seguidores en Twitter, y la cuenta de Twitter de 263 Chat tiene cerca de medio millón de seguidores, un número impresionante para una plataforma ahora ampliamente utilizada en Zimbabue.

Existen varias iniciativas similares en Venezuela, un país en el que el espacio de información pública está dominado casi por completo por la propaganda y la censura del gobierno. Varios grupos de la sociedad civil y activistas independientes han creado canales de WhatsApp, a veces formados por varios cientos de miembros, a través de los cuales se transmite información verificada, creíble y confiable. Esos canales han jugado un papel interesante durante la pandemia de COVID-19. Si bien se crearon originalmente para abordar cuestiones específicas de interés para determinados grupos de la sociedad civil, desde entonces estas redes se han utilizado como canales de distribución para obtener información de salud precisa, incluidas estadísticas sobre la propagación del virus y recomendaciones de anuncios de servicios públicos sobre cómo evitar contraer el virus. 

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

La mayor parte de este capítulo ha explorado las intervenciones de la sociedad civil que pueden abordar los desafíos a la integridad de la información. Sin embargo, otra consideración importante es de qué manera las organizaciones de la sociedad civil, sus beneficiarios y los temas en los que trabajan a menudo se convierten en los destinatarios de campañas de desinformación.

Highlight


Enfoque de la investigación: Represalias contra las iniciativas de lucha contra la desinformación

Más allá de las amenazas asociadas a las campañas de desinformación dirigidas a grupos cívicos, los autores de la desinformación también se dirigen a las organizaciones que trabajan en la verificación de datos, identificación de relatos y/o en la concientización del público sobre el problema de la desinformación. Las personas que respondieron a las entrevistas del CEPPS en Ucrania señalaron varios casos de represalias contra grupos cívicos que trabajan en la desinformación, que van desde refutaciones públicas y ataques retóricos hasta acoso, amenazas físicas y vandalismo. 

Esto tiene varios impactos potenciales: puede socavar la confianza en el grupo o la organización, reduciendo su impacto y afectando el financiamiento; puede dar lugar a ataques contra los grupos atendidos por las organizaciones de la sociedad civil (CSO, por sus siglas en inglés), en particular las comunidades marginadas, lo que a menudo conduce a la pérdida de poder político y, en el peor de los casos, a la pérdida de vidas; y, finalmente, los grupos de la sociedad civil centrados en un tema o grupo a menudo se ven atrapados en campañas de desinformación diseñadas para desacreditar o minar sus agendas, incluso si no son atacados directamente. Por lo tanto, todas las organizaciones de la sociedad civil, independientemente de su enfoque, se ven afectadas por la desinformación y tienen un papel que desempeñar para combatirla.

Además de los grupos de la sociedad civil y las intervenciones que trabajan explícitamente en la desinformación, la comunidad de asistencia a la democracia debe trabajar con la sociedad civil en general para garantizar que estén preparados para ataques de información diseñados para desacreditar a una organización, sus beneficiarios o el área temática en la que trabajan.

Esa preparación debe incluir:

  • Todos los grupos de la sociedad civil deben recibir capacitación en la protección básica de datos y la seguridad de la información para garantizar la seguridad de la información financiera sensible, el funcionamiento interno y, lo que es más importante, las bases de datos de membresía o las comunicaciones con grupos e individuos vulnerables. 
  • Se debe alentar a los grupos de la sociedad civil a tener un plan de respuesta a las crisis por ataques a la información. ¿Quién debe participar en las discusiones de respuesta? ¿En qué casos respondería el grupo de la sociedad civil? ¿Qué tan rápido responderán? ¿Cómo se asegurarán de que la respuesta llegue a las audiencias destinatarias? ¿Se notificará a los beneficiarios o grupos miembros sobre ataques a la información o filtraciones de datos? ¿De qué manera? 
  • Los grupos que trabajan en temas que puedan estar sujetos a desinformación deben recibir capacitación sobre cómo anticipar, identificar, informar y contrarrestar la desinformación. Se deben poner en marcha subvenciones de respuesta rápida e iniciativas de desarrollo de capacidades en torno a áreas problemáticas específicas. 

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

La cooperación internacional es un factor fundamental en el éxito de la sociedad civil. Además de la cuestión del apalancamiento concerniente a las empresas que se discutió anteriormente en este capítulo, la cooperación internacional permite a la sociedad civil compartir las mejores prácticas en los campos en rápida evolución de la ciencia forense digital y las herramientas para contrarrestar mensajes, y compartir información sobre amenazas transnacionales emergentes y la proliferación de conjuntos de herramientas de desinformación utilizados por actores malignos tanto nacionales como extranjeros. 

Por ejemplo, a medida que la COVID-19 avanzaba, proliferó una operación de información coordinada del Partido Comunista Chino (CCP, por sus siglas en inglés) diseñada para sembrar información errónea sobre los orígenes del virus, socavar los éxitos de los actores democráticos en la lucha contra el virus y aumentar las historias en torno a la ayuda del CCP a los países que luchan por contener y tratar el virus. El IRI convocó a un grupo de más de cien representantes de la sociedad civil de todos los rincones del mundo para facilitar el intercambio de información sobre las tácticas y narrativas del CCP relacionadas con el virus, así como también las mejores prácticas para contrarrestar esa operación de información. Estas redes y el intercambio de información son absolutamente fundamentales para la sociedad civil, ya que intentan adelantarse a las amenazas de la información.    

La colaboración regional también ha ayudado a exponer y contrarrestar las operaciones de información transfronterizas coordinadas. Los activistas en países afectados por la desinformación rusa han colaborado para compartir información sobre tácticas y relatos rusos que se repiten en sus países, o donde los mismos recursos (cuentas, páginas, grupos, granjas de contenido, etc.) se utilizan a través de las fronteras. También han colaborado en la aplicación de inteligencia de código abierto (OSINT, por sus siglas en inglés) para exponer las mentiras rusas: el grupo InformNapalm es un esfuerzo voluntario compuesto por personas de diez países que exponen "evidencia de la agresión rusa al mundo", incluida la publicación de los nombres de los militares rusos que han luchado en Ucrania, Georgia y Siria, basada en la actividad en redes sociales de esas personas.

Como se mencionó, la International Fact-Checking Network del Poynter Institute proporciona un mecanismo para la certificación de grupos de verificación de datos de acuerdo con sus principios y para coordinar la verificación de datos a nivel mundial. Además, el sistema y los miembros de la IFCN se han integrado en los sistemas en línea de Facebook para revisar y potencialmente degradar el contenido. Esto tiene el potencial de amplificación tanto a través de la plataforma tecnológica en línea como a través de la red de organizaciones que comparten las mejores prácticas y realizan investigaciones y verificaciones de datos a nivel mundial.

Algunas de las iniciativas de la sociedad civil más exitosas que luchan contra la desinformación son las iniciativas dirigidas por voluntarios. Esto refleja una reacción comunitaria a lo que es una amenaza relativamente nueva. Sin embargo, la desinformación en línea no solo llegó para quedarse, sino que es probable que haga metástasis y evolucione a medida que proliferen las plataformas, los actores y las tácticas. Por lo tanto, la sociedad civil necesita un modelo de financiamiento que reconozca la necesidad de contar con personal especializado y dedicado a largo plazo. Según Thomas Kent, "Las subvenciones a menudo caen en el rango de los USD 10.000 a USD 50.000, lo que no es suficiente para contratar personal y poner en marcha proyectos importantes. Los verdaderos proyectos revolucionarios podrían ser elementos caros, como abrir estaciones de radio y televisión para competir con las emisoras controladas por gobiernos autoritarios e intereses financieros corruptos. Los proyectos de este alcance son casi imposibles, dada la forma en que se maneja el financiamiento en la actualidad". 

Fomento de la capacidad de la sociedad civil para mitigar y contrarrestar la desinformación

La sociedad civil desempeña un papel fundamental y variado en la infraestructura de integridad de la información, pero la mayoría de las organizaciones que operan en este espacio carecen de recursos, tienen poca capacidad y son incipientes. Las entidades de financiamiento y los encargados de la implementación deben invertir en el desarrollo a largo plazo de la experiencia a nivel de base, en la colaboración internacional y en la comunicación local a global para garantizar que las amenazas futuras a la integridad de la información se aborden con prontitud, y deben crear un entorno global en el que la desinformación se convierta en una táctica menos eficaz para la guerra híbrida, la competencia política o las intervenciones malignas en el discurso civil. 

 

Recomendaciones

Las organizaciones civiles desempeñan un papel clave en la identificación y respuesta a los desórdenes informativos, especialmente cuando pueden establecer una reputación como actores objetivos relativamente independientes. Sin embargo, estas ventajas vienen con compensaciones, especialmente si sus electores tienden a ser relativamente urbanos, altamente educados, más ricos o más conectados a internet en promedio. Los diseños de programas deben tener cuidado al focalizar las intervenciones para fomentar la aceptación entre los grupos desatendidos. 

Los enfoques de redes y coaliciones para contrarrestar la desinformación, incluida la colaboración internacional, pueden identificar ventajas comparativas, aumentar la escala y mejorar la diversidad de enfoques programáticos. 

En relación con lo anterior, los programas enfocados en la sociedad civil deben incorporar un enfoque intencional en la inclusión, y más específicamente, la interseccionalidad, particularmente en los enfoques de coalición y redes. El apoyo a los grupos civiles debe incorporar un análisis distinto para identificar los desafíos únicos que enfrentan los grupos con identidades interseccionales dentro de un contexto histórico específico, ya que los responsables de campañas de desinformación pueden depender de la apatía o complicidad de grupos identitarios no marginados. La acción colectiva es más probable cuando estos grupos e individuos que no están políticamente marginados comprenden que tienen interés en defender los derechos de los grupos más pequeños y vulnerables.

Las organizaciones civiles pueden considerar asociarse con instituciones políticas o sociales existentes para ajustar las respuestas programáticas a la desinformación, especialmente si la organización en sí tiene una audiencia pequeña o limitada. Un ejemplo podría incluir la asociación con los sistemas escolares para implementar programas de alfabetización mediática.

Los programas que trabajan en la defensa, especialmente en torno a la regulación de internet o plataformas, deben considerar el contexto cultural específico de los debates en torno a las compensaciones entre libertad de expresión y seguridad. 

Los programas que trabajan con organizaciones civiles para implementar programas de lucha contra la desinformación deben considerar componentes de capacitación en seguridad específicos, incluida la ciberseguridad, la protección de datos, los planes de respuesta para ataques a la información y la seguridad física contra represalias. 

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Por Lisa Reppell, especialista en redes sociales mundiales y desinformación del Centro de Investigación y Aprendizaje Aplicado de la Fundación Internacional para Sistemas Electorales 

La desinformación digital es una amenaza real e inmediata para los organismos electorales de todo el mundo. Sin embargo, las autoridades electorales de diferentes países están aceptando, en distinto grado, la expectativa de que tienen una función importante que desempeñar para luchar contra la desinformación relacionada con los procesos electorales. Algunos organismos electorales tienen capacidades sofisticadas de monitoreo de redes sociales y equipos dedicados para dar seguimiento y respuesta a la desinformación; otros no tienen presencia en las redes sociales. Para cada organismo, la desinformación es una amenaza que reciben y que es difícil de manejar, mientras que la principal y gran tarea del organismo electoral de ofrecer credibilidad en las elecciones continúa siendo una tarea tan compleja como siempre.

La resistencia de un organismo electoral a asumir un papel en la lucha contra la desinformación puede basarse en la suposición de que cualquier respuesta requeriría que la institución invierta en un enfoque técnico completamente nuevo que exceda su capacidad legal, presupuestaria o humana. Si bien la tecnología y las redes sociales han aumentado la celeridad y concientización de la desinformación como un problema para las instituciones y los procesos democráticos, es importante reconocer que las respuestas no necesariamente tienen que ser de naturaleza tecnológica. Además de las respuestas de tecnología avanzada que algunos organismos pueden estar equipados para adoptar, también hay una variedad de respuestas que los organismos pueden tomar basadas en las funciones básicas existentes de relaciones públicas, comunicación y educación a votantes. Encontrar una forma alternativa de darle un marco a las iniciativas de un organismo electoral contra la desinformación, como la inversión en la capacidad de comunicación estratégica de las autoridades electorales en caso de crisis, también puede ser una manera de obtener apoyo institucional para nuevas iniciativas.

La función específica de un organismo electoral para contribuir a la integridad del espacio de información en torno a las elecciones variará según su cometido institucional, sus recursos y su capacidad. No obstante, los organismos electorales de todo el mundo están desarrollando respuestas de forma individual para luchar contra la desinformación en el proceso electoral y están intercambiando las lecciones aprendidas con sus colegas. En esta sección de la guía, figuran una descripción general y un análisis preliminar de las diversas respuestas de los organismos electorales para luchar contra la desinformación electoral. El propósito de este análisis es ayudar a las autoridades electorales, así como a las entidades donantes y a las encargadas de la implementación, a combinar, ampliar y adaptar enfoques basados en la capacidad de un organismo electoral y en el contexto particular en el que está trabajando.

"Gestionamos no solo las elecciones, sino que hay otra cuestión por la que tenemos que preocuparnos. Este es el problema de las redes sociales. Si bien tiene grandes repercusiones, no es directamente un problema electoral". – Fritz Edward Siregar, comisionado de la Agencia de Supervisión de las Elecciones Generales de Indonesia (Bawaslu)

Informativo frente a Enfoques restrictivos para contrarrestar la desinformación

Una tensión fundamental que radica en la esencia de la manera en que los organismos electorales eligen responder ante situaciones de desinformación electoral es si el enfoque debe centrarse en aumentar la difusión de la información confiable o en limitar o sancionar el contenido o los comportamientos que se consideren problemáticos. Si bien es posible hacer ambas cosas con los recursos adecuados, para algunos organismos es una cuestión de cuál será el principio rector detrás de su enfoque. En un informe que aborda sus iniciativas contra la desinformación en 2018 y 2019, el Instituto Nacional Electoral de México (INE) resume esta elección y la filosofía detrás de su enfoque:

"En particular, el desafío de las estrategias de desinformación intencional representó para el INE una disyuntiva en cuanto a la forma en que podrían enfrentarla. Por un lado, intentando regular la información... sancionando prácticas perniciosas que, sin embargo, podrían derivar en restricciones indebidas al ejercicio de la libertad de expresión. Por otro lado, enfrentando la desinformación con su opuesto: la explicación puntual, oportuna y veraz del proceso electoral, sus etapas, tiempos, actores y responsables… El INE tuvo claro desde un inicio que esta segunda opción era la más adecuada…".1

Otros organismos electorales, a menudo de acuerdo con un enfoque intragubernamental más general, se equivocan en cuanto al enfoque de limitar el contenido y los comportamientos como un medio para prevenir daños.

Estrategias proactivas, reactivas y colaborativas

Las estrategias de los organismos electorales para combatir la desinformación abordadas en esta sección de la guía se agrupan en tres categorías: proactivas, reactivas y colaborativas. Se puede hacer clic en cada estrategia de la tabla que figura a continuación para explorar ejemplos mundiales, así como un análisis sobre las observaciones que deben hacerse al elegir un enfoque.

Los organismos electorales pueden adoptar estrategias proactivas antes de los períodos electorales para promover la confianza y la comprensión de los procesos electorales, establecer planes de contingencia ante inconvenientes y establecer normas y estándares de conducta durante las elecciones. Hay una mayor probabilidad de que las estrategias proactivas se elaboren a partir de las funciones preexistentes dentro de un organismo electoral. Al configurar una estrategia de lucha contra la desinformación, los organismos electorales y las entidades asociadas deben reconocer que los enfoques reactivos que procuran mitigar los impactos de la desinformación una vez que ya se encuentra en circulación solo pueden atender una parte del problema. Las autoridades electorales y las entidades donantes y encargadas de la implementación no deben permitir que un sesgo hacia la programación tecnológicamente innovadora socave la inversión continua en la creación de los tipos de capacidad duradera que hacen que los organismos electorales sean más resilientes ante cuestiones de desinformación.

      Explorar estrategias proactivas:
  1. Comunicación estratégica y educación a votantes para mitigar las amenazas de la desinformacióndesarrollar la resiliencia ante la desinformación y la información falsa al garantizar que los votantes reciban información confiable de manera anticipada, con frecuencia y de tal forma que les permita sentirse identificados.  
  2. Planificación de la comunicación en caso de crisis frente a amenazas de desinformaciónimplementar sistemas y procesos para que un organismo electoral esté preparado para responder a la información falsa y a la desinformación de manera rápida y con autoridad en situaciones de gran presión.
  3. Códigos de conducta o declaraciones de principios del organismo electoral para el período de las eleccioneselaborar normas y estándares para partidos políticos, candidatos, medios de comunicación y el electorado en general, mediante los que se promueva la integridad del entorno de información en relación con las elecciones.

 

Las estrategias reactivas de control y respuesta a los mensajes en circulación que pueden interrumpir los procesos electorales, generar desconfianza en las elecciones o cambiar ilegítimamente los resultados electorales son un aspecto importante en la lucha contra la desinformación. Las intervenciones reactivas pueden ser las primeras al definir un enfoque de lucha contra la desinformación, pero estos enfoques pueden ser, en términos tecnológicos, los más difíciles de implementar para los organismos electorales y los que requieren más recursos. Si bien las intervenciones reactivas son una parte fundamental de una respuesta multifacética a la desinformación, combinarlas con estrategias proactivas y garantizar que un organismo electoral tenga la capacidad y el deseo de implementarlas de manera efectiva es primordial para garantizar un enfoque eficaz.

      Explorar estrategias reactivas:
  1. Monitoreo de redes sociales para el cumplimiento legal y reglamentariomonitorear las redes sociales durante los períodos electorales para supervisar su uso por parte de los candidatos, las campañas y los medios de comunicación. 
  2. Escucha social para comprender las amenazas de desinformaciónextraer el significado de las conversaciones que tienen lugar en línea para dar forma a los mensajes y a las respuestas del organismo electoral ante situaciones de información falsa y desinformación durante los períodos electorales.
  3. Proceso de remisión y resolución de denuncias por desinformaciónestablecer un mecanismo o proceso mediante el cual las autoridades electorales o las personas a cargo del arbitraje electoral puedan resolver casos de desinformación e imponer las medidas reparatorias pertinentes. 

 

Sin importar de qué forma (estricta o amplia) un organismo electoral interpreta su responsabilidad de participar en el trabajo de lucha contra la desinformación, para lograr el máximo impacto, las iniciativas de las autoridades electorales deben coordinarse con las de otros organismos e instituciones estatales. Es probable que los organismos electorales potencien el impacto de sus esfuerzos mediante la coordinación o el intercambio con otras partes interesadas, incluidas empresas de tecnología y redes sociales, agentes de la sociedad civil y de los medios de comunicación tradicionales, y otras entidades estatales. Siempre habrá aspectos del problema de la desinformación que no estarán contemplados en la responsabilidad del organismo electoral. La distribución apropiada de responsabilidades de manera que permita que los organismos electorales centren sus iniciativas de lucha contra la desinformación en consideraciones de integridad electoral, mientras coordinan su respuesta con otras partes interesadas mejor preparadas para lidiar con otros aspectos del problema, dará lugar a una iniciativa más centrada en la parte que concierne al organismo electoral. 

      Explorar estrategias de coordinación:
  1. Coordinación entre los organismos electorales y las empresas de tecnología y redes socialescoordinación entre los organismos electorales y las empresas de tecnología y redes sociales para mejorar la difusión de información confiable o limitar la difusión de contenido problemático durante los períodos electorales.
  2. Coordinación entre los organismos electorales y la sociedad civil y los medios de comunicaciónasociaciones con la sociedad civil y los medios de comunicación para forjar coaliciones con el objetivo de luchar contra la desinformación y mejorar la capacidad de un organismo electoral para monitorear la información falsa y la desinformación y dar respuesta. 
  3. Coordinación entre los organismos electorales y otras agencias estatalesasociaciones con otras entidades estatales a fin de distribuir responsabilidades y coordinar respuestas ante situaciones de información falsa y desinformación.
  4. Intercambio de conocimientos entre colegas de organismos electorales sobre estrategias de lucha contra la desinformacióncrear oportunidades para el intercambio de lecciones aprendidas y buenas prácticas entre las autoridades electorales.

¿Los organismos electorales deberían tener la responsabilidad de luchar contra la desinformación? 

Este asunto es motivo de discordia entre los organismos electorales. Las diferencias en los mandatos legales, el contexto político, la disponibilidad de recursos y la capacidad técnica influyen en el grado en que un organismo electoral podría estar dispuesto y ser capaz de desempeñar una función central en la lucha contra la desinformación. 

Diferentes organismos electorales subrayan varios aspectos de su mandato legal para justificar su función en la labor de lucha contra la desinformación. La supervisión de la conducta de los candidatos políticos o los medios de comunicación durante el período electoral, o el cometido de brindar información o educación a votantes, son algunas de las vías que los organismos electorales pueden utilizar para definir los parámetros de su función en la lucha contra la desinformación. La responsabilidad general de los organismos electorales de conservar el derecho fundamental de voto de los ciudadanos también puede ser motivo para que un organismo asuma un papel activo. Los diferentes mandatos legales informarán qué programación puede implementarse con un organismo electoral. Por ejemplo, una extensión de las responsabilidades de algunos organismos electorales de monitoreo de los medios tradicionales durante los períodos electorales, naturalmente, podría extenderse también al monitoreo de las redes sociales. Para otros organismos, el monitoreo de las redes sociales durante los períodos electorales sería una extralimitación inapropiada de su mandato legal. Cualquier programación para reforzar las respuestas de los organismos electorales a la desinformación debe basarse en una comprensión profunda de los límites de lo que se permite en términos legales. 

Desde la perspectiva de los recursos, los presupuestos ajustados o el control limitado por parte del organismo electoral sobre cómo utilizar los fondos asignados pueden dificultar la asignación de recursos a las actividades contra la desinformación, especialmente si se considera que se desvían recursos de otros aspectos esenciales de la administración electoral. Si los organismos electorales hacen todo lo posible por reunir los recursos para cumplir su cometido principal de llevar a cabo las elecciones, es probable que la inversión de recursos para desarrollar una capacidad significativa para abordar la desinformación sea insostenible. 

Highlight


Aunque las respuestas a la desinformación pueden estar en diferentes departamentos de un organismo electoral, muchos de ellos han optado por dar esta responsabilidad al personal de relaciones públicas o de comunicación. La Comisión Electoral Nacional Independiente de Nigeria, que cuenta con 90 empleados de comunicación a tiempo completo, ha promulgado y puede considerar enfoques de lucha contra la desinformación que es poco probable que sean viables para un organismo de electoral con un personal de comunicación de pocas personas.

Desde la perspectiva de la capacidad técnica y humana, los organismos también pueden carecer de los recursos humanos para contemplar respuestas a la desinformación que requieren mucho tiempo o son tecnológicamente sofisticadas. La selección, contratación y retención de personal que tenga grandes conocimientos de redes sociales y tecnología puede ser difícil, especialmente si el organismo electoral está intentando desarrollar una capacidad completamente nueva, en lugar de fortalecer o invertir más recursos en una capacidad que ya existe. 

Como consideración final, el contexto político en el que un organismo lleva a cabo sus actividades también puede afectar su independencia institucional de maneras que limiten su eficacia como agente contra la desinformación. En los casos en que las acciones de un organismo electoral estén sujetas a la influencia política de los agentes nacionales o limitadas por esta, ampliar la responsabilidad de un organismo para luchar contra la desinformación puede ser ineficaz, y el organismo puede ser reticente a asumir esa función. Si ya se percibe que el organismo electoral es parcial, sus iniciativas para luchar contra la desinformación pueden dañar aún más su credibilidad ante los ojos del público. 

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

En una época de sobrecarga de información y desinformación digital, es sumamente importante que los organismos electorales puedan captar la atención con una divulgación de mensajes proactiva y enfocada.  Como la información creíble puede perderse en un mundo de mensajes problemáticos, confusos y engañosos, el ímpetu se centra en los agentes autorizados, como los organismos electorales, para garantizar que los mensajes creíbles lleguen a los públicos adecuados de manera que logren tener repercusión. Los mensajes proactivos para luchar contra la desinformación pueden incorporarse a la estrategia de comunicación más general de un organismo electoral, o pueden ser el resultado de un proceso de planificación específico contra la desinformación. De cualquier manera, una estrategia de comunicación eficaz requiere planificación y perfeccionamiento antes de las elecciones. Según los patrones de uso de las redes sociales en su país, un organismo electoral también puede tener la oportunidad de usar las redes sociales para llegar a públicos específicos susceptibles de recibir desinformación (por ejemplo, mujeres, personas con discapacidades, grupos con niveles de educación más bajos, etc.). 

Como todas las medidas en esta sección de la guía, las estrategias de comunicación proactiva pueden y deben combinarse con otras respuestas proactivas, reactivas o coordinadas para formar un enfoque general e inclusivo a fin de mejorar la integridad del entorno de la información en relación con las elecciones. Es probable que el equilibrio o la combinación de estas medidas varíe de una elección a otra. 

La divulgación proactiva de mensajes no debe confundirse con la idea más limitada de la divulgación de mensajes, que sensibiliza al público sobre la existencia de desinformación. Según se indica en una encuesta del Pew Center realizada en 2018, ya se observa un aumento del conocimiento de la desinformación como amenaza: casi dos tercios de los adultos de once países encuestados creen que "la gente debería estar muy preocupada por la exposición a información falsa o incorrecta". Este hallazgo también es corroborado por una investigación del Consorcio para el Fortalecimiento de los Procesos Electorales y Políticos (CEPPS) sobre la opinión pública. 1La divulgación de mensajes puede y debe buscar crear conciencia sobre la necesidad de tener un pensamiento crítico acerca de las fuentes de información, pensar antes de compartir contenido y otros principios básicos de la alfabetización digital. Sin embargo, la divulgación de mensajes también debe centrarse en el objetivo más general de comunicarse de manera que se infunda confianza en el organismo electoral y fe en la integridad de los procesos electorales.

1.1 La visibilidad de los organismos electorales es importante

La construcción de un historial de comunicación constante puede ayudar a un organismo electoral a enviar mensajes con autoridad en momentos de confusión o tensión elevada, lo que podría ser el resultado de la existencia de información falsa o desinformación. Como se ha dejado claro tras una nueva ola de desinformación digital, las inversiones en la capacidad de un organismo electoral para cumplir su mandato principal de comunicación a través de canales nuevos y establecidos adquieren una importancia cada vez mayor. 

El Instituto Nacional Electoral (INE) de México ofrece un modelo a tener en cuenta para que los organismos electorales elaboren sus propios enfoques organizacionales en la lucha contra la desinformación. Antes de las elecciones de 2018, el INE diseñó una sólida estrategia de medios digitales con el objetivo de aumentar el volumen de contenido creíble e interesante que compita por captar la atención de usuarios en las redes sociales. Durante el período electoral de 2018, el INE produjo y difundió más de seis mil elementos de contenido digital, que también estuvieron disponibles a través de un sitio web centralizado, enfocado en la divulgación pública.2

 "Apostamos por una estrategia diferente: enfrentarnos a la desinformación con información" - Dr. Lorenzo Córdova Vianello, Consejero Presidente del Instituto Nacional Electoral de México

INEC de Nigeria, foto de FacebookLa Comisión Nacional Electoral Independiente (INEC, por sus siglas en inglés) de Nigeria utiliza su inversión institucional de larga data en la comunicación pública como un baluarte contra la desinformación. Durante los períodos electorales, la INEC ofrece sesiones informativas televisadas todos los días, participa en entrevistas de televisión en vivo, emite comunicados de prensa periódicamente para explicar las políticas y decisiones de la Comisión y dirige el Centro de Contacto con la Audiencia de la INEC (ICCC, por sus siglas en inglés) para ofrecer acceso a la Comisión y la posibilidad de comunicarse con las principales partes interesadas. La INEC también ha tenido una presencia activa en las redes sociales durante más de una década, debido a que las utiliza como un canal para difundir información e interactuar con los votantes. A medida que la INEC se enfrenta a la desinformación digital, se están reconsiderando y adaptando sus capacidades de comunicación actuales para mejorar la transparencia, la credibilidad y la integridad percibida de la INEC a fin de mantener la confianza del público.  

El TSE de Brasil aumentó sus estrategias tradicionales de divulgación pública mediante la inversión en aplicaciones móviles ampliamente adoptadas, que permiten a las autoridades electorales comunicarse con los votantes y el personal electoral de forma rápida y directa. La aplicación móvil "e-Título" funciona como una tarjeta de identificación de votante virtual, ayuda a quienes votan a encontrar sus centros de votación y proporciona una vía para la comunicación directa entre el TSE y los votantes.  La aplicación "Mesários" proporciona información y capacitación al personal electoral. Durante el período electoral de 2020, se enviaron más de 300 millones de mensajes a los casi 17 millones de usuarios de estas aplicaciones con información oportuna y confiable sobre la organización electoral, los protocolos de salud en medio de la pandemia de COVID-19 y los consejos para luchar contra las noticias falsas.

"No queremos evitar la difusión de noticias falsas a través de un control de los contenidos, sino por medio de aclaraciones, la conciencia crítica y la información de calidad". — Juez Luís Roberto Barroso, presidente del Tribunal Superior Electoral de Brasil

1.2 Lucha contra los objetivos de la propaganda, en lugar de contra la propia propaganda

Una estrategia de comunicación proactiva intentará anticipar qué categorías de mensajes falsos o problemáticos pueden cobrar fuerza y ser dañinos durante una elección específica, y luego procurará construir resiliencia en esas áreas. En el "Manual sobre la estrategia nacional de actividades de contrainformación" (en inglés, Handbook on National Counter Information Operations Strategy) del Belfer Center, de la Escuela Kennedy de Harvard, se subraya que quienes se encargan de la comunicación deben procurar luchar contra los objetivos de la propaganda, en lugar de contra la propia propaganda. Una campaña de comunicación proactiva que fomente la comprensión pública de los procedimientos electorales y la confianza pública en la integridad del organismo electoral probablemente sea una preparación más efectiva que tratar de anticipar cada discurso falso que los agentes con mala intención escogieran utilizar, particularmente porque estos agentes pueden modificar y adaptar estrategias con rapidez. Si un discurso falso no está cobrando fuerza, simplemente pueden cambiar a otro discurso.

"Debido al volumen y al contenido de las actividades de información que la competencia puede difundir a través de las redes sociales y los medios tradicionales, [las autoridades] no pueden ni deben responder individualmente a cada discurso falso. Abordar directamente el contenido echa más fuego a la leña". — Manual sobre la estrategia nacional de actividades de contrainformación del Belfer Center

El objetivo de la desinformación electoral dentro del ámbito de un organismo electoral puede ser socavar la fe en la importancia o integridad de las elecciones o autoridades electorales, incitar a la violencia electoral o sembrar sospechas de fraude que sienten las bases para los inconvenientes legales poselectorales. Como enfoque proactivo, los organismos electorales y otras partes interesadas podrían trazar una estrategia de comunicación antes de las elecciones en torno a los objetivos de mejorar la transparencia y desarrollar la comprensión de los procesos electorales, subrayar las medidas de seguridad electoral o explicar el proceso de resolución de conflictos electorales. 

Otro objetivo de la desinformación electoral puede ser evitar que grupos específicos participen en el proceso electoral a través de la difusión de información falsa sobre los derechos de ciertos grupos y la difusión de mensajes dirigidos a grupos específicos con información electoral falsa. A menudo, las campañas de desinformación manipulan y hacen extensivo el discurso de odio y las divisiones sociales basadas en la identidad, lo que permite que quienes actúan con mala intención aumenten la polarización social para beneficio personal o político. Los organismos electorales pueden combatir estos esfuerzos de manera proactiva, asegurándose de que sus estrategias de comunicación se dirijan a grupos mayoritarios y minoritarios con mensajes en los que se destaquen los derechos de las mujeres, las personas con discapacidades y otros grupos marginados a participar por igual en el proceso electoral, así como otra información dirigida a votantes. Para llegar a diferentes grupos, es posible que la información deba contar con estrategias de difusión únicas que difieran de las iniciativas generales de educación a votantes (de forma personal; en mercados, iglesias y otros lugares comunes; a través de un lenguaje sencillo, del uso de lenguas minoritarias o con imágenes) para tener en cuenta los obstáculos de acceso a la información a los que se enfrentan estos grupos. 

A raíz de los cambios en la administración de las elecciones introducidos a través de la reforma electoral de 2014 en México, el malentendido de los nuevos procesos fue una fuente potencial de información falsa y desinformación durante el proceso electoral de 2018, el primero de conformidad con las nuevas reformas. Una acción crucial de la estrategia de comunicación pública del INE antes de las elecciones fue ayudar a comprender la mecánica de la votación, del conteo y de la transmisión de resultados mediante la explicación de los procesos nuevos de manera clara y sencilla para que la gente supiera qué esperar en cada momento durante la elección. Otra medida clave fue la comunicación de manera que se reforzara la neutralidad política del INE, ya que las autoridades sabían que los partidistas o agentes malintencionados podrían intentar politizar la institución.

Highlight


Indonesia tiene dos organismos electorales distintos. El Komisi Pemilihan Umum (KPU), que administra las elecciones en Indonesia, así como el organismo de supervisión electoral, Badan Pengawas Pemilihan Umum (Bawaslu), encargado de monitorear y supervisar el proceso electoral.  

El CEPPS realizó un trabajo de campo en Yakarta a finales de 2019 para informar sobre la elaboración de esta guía.

En Indonesia, donde las divisiones entre comunidades crean un ambiente propicio para sacar provecho de esta situación, Bawaslu, el organismo de supervisión electoral, creó anuncios de servicio público contra la incitación a la violencia y el discurso de odio, y en apoyo a la alfabetización digital antes de las elecciones de 2018.  Los anuncios de servicio público se desarrollaron con el apoyo de IFES y se difundieron a través de los sitios web de YouTube, Instagram, Facebook, Twitter, WhatsApp y Bawaslu, así como por medio de carteles publicitarios digitales en toda la ciudad de Yakarta. Estos anuncios de servicio público tuvieron una segunda ronda, que se centró en el papel del monitoreo participativo de las elecciones públicas y de los tutoriales sobre las herramientas de denuncia de infracciones electorales, así como las advertencias contra la incitación a la violencia y la desinformación.3 La estrategia de los anuncios de servicio público y sus fundamentos se elaboraron a través de un taller de consulta con los organismos electorales y las principales entidades asociadas de la sociedad civil que fue facilitado por IFES. 

Highlight


Dibujo animado de IndonesiaPara luchar contra el discurso de odio y la difusión de desinformación, en colaboración con CEPPS/IFES, la Comisión Electoral de la Unión (UEC) de Myanmar desarrolló anuncios animados de servicio público que se compartieron en los canales de redes sociales y sitios web de la UEC y de sus socios. Esto también fue adaptado a un cómic y traducido a 20 idiomas étnicos. 

Highlight


Anuncio de Indonesia

La KPU de Indonesia creó 3.000 memes contra el engaño, que consistían en infografías y otros contenidos de marca en las redes sociales antes de las elecciones. Los contenidos creados por la KPU central serían modificados por las oficinas regionales en respuesta al contexto local y traducidos a las lenguas locales.

Highlight


Cartel de Taiwán

 

El primer ministro Su Tseng-chang compartió esta imagen en Facebook en la que aparece de joven con una cabeza con todo el cabello, como medio para disipar la desinformación en línea de las nuevas regulaciones gubernamentales sobre los salones de belleza. Incluye el simulacro de advertencia: 'Teñirse y hacerse la permanente en menos de siete días daña mucho el pelo, y en casos graves acabarías como yo' 

 

FOTO: PÁGINA DE FACEBOOK DEL PRIMER MINISTRO SU TSENGCHANG

1.3 Divulgación eficaz de mensajes para promover la integridad de la información

Generar interés en los mensajes

Frente a la innovación constante en los métodos de comunicación, los organismos electorales deben dar respuesta a la naturaleza cambiante de la comunicación. Esto de ninguna manera significa que los organismos electorales deban poner fin a los canales de comunicación tradicionales; en la mayoría de los países, la radio, la televisión y los periódicos todavía llegan directamente a una proporción más grande de personas que las redes sociales, y los medios tradicionales siguen siendo parte del ecosistema de la información que potencia la información falsa y engañosa que se origina en línea. Sin embargo, la revisión e innovación en sus enfoques de comunicación puede ayudar a los organismos electorales a llegar a sus públicos centrales con mensajes que consumirán y recordarán con más facilidad. La identificación explícita de distintas formas de crear contenido de interés puede ser una parte importante de una estrategia del organismo electoral contra la desinformación. 

Incluso si un organismo electoral ya está utilizando las redes sociales en cierta medida, se debe considerar estratégicamente la importancia de interactuar con los votantes a través de plataformas nuevas o utilizar funciones nuevas de las plataformas donde tienen una presencia asentada. Por ejemplo, aunque la IEC de Sudáfrica ha estado presente en Facebook y Twitter durante casi una década, en 2019 utilizó por primera vez una herramienta de registro de votantes de Snapchat. Esta función dentro de la aplicación conectó a los usuarios de Snapchat con los recursos de registro de votantes y el número de usuarios sudafricanos que aprovecharon esta función para registrarse superó los promedios de otros países.4 Mientras continuaba expandiendo su uso de Instagram, Facebook y Twitter, el TSE de Brasil estableció su presencia en TikTok menos de dos meses antes de las elecciones locales de 2020. Puesto que el contenido de TikTok puede llegar naturalmente a una gran cantidad de públicos sin necesidad de establecer primero una base de seguidores, en esos dos meses, la cuenta de TikTok del TSE logró tener 20.000 seguidores y millones de vistas de su biblioteca que contiene aproximadamente 80 videos. Solo un video de TikTok en el que se describieron los protocolos de salud que debieron cumplirse el día de las elecciones alcanzó más de 1.2 millones de visitas.

En Taiwán, se alienta a que la forma de los contramensajes provenientes de los canales oficiales sea divertida y con "memes" para aumentar la probabilidad de que los contramensajes se vuelvan naturalmente virales por intermedio de los mismos canales a través de los cuales prolifera la desinformación. Por ejemplo, para evitar la transmisión de información falsa y desinformación durante la pandemia de COVID-19, la ministra digital Audrey Tang ha creado el Centro de Verificación de Datos de Taiwán, que incluye equipos de Ingeniería de Memes asociados con comediantes nacionales para esclarecer rumores en línea de una manera práctica, divertida y eficaz. Esta estrategia del "humor sobre el rumor" se reconoce como una estrategia fundamental para ayudar a frenar la propagación de la COVID-19 en Taiwán, y este enfoque puede adaptarse para luchar contra la desinformación más allá de la pandemia.

Para hacer que el contenido sea confiable y de interés, los organismos electorales también pueden nombrar personal de confianza para la difusión de mensajes que puedan llegar a públicos específicos. El establecimiento de líneas de comunicación con líderes o integrantes de grupos religiosos, clubes deportivos, bibliotecas, redes profesionales u otros espacios tradicionalmente apolíticos puede ser un medio para llegar a públicos nuevos con mensajes proactivos. Por ejemplo, la INEC de Nigeria trabaja con agentes y otras celebridades para visitar los campus universitarios y generar entusiasmo entre la juventud votante. El TSE de Brasil se asoció con clubes de fútbol como parte de su campaña #NaoTransmitaFakeNews para instar a los usuarios a no difundir noticias falsas. Dieciocho clubes de fútbol participaron en la campaña, que obtuvo más de 80 millones de impresiones en Twitter durante la primera y segunda vuelta electoral.

Cuando se establecen con anticipación, estas redes de personal confiable de divulgación de mensajes también se pueden utilizar como canales de difusión y extensión en los casos en los que se deba desacreditar información falsa, un enfoque que se analiza más adelante en el apartado sobre comunicación en caso de crisis. Si bien estas redes pueden ser creadas por las autoridades electorales nacionales, los organismos electorales regionales también podrían beneficiarse del establecimiento de sus propias redes subnacionales de personal confiable de divulgación de mensajes. 

Hacer que los mensajes sean inclusivos y accesibles

Asegurar que los mensajes sean inclusivos y accesibles para todas las personas y, en particular, para los grupos que históricamente han sido marginados es una cuestión fundamental para los organismos electorales. Estos organismos deben asegurarse de considerar las diversas formas en que las personas acceden a la información para votantes. Por ejemplo, es más probable que los hombres de un país determinado dependan de la televisión a fin de obtener información para votantes, mientras que las mujeres pueden depender de los mensajes de radio o de las conversaciones con vecinos. Los organismos electorales pueden realizar encuestas o sondeos, o consultar a organizaciones que representan a personas de diferentes grupos marginados, para comprender cómo diferentes votantes acceden a la información y, luego, atender esas necesidades.  

Además, muchas plataformas de redes sociales ofrecen diversas formas para que sus usuarios agreguen fácilmente funciones de accesibilidad, como añadir texto alternativo (alt)5 para describir fotos para lectores de pantalla, publicar la transcripción de un archivo de audio (como una grabación de radio) o incluir subtítulos o leyenda6 en videos. Los organismos electorales que utilizan estas funciones e incluyen en sus campañas personas del mundo de la actuación, imágenes de personas con distintas discapacidades y otras personalidades hacen que su contenido sea más inclusivo y accesible. Los organismos electorales pueden ayudar a garantizar que el contenido que producen sea accesible a través de la distribución de mensajes en formatos múltiples, como lenguaje de señas, idiomas locales y lenguaje de lectura fácil, y la consulta con organizaciones de la sociedad civil sobre las plataformas, las páginas y los identificadores más utilizados. 

Por ejemplo, antes de las elecciones de agosto de 2020 en Sri Lanka, el organismo electoral colaboró con un grupo delegado en la protección de datos para crear una campaña en las redes sociales con la finalidad de garantizar que las personas con discapacidades psicosociales supieran que tenían derecho a votar, y sensibilizar a los partidos políticos sobre la necesidad de eliminar el lenguaje despectivo de sus campañas políticas. La campaña, hecha tanto en cingalés como en tamil, llegó a casi 50.000 personas y tuvo como resultado que el presidente del organismo electoral emitiera una declaración pública reconociendo los derechos políticos de las personas con discapacidades psicosociales. 

Otra cuestión fundamental en torno a la accesibilidad es considerar la brecha que existe en algunas poblaciones en cuanto al acceso a ciertas tecnologías y a su conocimiento. La brecha de género en lo que respecta al acceso a herramientas técnicas e internet, por ejemplo, está bien documentada y subraya la necesidad de continuar difundiendo mensajes de manera práctica para quienes no tengan acceso a la tecnología de forma constante. 

Hacer que los mensajes permanezcan en la memoria

Para que un discurso proactivo permanezca en la memoria frente a una avalancha de desinformación repetitiva y de refuerzo, debe tener un punto claro y debe repetirse muchas veces. Los trabajos de investigación realizados sugieren que, tanto para afirmaciones verdaderas como falsas, la información que se repite se siente más verdadera, incluso si difiere de lo que las personas creen saber.

En respuesta a una campaña fraudulenta en la que los agentes malintencionados estaban utilizando el nombre de la Comisión Electoral Central (CEC) para tocar puerta por puerta y recopilar información personal, el organismo electoral de Georgia difundió ampliamente un mensaje de que no recopila información de esta manera y, luego, repitió el mensaje a través de múltiples canales de comunicación. La respuesta del organismo electoral no se limitó a contradecir el mensaje que se estaba difundiendo, sino que utilizó el incidente inicial para sensibilizar al público sobre los métodos que se estaban utilizando para engañar, y compartir un mensaje claro sobre cómo obtener información confiable si el cuerpo electoral se enfrentaba a incertidumbres similares en el futuro. 

Para ser eficaz, la divulgación de mensajes no necesita ser innovadora desde el punto de vista tecnológico; sin embargo, es fundamental adaptar los enfoques para satisfacer las nuevas necesidades. La escasez de recursos y de personal, la obsolescencia o ausencia de estrategias de comunicación estratégica y la creencia de que la verdad de un mensaje debe hablar por sí misma pueden socavar la eficacia de la comunicación de los organismos electorales. Al reflexionar sobre una conferencia de prensa que su institución había realizado para desacreditar la información falsa que circulaba sobre las próximas elecciones, una persona que trabaja en una Comisión Electoral de África Oriental observó que solo había servido para aumentar la viralidad de los rumores y fomentar la desinformación. Los contramensajes reactivos, estáticos y de poco interés tienen una menor probabilidad de lograr el resultado deseado de generar confianza en el proceso.

1.4 Aprovechar las características únicas de las redes sociales para uso de los organismos electorales 

Las redes sociales pueden proporcionar a los organismos electorales que están equipados para usarlas una herramienta potente para aumentar la transparencia institucional, generar confianza y llevar a cabo sus cometidos de educación a votantes. Si bien el uso institucional de las redes sociales ya no es una idea de vanguardia, hay organismos electorales que todavía no usan las redes sociales, y muchos están trabajando para mantener sus enfoques actualizados a medida que evolucionan los patrones de uso de las redes sociales. Para los países con altas tasas de inserción en las redes sociales, la inversión en la capacidad de las redes sociales de un organismo electoral es una forma de alto impacto y costo moderado para llegar a públicos centrales y proporcionar un contrarrelato en los mismos canales donde la desinformación digital se origina y propaga. 

Utilizar las redes sociales para la comunicación bidireccional

Las redes sociales tienen el potencial de ofrecer un canal directo de diálogo entre los organismos electorales y los votantes. Por lo tanto, es muy importante capacitar y empoderar al personal designado del organismo electoral para que aproveche este canal de comunicación bidireccional. Debido a la informalidad del medio, las redes sociales tienen el potencial de ser un medio de comunicación más auténtico, abierto, oportuno y receptivo. La voluntad de un organismo electoral de interactuar directamente con los votantes a través de sus canales de redes sociales para brindar una comunicación rápida y personal puede generar confianza y ofrecer una fuente autorizada en la que el electorado puede buscar o verificar información. Al decidir adoptar una presencia más sólida en las redes sociales, los organismos electorales deben contar con recursos y estar preparados para seguir adelante con este potencial. Una vez que un organismo electoral abre este canal para la conversación, debe estar listo para mantenerlo.

 "La implementación de las redes sociales como estrategia de comunicación empleada por la INEC ha tenido un profundo impacto en los procesos electorales, debido a que cambió los canales utilizados por la ciudadanía y los votantes para obtener información de los medios tradicionales o el canal de comunicación unidireccional por las plataformas móviles que permiten interacciones bidireccionales a través del contenido y de la comunicación generados por los usuarios", Dr. Sa'ad Umar Idris, director general del Instituto Electoral de la INEC, Nigeria

Segmentar audiencias y llegar a los públicos destinatarios

Las redes sociales también permiten segmentar y llegar a diversos públicos con mensajes elaborados de manera excepcional para que se sientan identificados. Esta es una estrategia poderosa ya empleada por agentes de la desinformación. 

Hay dos temas que pueden considerarse al establecer los públicos a los que un organismo electoral puede desear dirigirse con mensajes específicos contra la desinformación. Tenerlos en cuenta a ambos al comienzo de la preparación de una estrategia de comunicación contra la desinformación puede permitir saber a qué públicos llegar y de qué forma.

El primer tema es tener en cuenta los públicos que probablemente consuman información falsa y desinformación que pueda afectar su voluntad o capacidad de participación. Por ejemplo, un organismo electoral podría definir a diferentes tipos de votantes (personas que votan por primera vez, con discapacidades, de una minoría étnica o lingüística, etc.) como personas en mayor riesgo de encontrar desinformación elaborada para reprimir su participación democrática. Al identificar las tácticas que podrían utilizarse para inhibir la participación de estos grupos, los organismos electorales pueden elaborar y dirigir contenido que disipe los malentendidos sobre el registro de votantes, desarrolle la comprensión de la posibilidad de acceder a los colegios electorales o describa las medidas que deben tomarse para garantizar el voto secreto y la seguridad a la hora de votar. Por supuesto, es importante que el organismo electoral comprenda si estos públicos destinatarios realmente están utilizando plataformas de redes sociales (y cuáles) antes de emplear esta estrategia. Por ejemplo, es más probable que ciertos grupos marginados usen ciertas plataformas de redes sociales específicas debido a diferentes barreras individuales, institucionales y culturales. 

En su planificación de comunicación, la IEC de Sudáfrica identifica a votantes jóvenes, especiales y que ejercen su derecho en el extranjero como públicos distintos, a los que está intentando llegar con mensajes específicos. Además, en su estrategia de comunicación general incorpora campañas de comunicación discretas que incluyen mensajes acerca de diferentes temas: registro, solicitudes de voto especial y en el extranjero, procedimientos de votación y sensibilización sobre la desinformación digital. La incorporación de esta segmentación en una estrategia de comunicación cohesiva que incluya las redes sociales puede ser una forma importante de utilizarlas de manera proactiva para brindar información, crear un ciclo de retroalimentación y llegar a públicos que podrían necesitar más información como paso preliminar a la participación. 

El segundo tema es pensar en los públicos que podrían ser destinatarios de una campaña de desinformación. Esto podría tomar la forma de una campaña de desinformación que evoca las corrientes de odio existentes contra las poblaciones marginadas para reprimir la participación, alegar fraude electoral o promover la indignación entre los grupos de identidad dominantes. Por ejemplo, se puede organizar una campaña de desinformación para intimidar a candidatas a abandonar la carrera electoral o para declarar que las poblaciones inmigrantes están participando en un fraude electoral a gran escala. 

Highlight


Equipar a los organismos electorales para que utilicen los medios sociales con mayor eficacia para llegar a diferentes públicos podría incluir:

  • Utilizar los análisis de las redes sociales para determinar qué tipos de contenido están funcionando bien y a qué públicos se está llegando o no. 
  • Pruebas de mensajes A/B, que permiten al creador de contenidos comparar el rendimiento de diferentes piezas de contenido, de modo que pueda cambiar rápidamente hacia estrategias de mensajería de alto rendimiento y desechar el contenido de bajo rendimiento.
  • Utilizar las funciones de publicidad dirigida de las redes sociales para llegar a públicos definidos.

La complejidad de esta tarea puede adaptarse para que coincida con las necesidades y la capacidad de un organismo electoral específico, reconociendo que, para algunos organismos, solo serán posibles o aconsejables enfoques muy básicos y, para otros, las técnicas avanzadas serían totalmente apropiadas. 

Cabe señalar que en manos de entidades comerciales y agentes que actúan con mala intención, tácticas como las anteriores han sido lógicamente abordadas con sospecha. Si bien los organismos electorales siempre deben garantizar el nivel de privacidad y protección de datos más alto, estas herramientas ampliamente disponibles son, en gran medida, neutrales en cuanto a su valor: es su uso lo que determina las consecuencias éticas. Si los organismos electorales y otras instituciones democráticas no utilizan las formas en que se pueden aprovechar las herramientas de las redes sociales para promover los objetivos democráticos y la integridad de sus instituciones, nunca podrán esperar competir en su capacidad para definir el espacio de información en torno a las elecciones o a la democracia de manera más amplia, y los agentes malintencionados seguirán llevando la delantera en cuanto a la divulgación de mensajes.  

"Tienen que usar las redes sociales para participar de forma proactiva. Si solo las usan para reaccionar, controlar o limitar las redes sociales, entonces estaríamos frente a una situación sin ganadores". — Janet Love, vicepresidenta de la Comisión Electoral de Sudáfrica

 

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

 Los organismos electorales afrontan una potente combinación de presiones, que incluyen: una mayor percepción pública de la desinformación como una amenaza para las elecciones, presión sobre ellos para que se les vea luchando activamente contra la desinformación, diferentes niveles de comprensión de la naturaleza del problema entre los organismos electorales, y la naturaleza urgente de las respuestas eficaces. Dado este contexto, la reacción de un organismo electoral en el momento podría estar orientada por una percepción de necesidad inmediata, en lugar de reflejar una estrategia más amplia que se adapte mejor a la promoción de la integridad electoral. La planificación de la comunicación en caso de crisis puede crear un plan de trabajo para que los organismos electorales respondan ante las situaciones de la desinformación electoral durante las etapas de mayor sensibilidad en el proceso electoral. En los casos en que un organismo electoral se ha basado históricamente en estrategias de comunicación ad hoc durante una crisis, la inversión programática puede ayudar a los organismos electorales a formalizar una estrategia de comunicación en caso de crisis para mejorar la velocidad y precisión con la que pueden responder ante situaciones de desinformación e información falsa.

Una táctica de las campañas de desinformación, ya sean realizadas por agentes nacionales o del extranjero, puede ser el intento deliberado de crear una mentalidad de crisis para sembrar desconfianza o confusión y socavar la fe en las instituciones democráticas y en el proceso electoral. No toda la información falsa o desinformación indica que existe una crisis, y determinar el momento y la forma de la respuesta de un organismo electoral, y en qué circunstancias responderá, forma parte del trabajo de preparación que puede ayudar a un organismo electoral a concentrar los recursos y la toma de decisiones cuando sea necesario.

"Sepa cómo reaccionará si se presenta un problema, si aparecen noticias falsas. El EMB no puede limitarse a recibir golpes" - Dr. Lorenzo Córdova Vianello, Consejero Presidente del Instituto Nacional Electoral de México

2.1 No genere su propia crisis

Puesto que hay una mayor atención puesta en la desinformación digital, los organismos electorales pueden sentirse obligados a responder a todos los elementos de información falsa o desinformación específicos de las elecciones con los que se encuentren. La planificación de la comunicación en caso de crisis puede ayudar a establecer criterios sobre qué circunstancias justificarán una respuesta del organismo electoral y de qué forma. Poner en evidencia la existencia de contenido falso o engañoso con el propósito de refutarlo puede no ser siempre la mejor alternativa. Al explicar su opinión sobre si desacreditar o ignorar dicho contenido, la organización sin fines de lucro First Draft señala: "[S]i ciertas historias, rumores o contenido visual, por problemáticos que sean, no estaban cobrando fuerza, se tomó la decisión de no proporcionar más oxígeno a esa información. Los medios de comunicación no deben perder de vista que la publicación de desacreditaciones puede ser más perjudicial que beneficiosa, especialmente porque los agentes detrás de las campañas de desinformación ven la amplificación de los medios como una técnica fundamental para el éxito". Esta misma consideración es importante para los organismos electorales. La planificación de la comunicación en caso de crisis permite que los organismos electorales tengan tiempo y espacio para desarrollar las mejores prácticas sobre cómo hacer aclaraciones o refutaciones a fin de que no agraven el problema de forma inadvertida. Las buenas prácticas sobre cómo ofrecer verificaciones de datos de forma efectiva continúan evolucionando, un tema que se analiza más detalladamente en el apartado de la guía sobre la verificación de datos.  

2.2 Aportar claridad a las líneas de comunicación y a la autoridad

Una parte fundamental de la planificación de la comunicación en caso de crisis es garantizar que las jerarquías y los flujos de información estén previamente delineados. Esto puede tener especial importancia cuando se solicita al organismo electoral que confirme hechos o realice declaraciones aclaratorias y contrarrelatos rápidamente. Un protocolo de comunicación claro y directo para coordinar las respuestas puede ser fundamental para restaurar la confianza del público, ya que las aclaraciones vagas o contradictorias pueden agravar el problema.  Es imperativo tener claridad sobre quién tiene derecho a realizar declaraciones y a través de qué medios se harán esas declaraciones, no solo dentro del organismo electoral, sino con el asesoramiento de otros organismos estatales que puedan ser llamados a aclarar. No hacer esto puede alimentar la misma desinformación e información falsa que la declaración pública aspira a sofocar. Por ejemplo, en respuesta al supuesto fraude electoral que tuvo lugar fuera del país, en Malasia, dos organismos electorales diferentes de Indonesia realizaron inicialmente declaraciones aclaratorias contradictorias (una en la que se afirmaba que la acusación era completamente inventada y la otra en la que se sostenía que el problema era real, pero leve, y que ya había sido detectado), lo que creó más confusión y posiblemente socavó la credibilidad de ambos organismos. Un protocolo claro y rápido sobre cómo los dos organismos coordinarían la divulgación de mensajes podría haber ayudado a evitar este paso en falso. 

Los protocolos de comunicación en caso de crisis deben lograr un equilibrio entre la conveniencia y las verificaciones internas de precisión de contenidos. Un organismo electoral debe evitar tener puntos críticos en las comunicaciones, en los que las solicitudes de aclaraciones no puedan responderse con rapidez. En el caso de Indonesia, MAFINDO, una organización de la sociedad civil de verificación de datos de terceras partes, con frecuencia pedía a KPU y a Bawaslu que refutaran información falsa o engañosa en circulación, pero la organización de la sociedad civil informó que los tiempos de respuesta variaban significativamente y que, a veces, obtener una respuesta llevaba varios días, si es que se recibía alguna. Puesto que la velocidad con la que se refuta o elimina un rumor falso una vez que ha comenzado a cobrar fuerza tiene un gran impacto en el alcance final de esa información, para los casos en que se requiere una respuesta clara, se debe conceder la facultad de aclarar a las personas adecuadas.

2.3 Lograr un equilibrio entre múltiples prioridades

La planificación de la comunicación en caso de crisis también puede ayudar a establecer pautas institucionales para lograr un equilibrio entre las prioridades de comunicación y otras prioridades electorales. "Si bien puede ser importante para el público ver a los líderes colaborar en una respuesta a una crisis, existe un límite".1 Por ejemplo, las autoridades electorales de Indonesia fueron muy activas en la investigación de casos de información falsa y desinformación viral en el período previo a las elecciones de 2019. Cuando hubo un rumor de que habían llegado a Yakarta barcos de carga llenos de boletas anteriores a la votación, el propio cuerpo comisionado se movilizó para ir al puerto a última hora de la tarde del día en que el rumor cobró fuerza a fin de investigar y hacer una declaración pública. Del mismo modo, unos días antes de las elecciones, los comisionados fueron enviados a Malasia con poca antelación para refutar las afirmaciones de que se estaba realizando una votación fraudulenta fuera del país.  Para un caso severo en el que una afirmación falsa tiene el potencial de entorpecer la elección, esta respuesta fue transparente y visible, pero se debe hacer un cálculo cuidadoso en términos de la mejor inversión de tiempo del cuerpo comisionado y del personal del organismo electoral, sobre todo cuando se está tan cerca de las elecciones y hay demandas contrapuestas.

2.4 Coordinación con otras entidades estatales

El organismo electoral puede ser el organismo principal en la respuesta ante un caso de crisis o puede formar parte de una red. La información falsa y la desinformación rara vez van por separado y están claramente definidas. A menudo, incluirán aspectos que están dentro del alcance de refutación de un organismo electoral, tales como la información falsa o engañosa directamente relacionada con el proceso electoral, en combinación con otros temas sobre los cuales otro organismo del gobierno podría estar en mejores condiciones para hacer comentarios, como preocupaciones en cuanto a la salud pública o rumores de violencia el día de las elecciones. El apartado en el que se aborda la coordinación del organismo electoral con otras entidades estatales ofrece consideraciones adicionales sobre este tema. 

La planificación de la comunicación en caso de crisis también debe incluir el período poselectoral. Si bien un organismo electoral puede estar activo durante el período de campaña y el día de las elecciones para monitorear y dar respuesta al contenido problemático, el período inmediatamente posterior al día de las elecciones es uno de los períodos de mayor riesgo en lo que respecta a la información falsa y engañosa. La información falsa y la desinformación que surgen durante este período pueden tener consecuencias en la aceptación pública de los resultados o la violencia poselectoral si, por ejemplo, los discursos de fraude o de malas prácticas en las encuestas, el conteo o la transmisión de resultados cobran fuerza popular de manera tal que la ciudadanía se sienta privada de sus derechos. Un interlocutor involucrado en el monitoreo de los medios de comunicación en Sudáfrica señala que quienes actúan con mala intención pueden mejorar su comportamiento durante los períodos de campaña cuando están al tanto de la intensificación de los esfuerzos de monitoreo y cumplimiento de los medios, pero observó que, en Sudáfrica, el contenido "vil" aumentó tan pronto como finalizaron los esfuerzos mejorados de monitoreo. 

El período poselectoral inmediato puede ser particularmente agotador para los organismos electorales, ya que se cierran las urnas y se cuentan, suman y certifican los resultados. Además, es probable que se recurra al organismo electoral para que resuelva las denuncias poselectorales; el organismo también puede ser parte en los casos electorales que se presentan ante los tribunales. La coincidencia de este período excepcionalmente agitado para el organismo con un lapso de tiempo especialmente propicio para la desinformación y la información falsa significa que es esencial contar con un plan claro para el protocolo de comunicación durante el período poselectoral, incluida la claridad en la comunicación y las responsabilidades compartidas entre las entidades estatales. Las autoridades electorales de Indonesia experimentaron esto de primera mano después de las elecciones de 2019, cuando los rumores de fraude electoral dieron lugar a protestas que tuvieron como resultado la muerte de nueve personas y la restricción del acceso a las redes sociales por parte de las autoridades gubernamentales, en un intento por detener la propagación de información falsa y los disturbios. En el período previo al día de las elecciones, Bawaslu había estado desempeñando un papel fundamental en la coordinación de respuestas ante casos de desinformación electoral y en la marcación de contenido problemático para su eliminación de las plataformas de redes sociales. Sin embargo, la sobrecarga en los días posteriores a las elecciones obligó a Bawaslu a dar un paso atrás en su función, con la expectativa de que otros organismos gubernamentales pudieran intervenir. La planificación de la comunicación en caso de crisis puede ayudar a facilitar una transición tranquila de la responsabilidad del organismo electoral a otras entidades en los momentos en que sea apropiado. Un plan puede ayudar a determinar de antemano de qué manera y en qué momento las responsabilidades podrían cambiar, tanto las responsabilidades de comunicación pública como la comunicación con las plataformas de redes sociales. 

2.5 Mensajeros de confianza para hacer extensivos los mensajes

Al anticipar cómo lucharán contra la información falsa y la desinformación electoral, los organismos electorales deben considerar quiénes son los mensajeros eficaces a los que se puede recurrir para hacer rápidamente extensivas las comunicaciones en caso de crisis que puedan llegar de manera creíble al público que corre mayor riesgo: 

  • ¿Quiénes son los mensajeros más eficaces para llegar a quienes simpatizan por diferentes partidos políticos? 
  • ¿Quién se gana la credibilidad de los grupos que podrían ser susceptibles a la violencia o al extremismo si la información falsa se torna incontrolable? 
  • ¿Quién puede llegar a las mujeres, los jóvenes o a las diferentes comunidades religiosas? 

Highlight


Cartel de Verificado Brasil

La asociación de clubes de fútbol brasileños difundió contenidos que utilizaban analogías deportivas, incluido este ejemplo que se refiere al sistema de verificación del fútbol VAR. En este caso, el contenido trata de fomentar la confianza en la integridad de las elecciones y contrarrestar los rumores de fallas de seguridad en las máquinas de votación electrónica de Brasil, señalando el uso generalizado de máquinas similares en otros países.  

La identificación proactiva de las personas adecuadas para emitir mensajes puede ser un paso preparatorio decisivo que permite a un organismo electoral difundir información fáctica bajo presión de la manera más eficaz. La preparación de estas redes para difundir información a sus comunidades en tiempos de crisis informativa puede ser una forma esencial de garantizar que el mensaje de un organismo electoral se propague por fuentes creíbles en los momentos en que una avalancha de información podría ahogar a los agentes autorizados que hablan de sus propias plataformas, más limitadas. Por ejemplo, antes de las elecciones locales de 2020, el Tribunal Superior Electoral (TSE) de Brasil se asoció con uno de los clubes de fútbol más populares del país para luchar contra las noticias falsas.

En 2018, la Oficina del Primer Ministro de Finlandia creó una iniciativa para trabajar con personas influyentes en las redes sociales a fin de difundir información creíble en un contexto de crisis. La red de 1500 influencers que se creó a través de esa iniciativa se activó primero para difundir información de salud creíble durante la pandemia de COVID-19. Trabajar con los influencers de las redes sociales permitió al gobierno llegar a públicos que no consumen los principales medios de comunicación. Por ejemplo, un video de una celebridad influyente de YouTube entrevistando a un ministro del gobierno y a especialistas de la salud recibió más de 100.000 visitas en dos días. Un organismo electoral podría emplear un modelo similar, por ejemplo, involucrar a influencers de las redes sociales antes de una elección para que firmen un compromiso de paz, por el que se comprometan a difundir información creíble y promover la paz el día de las elecciones, e inmediatamente después de ese día, en un país donde la violencia electoral sea un asunto preocupante.

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Si bien los organismos electorales carecen generalmente de autoridad para sancionar o disuadir el comportamiento de agentes de desinformación extranjeros, pueden disponer de autoridad para establecer normas dirigidas a agentes nacionales. Los códigos de conducta son una herramienta que utilizan algunos organismos electorales para definir cómo deben comportarse en general los partidos políticos, los candidatos, los medios de comunicación o el electorado durante el período electoral. En los últimos años, algunos organismos electorales se han ocupado de subsanar el vacío normativo y reglamentario que existe en torno al uso de las redes sociales en las elecciones mediante la creación de códigos de conducta, códigos de ética o declaraciones de principios (para los fines de este apartado, estos cuerpos legales se denominan colectivamente "códigos de conducta": documentos en los que se describen comportamientos normativos para el período electoral). 

Los códigos de conducta pueden ser acuerdos voluntarios y no vinculantes que resulten de un consenso entre las partes, o pueden formar parte del marco legislativo y reglamentario de carácter vinculante que debe respetarse. Los códigos de conducta para el uso de las redes sociales en las elecciones incluyen ejemplos de ambos tipos. Los acuerdos voluntarios y no vinculantes tienden a ser más breves. Por medio de estos documentos, se insta a las partes firmantes a comprometerse con los principios generales. Aquellos documentos que tienen cierto nivel de obligación de aplicación de la ley, cierto peso de necesidad, incluyen disposiciones que tienen mayor especificidad. 

"[Los principios nos permiten] decir que nuestros partidos políticos acuerdan cumplir un conjunto de reglas, y es un primer paso para avanzar hacia una democracia en desarrollo donde las personas del ámbito de la política con ideologías opuestas se respeten entre sí y participen en debates centrados en problemas. A largo plazo, el objetivo de este documento es tener una cultura de diálogo, en lugar de campañas negativas y difamación de personas de la candidatura política". — Representante de la Fundación Internacional para Sistemas Electorales (IFES) en la Comisión Electoral Central de la República de Georgia

En la sección de la guía sobre normas y estándares, se analizan los marcos regionales y otros ejemplos transnacionales de establecimiento de normas en torno a la desinformación. En la sección de la guía sobre los enfoques legales y reglamentarios para luchar contra la desinformación, se analiza una gran variedad de enfoques legales que rigen el uso de las redes sociales en las elecciones. Este apartado se limita a los códigos de conducta que abordan la desinformación (de forma exclusiva o en combinación con otros comportamientos electorales problemáticos) y son elaborados y promulgados por los organismos electorales para regir la conducta de los partidos políticos, los candidatos y sus simpatizantes, o los medios de comunicación durante las elecciones.

3.1 AUDIENCIA

Los códigos de conducta de los organismos electorales destinados a restringir la desinformación pueden dirigirse a varias partes interesadas electorales y pueden limitarse a una elección específica o existir como documento permanente. Por ejemplo, la Comisión Electoral Central de la República de Georgia personalizó estrictamente su asesoramiento contra la desinformación en sus "Principios éticos para la candidatura en las elecciones presidenciales del 28 de octubre de 2018" a los candidatos a la presidencia en dichas elecciones.  El "Pacto ético digital de Panamá" se dirige, en general, a los "usuarios de medios digitales" en el contexto de las elecciones. El "Código de conducta de Sudáfrica: medidas para abordar la desinformación que procura causar daños en el período electoral" (en forma de proyecto desde diciembre de 2020) está dirigido a "todos los partidos registrados y a los candidatos en su totalidad", con obligaciones adicionales de conformidad con el código sobre cómo esos partidos y candidatos deben tomar los recursos adecuados contra cualquier integrante, representante o simpatizante que se comporte de forma contraria a las disposiciones del código. El "Código de conducta de Nepal que deben cumplir los medios masivos de comunicación, las organizaciones no gubernamentales y las personas encargadas de realizar observaciones electorales"1 tiene capítulos dirigidos a diferentes públicos. 

Los códigos de conducta internos que los partidos políticos aprueban voluntariamente para regir el comportamiento de sus candidatos e integrantes se analizan en la sección de la guía sobre partidos políticos 

3.2 PROCESO DE ELABORACIÓN

Particularmente en el caso de los códigos de conducta que se basan en el compromiso voluntario de los firmantes, un proceso de desarrollo de consultas puede aumentar la legitimidad del documento. En la guía publicada en 2015 sobre la elaboración de códigos de conducta para las redes sociales, IDEA Internacional recomienda que los organismos internacionales "participen en un proceso de consulta con una gran variedad de partes interesadas electorales, en especial periodistas, blogueros, agencias gubernamentales y comentaristas en política, que comience en la etapa previa a un proceso electoral". También se fomentan las consultas con los agentes de la sociedad civil que representan a diferentes grupos marginados.

En Indonesia, Bawaslu llevó a cabo un amplio proceso de consulta al formular su declaración de "rechazar y luchar contra la compra de votos, los insultos, las incitaciones y el conflicto divisorio en Pilkada de 2018 y en las elecciones generales de 2019". El compromiso fue firmado por 102 organizaciones participantes después de un evento de consulta de tres días que incluyó a organizaciones de la sociedad civil, universidades, organizaciones religiosas y grupos de jóvenes.2 Los organizaciones firmantes se adhirieron a una declaración de siete puntos que rechaza la intimidación y la desinformación. Este proceso de consulta creó una red de agentes de renombre y de confianza con los que Bawaslu continuó trabajando en cuestiones de desinformación e incitación en los períodos electorales de 2018 y 2019. En este caso, el proceso de creación de la declaración y la red de agentes que surgió de ella fue de igual o mayor valor que la esencia del código mismo.  Las respuestas coordinadas de múltiples partes interesadas a la desinformación de Bawaslu se analizan con más detalle en el apartado sobre la coordinación del organismo electoral con la sociedad civil

3.3 ELEMENTOS COMUNES

Los códigos de conducta en los que se aborda la desinformación pueden adoptar muchas formas diferentes. En algunos países, el compromiso de abstenerse de compartir desinformación se incluye como parte de un código de conducta más exhaustivo que cubre todas las formas de conducta durante un período electoral. En otros, se crea un código para desalentar la desinformación a fin de que pueda valerse por sí mismo. Algunos códigos solo tienen unos pocos cientos de palabras; otros son mucho más extensos. A pesar de estas diferencias, existen varios elementos comunes que podrían ser tenidos en cuenta por otras autoridades electorales que buscan desarrollar sus propias normas.

 

Definiciones

Debido a que la variedad de contenido que puede considerarse desinformación es relativamente amplia, es necesario que las autoridades electorales definan el alcance de las infracciones que consideran que están bajo su autoridad. Particularmente para los códigos de conducta que tienen algún elemento de aplicabilidad, la provisión de definiciones claras y específicas es esencial para dicha aplicabilidad.

El código de Sudáfrica se ha formulado en términos precisos para limitar su aplicación al período electoral y para basarlo firmemente en el marco legal y reglamentario más amplio de Sudáfrica. La desinformación se define como "cualquier tipo de información falsa que se publica con la intención de causar daño público". Esa referencia al daño público se basa en la Ley electoral de 1998, en la que se define al "daño público" como un conjunto de las siguientes acciones: "a) interrumpir las elecciones o impedir que tengan lugar; b) crear hostilidad o miedo para incidir en la conducta o en el resultado de una elección; o c) incidir en el resultado o en la realización de una elección". Esta definición elaborada de forma precisa crea puertas alrededor de los tipos de desinformación de las que es responsable el organismo electoral. El código del organismo contempla la información falsa, publicada con la intención de amenazar la integridad del proceso electoral.

Compromiso con la libertad de expresión

Cualquier código de conducta cuyo objetivo sea disuadir la desinformación pondrá límites a los discursos permitidos en un contexto electoral. Como se describe en las declaraciones internacionales de derechos humanos y en muchas constituciones nacionales, las limitaciones a la libertad de expresión deben cumplir un estricto grado de escrutinio. Como tales, varios organismos electorales han optado por incluir en el texto del código el reconocimiento explícito del compromiso con la libertad de expresión.

Por ejemplo, el código de Sudáfrica incluye una afirmación de que las iniciativas para detener la desinformación deben "toma[r] en cuenta el derecho a la libertad de expresión", que está contemplada en la Constitución Nacional.3 En la exposición de motivos del Pacto ético digital de Panamá, se describen los problemas de la desinformación y de las redes sociales, al tiempo que se señala que "es importante recordar que la libertad de expresión y el respeto a los derechos civiles y políticos, que tanto han costado lograr en democracia, son y deben seguir siendo la guía para que podamos tener un mejor Panamá en el futuro".4

Prohibición de la divulgación deliberada de noticias falsas

Un elemento central de todos los códigos de conducta cuyo objetivo es restringir la desinformación es una disposición que exhorta a las partes signatarias a abstenerse de divulgar información falsa de forma deliberada. Este elemento se formula de manera más o menos precisa y se enmarca de diversa forma en cada código. Los Principios éticos de Georgia incluyen una guía general para "abstenerse de difundir información falsa con conocimiento previo",5 pero no brindan más información. El Pacto ético digital de Panamá incluye un llamado a las personas signatarias a estar atentas ante la aparición de noticias falsas o información falsa que pueda poner en peligro el proceso electoral, e imputa una responsabilidad proactiva a las personas signatarias de buscar fuentes de información verosímiles antes de difundir mensajes que puedan ser falsos.6

Esta prohibición contra la divulgación intencional de información falsa puede tener su precedente en leyes electorales nacionales más exhaustivas y en códigos de conducta generales, y puede extender el alcance de los principios actuales que contemplan los medios de comunicación o la conducción de campañas tradicionales al ámbito de las redes sociales más específicamente. En Sudáfrica, el objetivo del proyecto del Código de conducta sobre la desinformación es "hacer efectiva la prohibición de divulgar declaraciones intencionalmente falsas, dispuesta en el artículo 89, inciso 2 de la Ley electoral [73 de 1998]". El Código de Nepal, que contempla todos los aspectos del período electoral, hace un llamamiento a los medios de comunicación para que "no publiquen, transmitan ni difundan información infundada a favor o en contra de [un] candidato o partido político en las redes sociales utilizadas electrónicamente, como los S.M.S. [sic], Facebook, Twitter y Viber".7

Restricción de comportamientos maliciosos en línea que se utilicen para promover el contenido de la campaña

Además de la orientación o las limitaciones sobre el tipo o la calidad del contenido que las partes signatarias pueden utilizar durante los períodos de campaña, los códigos de conducta también pueden ofrecer restricciones relacionadas con los comportamientos en la Internet que están fuera de los límites de las campañas éticas. Esto suele tomar la forma de exhortaciones a abstenerse de utilizar técnicas específicas de amplificación artificial o manufacturada en formas que el organismo electoral percibe como poco éticas o maliciosas.

Por ejemplo, en el Pacto ético digital de Panamá, se ordena a las partes signatarias que se abstengan de utilizar cuentas falsas y bots para desinformar o promover la propaganda electoral.8 Las disposiciones de esta naturaleza deben lograr un equilibrio difícil, ya que las tácticas de desinformación de los agentes malignos continúan evolucionando. Por una parte, una definición demasiado precisa de los comportamientos en línea desalentados deja abierta la puerta a una variedad de otras tácticas que se están utilizando. Por otra parte, las medidas definidas de forma demasiado general tienen poco significado o efecto disuasorio. Vincular estas herramientas a sus posibles usos maliciosos, como lo hace el Pacto de Panamá, es un enfoque importante para lograr ese equilibrio. Una prohibición total de herramientas como los bots probablemente sería demasiado onerosa e impediría su uso legítimo, por ejemplo, como parte de una iniciativa que proporciona información a las personas votantes sobre cómo emitir su voto.

Prohibiciones contra la incitación a la violencia y el discurso de odio

Además de desalentar la difusión de información falsa, en los códigos de conducta también se puede establecer la expectativa de que los candidatos, los partidos u otras partes signatarias se abstengan de incitar a la violencia o fomentar discursos de odio en las campañas.

En el Pacto ético digital de Panamá, se ordena a los usuarios de los medios digitales evitar la realización de "campañas sucias" en las que "se ofenda la dignidad humana con la utilización de insultos, incursiones en la vida privada y discriminación" o "se promueva la violencia y la falta de tolerancia".9 En los Principios éticos de Georgia, se ordenó a los candidatos a la presidencia "negarse a utilizar discursos de odio o declaraciones xenofóbicas o intimidatorias". En el Código de Sudáfrica, no se prohíbe el discurso de odio explícitamente, pero su definición de "daño público" incluye contenido que "crea hostilidad o miedo para incidir en la conducta o en el resultado de una elección".10

En algunos códigos de conducta, también se prohíbe el discurso de odio basado en categorías de identidad particulares, incluido el género, y de forma específica, la violencia contra las mujeres en la política. Los códigos de conducta deben incluir una referencia concreta al discurso de odio relacionado con el género y la violencia en línea, y al acoso contra las mujeres en la política para que los agentes rindan cuentas por estos actos específicos. Por ejemplo, en el Código de conducta para los medios de comunicación de Guyana de 2017, elaborado a través del compromiso de la comisión electoral con los principales representantes de los medios de comunicación, se instaba a los medios de comunicación a "abstenerse de ridiculizar, estigmatizar o demonizar a las personas por motivos de género, raza, clase, etnia, idioma, orientación sexual y capacidad física o mental" en los ámbitos de campañas y elecciones.11

Implementación de una prohibición del uso de las redes sociales en el período de campaña
También es posible utilizar un código de conducta como una oportunidad para establecer normas de comportamiento de las personas signatarias durante el período de campaña definido, lo que puede incluir limitaciones en el uso de las redes sociales durante un período de silencio o interrupción de las comunicaciones directamente antes del día de las elecciones. En el Pacto ético digital de Panamá, se requiere que las personas signatarias "colaboren con el tribunal electoral para que se respete la veda electoral y solamente se haga campaña electoral durante los períodos permitidos de 45 días antes de las elecciones internas de los partidos políticos y 60 días antes de las elecciones generales".12 En el Código de Nepal, se estipula que, durante el período de silencio electoral, no se pueden solicitar votos a través de campañas por redes sociales u otros medios electrónicos.13 Como se analizó en la sección legal y reglamentaria de esta guía, los detalles sobre qué tipos de contenido están restringidos fuera del período de campaña deben estar claramente definidos. Por ejemplo, las autoridades pueden optar por no permitir la publicidad paga, al tiempo que permiten publicaciones naturales en las cuentas personales de candidatos y partidos.
Obligación proactiva de difundir información correcta
En los códigos de conducta, se puede requerir que las partes signatarias no solo se abstengan de difundir información falsa, sino que trabajen activamente para corregir los relatos falsos y problemáticos en circulación. En el proyecto de Código de Sudáfrica, se obliga a los partidos y candidatos a ocuparse de la desinformación, "incluso trabajando con el asesoramiento de la Comisión para corregir cualquier tipo de desinformación y reparar todo daño público causado por una declaración hecha por uno de sus candidatos, autoridades con cargos, representantes, integrantes o simpatizantes...”14 Si bien aún no se ha observado en la práctica, incluir una responsabilidad proactiva de que los partidos y candidatos trabajen con la comisión electoral para luchar contra los relatos electorales falsos o problemáticos brinda a dicha Comisión otra vía para difundir correcciones, contrarrelatos o mensajes de información a las personas votantes, como parte de una estrategia de comunicación de crisis. En el Código de Sudáfrica, también se requiere que quienes firman den a conocer el código y eduquen a los votantes al respecto.15

3.4 Aplicación

Como se señaló anteriormente, los códigos de conducta pueden ser acuerdos voluntarios y no vinculantes o pueden actuar en conjunto con el marco legal y reglamentario, lo que permite cierto grado de aplicación. Tanto en los códigos voluntarios como en los exigibles se establecen criterios normativos para quienes firman el documento. Para los códigos voluntarios, el establecimiento de normas a través del compromiso público de los candidatos, los partidos políticos y demás agentes electorales pertinentes podría ser el único propósito del código. 

Los organismos electorales tienen distintos grados de autoridad legal y capacidad para hacer cumplir los códigos de conducta. En el caso de Georgia, la decisión de adoptar una declaración de principios en lugar de un código de ética se tomó, en parte, al reconocer que la CEC carecía de un mecanismo existente para su implementación o aplicación.16 En el caso de Sudáfrica, la autoridad de aplicación del organismo electoral es anterior al código sobre desinformación, ya que también tiene capacidades de aplicación con respecto al Código de Conducta Electoral general y en el marco legal más amplio. En el Código de Sudáfrica, se definen los límites de la capacidad de aplicación del organismo electoral al señalarse, por ejemplo, que si el organismo considera que cualquier contenido que recibe como resultado del código de conducta es contrario a las leyes penales actuales, entonces será debidamente remitido al organismo de aplicación de la ley correspondiente.17 Asimismo, la comisión estipula que remitirá las denuncias contra integrantes de los medios de comunicación a los organismos existentes que supervisan a la prensa.18 

Incluso cuando los códigos se encuentran en un marco legal claro, tienen menos peso que otros tipos de elementos disuasorios legales o reglamentarios. La vicepresidenta de la Comisión Electoral Independiente (IEC, por sus siglas en inglés) de Sudáfrica, Janet Love, caracterizó la aplicación del Código de Desinformación Digital por parte de la IEC como "moderada", en lugar de "agresiva".

"No podemos fingir tener una bazuca cuando, en realidad, tenemos una vara firme". — Janet Love, vicepresidenta de la Comisión Electoral de Sudáfrica

Aunque los códigos de conducta tienen menos peso legal, brindan una flexibilidad que puede resultar de gran interés para los organismos electorales. Un código de conducta exigible puede ser aprobado y dirigido más fácil y rápidamente por el organismo electoral, en comparación con un proceso de reforma reglamentaria o legislativa. Un código exigible puede ofrecer a los organismos electorales una "vara firme", mediante la cual pueden alentar enérgicamente el cumplimiento sin tener que recurrir a procedimientos legales prolongados que pueden extenderse demasiado en el tiempo para que se permita una reparación oportuna.  Los códigos de conducta también pueden evitar daños graves que podrían derivarse del uso de revisiones del código penal como un enfoque alternativo. En la sección de la guía sobre enfoques legales y reglamentarios para luchar contra la desinformación, se analiza con más profundidad los posibles daños de la penalización de la desinformación.

 

 

 

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Un número limitado de organismos electorales tiene la autoridad de realizar un monitoreo del uso de las redes sociales por parte de candidatos, partidos, medios de comunicación u otras partes interesadas electorales designadas para garantizar el cumplimiento del marco legal y reglamentario. El objetivo del monitoreo puede ser hacer cumplir los límites legales en cuanto al gasto de campaña en publicidad política en las redes sociales o en lo que respecta a hacer campaña fuera de un período determinado, o hacer cumplir las restricciones de contenidos que se han considerado ilegales en el contexto de una elección. Para muchos organismos electorales, esta responsabilidad no forma parte de su obligación legal. En estos casos, la obligación de realizar un monitoreo y hacer cumplir el marco legal y reglamentario puede recaer en otra entidad, como una entidad de supervisión del financiamiento político o de los medios de comunicación, o una agencia de lucha contra la corrupción, y la orientación descrita en esta subcategoría se aplicaría a su trabajo. El desarrollo de un medio para realizar un monitoreo de las redes sociales para lograr el cumplimiento debe ir de la mano con el desarrollo de marcos legales y reglamentarios que rijan el uso de las redes sociales durante las campañas y elecciones. Si no se establece una capacidad para realizar un monitoreo, controlar o brindar una supervisión efectiva, no se pueden hacer cumplir las leyes y los reglamentos que rigen el uso de las redes sociales durante las elecciones. 

En realidad, el desarrollo de mecanismos efectivos para monitorear la conducta en línea de las partes electorales interesadas es un desafío sin soluciones listas para muchas entidades de supervisión. A menudo, las iniciativas para llevar a cabo un monitoreo eficaz dependen en gran medida de las herramientas de transparencia que ponen a disposición las plataformas de redes sociales. Facebook lleva la delantera en el despliegue de herramientas de transparencia de publicidad política y en su expansión a más países, pero muchos países todavía carecen de acceso y los usuarios locales han criticado la biblioteca de anuncios de Facebook por no ser completa. Las herramientas de transparencia de publicidad política de Google solo están disponibles en la Unión Europea y en unas cuantas otras democracias consolidadas; no hay una iniciativa visible en 2020 para expandir la disponibilidad de estas herramientas a más países. Otras plataformas ofrecen herramientas aún más limitadas para la transparencia de la publicidad política. 

Si bien existe una variedad de herramientas comerciales para agregar contenido de redes sociales a fin de ayudar en el análisis de los mensajes en línea y la conducta de agentes políticos, la falta de personalización de estas herramientas para que las utilicen las entidades de supervisión sigue siendo un desafío. Las herramientas comerciales también suelen ser costosas. Como anécdota, varias entidades de supervisión que están poniendo en marcha nuevas iniciativas para realizar un monitoreo de las redes sociales durante las elecciones han compartido que, en la actualidad, su enfoque es en gran parte manual y consiste en la visita de distintas páginas y cuentas de agentes políticos u otras partes electorales interesadas por parte de integrantes del personal para analizar el contenido que ha sido publicado.

Sin embargo, algunos organismos electorales con autoridad para supervisar están innovando y aumentando su capacidad para realizar un monitoreo de las redes sociales para el cumplimiento legal y reglamentario. Bawaslu, por ejemplo, realizó un monitoreo de las cuentas oficiales de redes sociales de diferentes aspirantes a la candidatura política durante las elecciones de Indonesia de 2019, aunque reconoció las limitaciones de esta iniciativa: observó que quienes aspiraban a la candidatura mantenían sus páginas oficiales libres de controversias, mientras que cualquier contenido engañoso o divisivo se difundía y extendía a través de cuentas de redes sociales no asociadas oficialmente con la campaña. Esta iniciativa formó parte de un enfoque más amplio para realizar un monitoreo de las redes sociales en colaboración con el Ministerio de Información y Comunicación y la Unidad Policial de Delitos Cibernéticos, que incluyó iniciativas para detectar campañas maliciosas coordinadas en las redes sociales que pudieran vincularse con candidatos o partidos políticos.

Las iniciativas de la Alta Autoridad Independiente para las Elecciones (HIEA, por sus siglas en inglés) de Túnez a fin de establecer la capacidad de realizar un monitoreo de las redes sociales durante el período electoral son ejemplos de algunos de los enfoques que tal iniciativa puede emplear y de los desafíos a los que se puede enfrentar. El marco legal de Túnez no tiene disposiciones explícitas por las que se regule el uso de las redes sociales durante las campañas electorales. Sin embargo, durante el ciclo electoral de 2019, la comisión electoral decidió monitorear el contenido en línea y de las redes sociales para asegurarse de que los partidos y candidatos respetaran los principios y las reglas de la campaña. Este trabajo se realizó como una extensión del trabajo que está llevando a cabo la Unidad para el Monitoreo de Medios (MMU, por sus siglas en inglés) de HIEA, que analiza los medios de comunicación electrónicos e impresos durante los períodos electorales. Si bien la MMU pudo dar a conocer información sobre el uso de las redes sociales durante las elecciones, también se encontró con un problema común a las iniciativas de monitoreo de las redes sociales: definir los límites de las cuentas que están sujetas a monitoreo. En Túnez, como en otros países, se observó que la gran mayoría de los delitos procedían de páginas y cuentas no declaradas, y no de las cuentas oficiales de los candidatos. Esta situación plantea problemas, ya que en la mayoría de los casos no hay pruebas suficientes para atribuir estas infracciones definitivamente a la campaña o al candidato que se beneficia con el contenido problemático. 

Highlight


¿Qué se entiende por "monitoreo de redes sociales"?

Un número cada vez mayor de organismos electorales considera que la capacidad de monitorear las redes sociales es una habilidad que les ayudaría a cumplir con la responsabilidad de lucha contra la desinformación. Sin embargo, hay dos funciones diferentes que suelen estar implícitas en la frase "monitoreo de las redes sociales".

La primera función es realizar un monitoreo del uso de las redes sociales por parte de candidatos, partidos, medios de comunicación u otras partes interesadas electorales designadas para garantizar el cumplimiento del marco legal y reglamentario. Esta función está íntimamente ligada a la detección de infracciones y es necesaria para la aplicación del marco legal y reglamentario en lo que respecta a las redes sociales.

La segunda función que suele implicar la frase "monitoreo de redes sociales" podría describirse más exactamente como "escucha social". En lugar de realizar un monitoreo del comportamiento de ciertos agentes, la escucha social es un intento de obtener el significado del amplio universo de conversaciones que se producen en las redes sociales y otras fuentes en la Internet para tomar las medidas adecuadas.

Estas dos funciones se exploran en subcategorías separadas: (4) Monitoreo de las redes sociales para el cumplimiento legal y reglamentario y (5) Escucha social y respuesta a incidentes.

4.1 Definición de un enfoque de monitoreo

¿El organismo electoral tiene la autoridad legal para realizar un monitoreo de las redes sociales?

Antes de poner en marcha una iniciativa de monitoreo de redes sociales liderada por el organismo, se debe consultar el marco legal y reglamentario para determinar la siguiente cuestión:

  • ¿El organismo electoral tiene la autoridad legal para realizar un monitoreo de las redes sociales? 
  • De no ser así, ¿esta autoridad recae en otra entidad gubernamental que evitaría que el organismo lleve a cabo sus propias iniciativas de monitoreo?
  • Si corresponde, ¿qué orientación legal y reglamentaria existe para el uso de las redes sociales durante los períodos electorales?
  • Si no hay disposiciones específicas relacionadas con el uso de las redes sociales, ¿existen principios generales en cuanto a la conducta de los candidatos, los partidos o demás agentes electorales durante la campaña que puedan implementarse o extenderse razonablemente a las redes sociales? 

¿Cuál es el objetivo de la iniciativa de monitoreo?

Después de consultar el marco legal y reglamentario, un organismo electoral debe establecer un objetivo para su iniciativa de monitoreo. Por ejemplo, estos son algunos objetivos:

  • Detectar publicidad política en las redes sociales realizada fuera del período de campaña establecido. 
  • Identificar instancias en las que los comportamientos en línea sean contrarios a lo que se estipula en el marco legal por el que se rige el abuso de recursos estatales.
  • Monitorear el contenido publicado por partidos y candidatos para garantizar el cumplimiento de cualquier orientación legal sobre abstenerse de pronunciar discursos de odio dirigidos a las mujeres o a otros grupos marginados, incitar a la violencia, desinformar sobre las elecciones o emitir mensajes prohibidos. 
  • Verificar que el monto correspondiente al gasto informado en publicidad política en las redes sociales sea correcto. 

Si no hay o hay poco asesoramiento legal o reglamentario actual sobre el uso de las redes sociales en las elecciones, ¿cuál es el objetivo de la iniciativa?

  • Recopilar información y pruebas para dar forma a futuras conversaciones sobre reformas legales o la elaboración de un código de conducta. 
  • Sensibilizar al público sobre el contenido problemático en redes sociales en el que están involucrados los partidos y los candidatos, y sobre los comportamientos de la misma índole que presentan, incluidos el acoso y la violencia en línea contra las mujeres y otros grupos marginados.

¿Cuál es el período de tiempo necesario para realizar un monitoreo de las redes sociales?

Según el objetivo que se establezca, el organismo electoral debe definir con cuánta antelación a las elecciones comenzarán las iniciativas de monitoreo de las redes sociales y si se extenderán a cualquier parte del período poselectoral.

¿El monitoreo se llevará a cabo como una actividad interna del organismo electoral o contará con la colaboración de otras entidades?

Un organismo electoral deberá determinar si tiene la capacidad suficiente para llevar a cabo una iniciativa de monitoreo de las redes sociales de forma independiente:

  • ¿El organismo electoral tiene la capacidad humana y los recursos financieros para llevar a cabo su propia iniciativa de monitoreo?
  • ¿Existen otras agencias estatales u organismos de supervisión que realicen un monitoreo de las redes sociales durante las elecciones a las que se debería consultar o con las que habría que asociarse antes de que un organismo electoral ponga en marcha su propia iniciativa? 
  • ¿Existen restricciones o prohibiciones que limitarían la capacidad del organismo para contratar servicios externos del sector privado para aumentar su capacidad?
  • Si el objetivo de la iniciativa de monitoreo es recopilar información y pruebas para dar forma a las futuras conversaciones de reforma legal o comprender cómo la desinformación se dirige a ciertos grupos marginados, ¿existe una función para los agentes de confianza de la sociedad civil centrados en proponer la reforma legal o representar a los grupos marginados para brindar al organismo electoral información y análisis adicionales?   

¿Qué tipos de herramientas de transparencia publicitaria en redes sociales están disponibles en el país?

Comprender lo que es factible hacer para un organismo electoral depende, en parte, de las herramientas que las empresas de tecnología y redes sociales han puesto a disposición en su país.

  • ¿La biblioteca de anuncios de Facebook1 hará cumplir la transparencia publicitaria política y de problemas en el país correspondiente? 
  • ¿Habrá un informe de transparencia de Google disponible para el país en el que2 se contemple la publicidad política?
  • ¿Alguna otra plataforma de redes sociales ampliamente utilizada ofrece informes de transparencia o características de algún tipo?
  • En caso de que cualquiera de las preguntas anteriores sea afirmativa, ¿el organismo electoral tiene todo lo necesario para utilizar estas herramientas y así ejercer su autoridad, o es necesaria una capacitación? 
  • ¿El organismo electoral tiene la autoridad para realizar solicitudes legalmente vinculantes de las plataformas de redes sociales a fin de obtener información como parte de un intento de cumplimiento?

En la sección de la guía "Respuestas legales y reglamentarias" a la desinformación, se puede encontrar más información sobre las consideraciones de definiciones necesarias para establecer un enfoque de monitoreo de las redes sociales.

4.2 Vincular el monitoreo de las redes sociales a una respuesta

Según el objetivo establecido con respecto a la iniciativa de monitoreo de las redes sociales, el organismo electoral debe identificar cómo utilizarán los conocimientos que obtengan a través de sus iniciativas de monitoreo. 

  • Si existe un marco legal y reglamentario en el que se definan las infracciones, el organismo electoral debe determinar cómo se remitirán los casos a los organismos encargados de la aplicación de la ley pertinentes para una investigación más detallada y posibles sanciones, si no tienen la capacidad de imponer sanciones por sí mismos. 
  • Si el objetivo establecido es informar la reglamentación futura o la elaboración de un código de conducta, se debe confeccionar un plan sobre cómo se documenta y explica el contenido o los comportamientos que podrían constituir una infracción, conforme a un marco legal revisado, de una manera que sea convincente para el público necesario de personas a cargo de la reglamentación o legislación. 
  • Si el objetivo es disuadir el mal comportamiento a través de un aumento de la toma de conciencia pública sobre la conducta cuestionable o ilegal de los partidos y candidatos, el departamento de comunicaciones o relaciones públicas del organismo electoral debe participar en la elaboración de un plan para comunicar los hallazgos al público en general. 

Las respuestas deben tener en cuenta las cuestiones de género y, sobre todo, deben garantizar que las infracciones dirigidas a grupos marginados o la explotación de estereotipos sobre dichos grupos se aborden de forma específica para que no sufran una mayor marginación a raíz de respuestas en las que no se consideran sus preocupaciones y experiencias.

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

En lugar de realizar un monitoreo del comportamiento de ciertos agentes, la escucha social es un intento de obtener información sobre el sentimiento, las percepciones erróneas o los discursos dominantes que circulan en las redes sociales y en otros foros en línea para tomar medidas adecuadas. Un organismo electoral puede desear establecer un sistema de escucha social para dar forma a un sistema de respuesta rápida ante incidentes o a una planificación estratégica y de comunicación. Obtener información sobre los discursos que están circulando y ganando popularidad en los espacios en línea puede proporcionar a los organismos electorales información sobre la manera de luchar eficazmente contra los discursos que amenazan la integridad de las elecciones.

Si las autoridades electorales desean monitorear a los partidos políticos u otras partes interesadas electorales para verificar el cumplimiento del marco legal y regulatorio, consulte el apartado anterior "Monitoreo de las redes sociales para verificar el cumplimiento legal y regulatorio".

5.1 Comprender la capacidad y el propósito de los organismos electorales

Establecer una capacidad de escucha social y respuesta no es la única iniciativa válida para todos los organismos electorales. Algunos de ellos tienen capacidad de personal, un mandato reconocido y recursos financieros para poner en marcha iniciativas de gran alcance. Para otros organismos, las barreras de entrada al establecimiento de una capacidad de escucha social pueden parecen o ser insuperables y desviar la atención de actividades más importantes. Si quienes hacen donaciones y prestan asistencia internacional están ayudando a que un organismo electoral establezca o fortalezca una capacidad de escucha social, es fundamental adaptar la iniciativa de monitoreo para que se ajuste a las necesidades y a la capacidad del organismo.

Los organismos electorales tendrán diferentes propósitos para establecer la capacidad de escucha social. Este apartado hace principal hincapié en los organismos electorales que desean poner en marcha una iniciativa de monitoreo en tiempo real que les permita rápidamente identificar y dar respuesta a la desinformación y demás contenido problemático. Es posible que otros organismos electorales deseen utilizar la escucha social en una etapa más temprana del ciclo electoral para dar forma a las estrategias de comunicación. Esta estrategia proactiva se analiza brevemente en este apartado para facilitar la comparación con otros usos reactivos de escucha social. Estas iniciativas no son mutuamente excluyentes y un organismo electoral puede optar por realizar ambas.

5.2 Escucha social para dar forma a respuestas rápidas ante incidentes

Las iniciativas de escucha social y respuesta ante incidentes del Instituto Nacional Electoral (INE) de México son un claro ejemplo de cómo puede ser una iniciativa de escucha social con personal y recursos suficientes. El INE diseñó e implementó el proyecto "Certeza" los días previos y el día de las elecciones de 2018, y también implementó el mismo sistema en las elecciones de 2019. El objetivo del proyecto era "detectar y ocuparse de la información falsa difundida, sobre todo a través de las redes sociales, pero también a través de cualquier otro medio que pudiera generar incertidumbre o desconfianza en la ciudadanía en lo que concierne a las responsabilidades de la autoridad electoral en el momento de la elección".1 Esta iniciativa incluyó un sistema de monitoreo tecnológico desarrollado por el INE, que revisó millones de contenidos de redes sociales y otras fuentes en busca de palabras y frases potencialmente problemáticas asociadas con las elecciones. Luego, se envió el contenido marcado a personas moderadoras para su verificación y para determinar si el contenido requería que se tomara alguna medida. Además de este monitoreo remoto, el INE contrató una red de operadores de campo temporales para recopilar información del mundo real y documentar evidencia de primera mano que pudiera usarse para refutar afirmaciones falsas e inexactas.2 Luego, la evidencia y el análisis del equipo de monitoreo remoto y los equipos de campo se compartieron con la división de difusión social del INE, donde se compartieron refutaciones específicamente diseñadas o contenido de información de votantes a través de las redes sociales y con los medios de comunicación. El equipo que trabajó en el proyecto Certeza incluyó a funcionarios de alto nivel de ocho divisiones diferentes del INE, lo que significó que se podían tomar decisiones inmediatas sobre las respuestas adecuadas.3 A la mayoría de los organismos electorales le será imposible lograr una iniciativa tan completa como la de México. Sin embargo, los elementos aún pueden ser ilustrativos para otros organismos que proyectan sus propias iniciativas de escucha social.

Como alternativa a este enfoque, las autoridades electorales podrían considerar intervenciones que ayuden a las personas votantes a encontrar información confiable cuando buscan más detalles sobre un elemento de desinformación que han encontrado. Las autoridades electorales del estado de Colorado en los EE. UU. supervisaron las redes sociales para identificar las tendencias de desinformación sobre las elecciones en los EE. UU. de 2020 y luego compró anuncios de Google vinculados a términos de búsqueda relevantes. Se intentó garantizar que las personas buscadoras de información que usaran el motor correspondiente para buscar la desinformación que encontraron fueran dirigidas a fuentes fiables, en lugar de mostrar resultados de búsqueda que alimentaran aún más la conspiración. Colocar anuncios de Google para garantizar que aparezcan resultados fiables en la parte superior de una página de búsqueda puede ser un enfoque para luchar contra la desinformación que surge a través de los "vacíos de datos", que pueden ocurrir cuando las consultas de búsqueda vagas tienen pocos resultados asociados, lo que facilita que los actores de la desinformación optimicen su contenido de manera que garanticen que las personas buscadoras de información encuentren contenido que confirme la desinformación, en lugar de refutarla.

Otras alternativas posibles para la escucha social que podrían ser más adecuadas para los organismos electorales que carecen de capacidad interna para establecer una iniciativa independiente es asociarse con prestadores de asistencia técnica, trabajar con la sociedad civil o contratar una entidad privada de confianza que se especialice en escucha social para establecer un sistema de alerta temprana que pueda ser monitoreado por el personal del organismo electoral. Las alertas podrían crearse en torno a frases muy importantes, como el nombre del organismo electoral, y se activarían cuando el contenido de las redes sociales que contenga esas frases comience a volverse viral. Las alertas podrían configurarse a partir de una planificación de escenarios de gran impacto y probabilidad, que podrían incluirse como parte del desarrollo de una estrategia de comunicación de crisis. Por ejemplo, un organismo electoral podría determinar que el registro de votantes en una región en particular o la integridad de la votación en el extranjero son temas con gran riesgo de ser objeto de información falsa o desinformación dañina. Al anticipar estos escenarios, el organismo podría adaptar las alertas que señalarían contenidos potencialmente problemáticos a medida que comienzan a ganar popularidad.

Este enfoque sería considerablemente menos exhaustivo que una iniciativa de monitoreo interno con personal suficiente, pero para los organismos electorales que carecen de mejores opciones, las soluciones limitadas aún pueden ser útiles. Esta investigación no ha revelado ningún ejemplo en el que los organismos electorales utilicen esta estrategia actualmente, pero una red de agentes de la sociedad civil en Eslovaquia, incluido el monitoreo de los medios y las elecciones CSO Memo98, utilizó un modelo similar para configurar una serie de alertas a fin de que el Ministerio de Salud de Eslovaquia les notificara sobre la desinformación y la información falsa sobre COVID-19 que eran tendencia. La capacidad de sus colegas en el Ministerio para utilizar las alertas en la práctica era limitada, lo que sugiere que cualquier iniciativa de esta naturaleza debe planificarse cuidadosamente para satisfacer las necesidades y la capacidad del organismo electoral. 

Las metodologías actuales para detectar la violencia en línea contra las mujeres podrían adaptarse en las elecciones para ayudar a los organismos electorales a comprender las formas en que los mensajes de género están contribuyendo a distorsionar el entorno de la información en las elecciones y para elaborar respuestas más impactantes a partir de estos conocimientos. El Consorcio para el Fortalecimiento de los Procesos Electorales y Políticos (CEPPS, por sus siglas en inglés) ha utilizado la escucha social basada en la inteligencia artificial para monitorear la violencia en línea contra las mujeres en las elecciones. Los hallazgos y las lecciones aprendidas de este trabajo podrían utilizarse para darle forma a un plan de desinformación. Las lecciones aprendidas permiten confirmar que las técnicas de minería de datos automatizadas solo llegan hasta cierto punto a la hora de identificar el contenido problemático, y que la combinación de técnicas automatizadas y codificadores humanos es esencial para tener conocimientos precisos. 

5.3 Escucha social para dar forma a una planificación estratégica y de comunicación de crisis 

Puede incorporarse la escucha social en el desarrollo de estrategias de comunicación a través de la información que proporciona sobre cómo se perciben los procesos electorales, el entorno de información y el organismo electoral entre los diferentes grupos demográficos. A su vez, esta comprensión puede ayudar a un organismo electoral a elaborar estrategias de comunicación basadas en evidencia para llegar a diversas audiencias.

Para dar forma a su planificación estratégica y de comunicación de crisis, la Comisión Independiente Electoral y de Límites (IEBC, por sus siglas en inglés) de Kenia trabajó con una empresa de escucha social para recibir una descripción general del panorama de las redes sociales y medios digitales en Kenia antes de las elecciones de 2017. Los conocimientos adquiridos a través de la escucha social tienen mayor utilidad cuando se hace un análisis más detallado. La empresa externa combinó los conocimientos de su análisis de las redes sociales con los hallazgos de una serie de debates de grupos focales que analizaron el conocimiento y la percepción de varias plataformas digitales, así como la comprensión de la manera en que las personas votantes utilizaron las diferentes fuentes de información y motivaciones detrás de la difusión de "noticias falsas", información falsa y discursos de incitación al odio. Quienes participaron en los grupos focales también compartieron sus percepciones con respecto a la IEBC e hicieron comentarios sobre la capacidad de persuasión de las estrategias de mensajería de muestra. La participación de especialistas externos para realizar este análisis puede complementar la capacidad del organismo electoral.

Highlight


¿QUÉ SE SIGNIFICA POR "MONITOREO DE REDES SOCIALES"?

Un número cada vez mayor de organismos electorales están identificando la capacidad de monitorear las redes sociales como una habilidad que les ayudaría a cumplir un mandato contra la desinformación. Sin embargo, hay dos funciones diferentes que comúnmente están implícitas en la frase "monitoreo de redes sociales": 

  • Supervisar el uso de las redes sociales por parte de candidatos, partidos, medios de comunicación u otras partes interesadas electorales designadas paragarantizar el cumplimiento de las directrices legales y reglamentarias.
  • Participar en una “escucha social” o el intento de destilar significado del amplio universo de conversaciones que tienen lugar en las redes sociales y otras fuentes en línea para informar la acción adecuada.

Las descripciones completas de estas funciones se pueden encontrar en subsección anterior.

5.4 Definición de un enfoque de seguimiento

Dadas las variaciones en necesidades y capacidades, cada enfoque de monitoreo debe calibrarse para adaptarse a la institución que lo utiliza.

¿Cuál es el objetivo del enfoque de escucha social?

Ejemplos de conocimientos que EMB puede obtener a través de la escucha social incluyen:

Cómo se habla del OGE en las redes sociales.

Dado que uno de los objetivos de las operaciones de influencia antidemocrática es socavar la confianza en los procesos e instituciones electorales, la escucha social puede ayudar a un OGE a participar en cierto grado de “gestión de la reputación”. La escucha social puede brindar información sobre dónde se puede considerar que el desempeño de los organismos electorales es deficiente, puede ayudar a explicar cualquier acusación dirigida hacia los organismos electorales o puede ayudar a los organismos electorales a comprender dónde una falta de transparencia en sus operaciones podría generar desconfianza.

Si las narrativas falsas o problemáticas sobre las elecciones están ganando terreno en las redes sociales.

Como parte de un plan de respuesta a incidentes el día de las elecciones, un organismo electoral puede monitorear las redes sociales en busca de acusaciones de negligencia, fraude o violencia en ciertas regiones o en determinados colegios electorales que deban corregirse o reconocerse. También pueden utilizar esta información para determinar cómo distribuir recursos o apoyo a distritos o colegios electorales que estén experimentando dificultades.

Si se difunde información errónea que podría suprimir la participación electoral o afectar de otro modo la integridad de la elección.

Dado que uno de los objetivos de las operaciones de influencia antidemocrática es socavar la confianza en los procesos e instituciones electorales, la escucha social puede ayudar a un OGE a participar en cierto grado de “gestión de la reputación”. La escucha social puede brindar información sobre dónde se puede considerar que el desempeño de los organismos electorales es deficiente, puede ayudar a explicar cualquier acusación dirigida hacia los organismos electorales o puede ayudar a los organismos electorales a comprender dónde una falta de transparencia en sus operaciones podría generar desconfianza.

Si las narrativas falsas o problemáticas sobre las elecciones están ganando terreno en las redes sociales.

Como parte de un plan de respuesta a incidentes el día de las elecciones, un organismo electoral puede monitorear las redes sociales en busca de acusaciones de negligencia, fraude o violencia en ciertas regiones o en determinados colegios electorales que deban corregirse o reconocerse. También pueden utilizar esta información para determinar cómo distribuir recursos o apoyo a distritos o colegios electorales que estén experimentando dificultades.

Si se difunde información errónea que podría suprimir la participación electoral o afectar de otro modo la integridad de la elección.

5.5 Vincular la escucha social con la acción

El propósito de participar en la escucha social es informar respuestas más efectivas del organismo electoral. Con ese fin, la escucha social con el fin de responder rápidamente a incidentes debe estar estrechamente alineada con la planificación de comunicación de crisis de un organismo electoral. Con base en la planificación de escenarios realizada durante la planificación de la comunicación de crisis, el organismo electoral debe trazar cuál será su proceso para responder a cualquier contenido problemático o engañoso que identifique a través de la escucha social. Debería haber  Líneas claras de comunicación interna para verificar el contenido sospechoso. Este proceso puede incluir recibir aportaciones rápidas de las comisiones electorales regionales o de los colegios electorales individuales. También se deben establecer de antemano canales de comunicación, incluidos los actores de los medios tradicionales o mensajeros confiables identificados.

Además, la escucha social puede revelar casos que pueden remitirse a otra entidad gubernamental. Para informes creíbles de actividades que violan el código penal, el organismo electoral debe estar preparado para remitir los informes al actor apropiado. Por ejemplo, los esfuerzos de escucha social del INE en las elecciones mexicanas de 2019 sacaron a la luz tres informes creíbles de compra de votos que fueron remitidos a la Procuraduría Especializada en Delitos Electorales.4

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Dada la controversia y la falta de consenso sobre los estándares por los cuales las plataformas de redes sociales determinan cuál es el contenido permitido en sus plataformas, el aumento de la soberanía nacional sobre los contenidos permitidos es un tema de interés en muchos países. La Comisión Electoral Independiente (IEC, por sus siglas en inglés), en Sudáfrica, y Bawaslu, en Indonesia, han adoptado procesos de remisión y resolución de denuncias por desinformación para aumentar el poder de decisión nacional sobre la eliminación de ciertos tipos de contenido de las plataformas de redes sociales durante los períodos electorales.

"Si usted presenta una denuncia contra Twitter o Google, su caso [se] resuelve de acuerdo con los términos de una empresa privada. Si no está de acuerdo con el resultado, no hay nada que pueda hacer al respecto; no hay transparencia. Esto significa que una entidad extranjera está determinando cuestiones de importancia nacional". William Bird, director de Media Monitoring Africa

En lugar de marcar el contenido a través de funciones de informes nativas dentro de la plataforma de redes sociales y dejar a criterio de la compañía y de las normas de la comunidad la eliminación de ese contenido o su caída en el ranking de búsqueda, Bawaslu y IEC desarrollaron procesos que les permitieron emitir una decisión con fuerza de ley para obligar a las plataformas a eliminar contenido. Para que se tenga en cuenta este enfoque, los organismos electorales deben ser instituciones independientes y de confianza. Si un organismo electoral no es lo suficientemente independiente de las presiones políticas, un proceso como este podría ser fácilmente utilizado para obtener ventajas políticas.

Sudáfrica: antes de las elecciones de mayo de 2019, IEC trabajó con la sociedad civil para establecer un proceso de remisión y resolución de denuncias. Se inició un portal en línea por el cual se permitió al público presentar denuncias sobre contenidos específicos. Las denuncias fueron recibidas por la Dirección de Delitos Electorales de la IEC, que trabajó con una Comisión de Desinformación Digital conformada por especialistas externos en materia de medios de comunicación, derecho y tecnología para evaluar las denuncias y hacer recomendaciones a la Comisión para su decisión. La IEC comunicaba las decisiones al público a través de informes periódicos enviados a los medios de comunicación, y el estado de las denuncias se seguía públicamente en el sitio web de la IEC a medida que avanzaban en el proceso.

Indonesia: antes de las elecciones de abril de 2019, Bawaslu estableció un proceso de remisión y resolución de denuncias. Además de recibir las denuncias directamente del público, Bawaslu también recibió una recopilación semanal de las denuncias que se habían presentado en el Ministerio de Tecnologías de la Información y las Comunicaciones. Un grupo de trabajo de medio tiempo dentro de Bawaslu evaluaría y definiría el contenido para determinar si era contrario a las normas nacionales. El contenido que se determinó como contrario a la normativa se envió a las plataformas de redes sociales a través de un canal acelerado para su revisión y eliminación.  De las 3.500 denuncias recibidas por Bawaslu, se determinó que 174 eran de su competencia (relacionadas con las elecciones) y se procesaron para su posterior revisión por parte de las plataformas. 

El establecimiento de un proceso de remisión y resolución de denuncias es un proyecto que requiere una gran cantidad de mano de obra y recursos. Si un organismo electoral está considerando este enfoque, hay varios factores que se deben tener en cuenta con respecto a si deben establecer un sistema y, si lo hacen, cómo diseñar un sistema eficaz.

 

6.1 ¿CUÁLES SON LAS VÍAS POR LAS QUE SE INFORMA EL CONTENIDO?

Al igual que con cualquier proceso de resolución de denuncias, los diseñadores del sistema deben contemplar quién tiene derecho a presentar una denuncia para su posterior consideración. ¿Alguien debería tener la capacidad de marcar un contenido para que el organismo electoral lo revise? ¿Solo los partidos políticos y candidatos? ¿El organismo electoral debería juntar las denuncias recibidas por otras agencias u organismos gubernamentales?

El sistema sudafricano permite que la Comisión "del modelo de formulario Real411 reciba denuncias por desinformación de cualquier persona durante el período electoral."1 Esto se pone en práctica a través del sistema Real411, que incluye un portal web donde cualquier persona del público, independientemente de si está habilitada para votar, puede marcar el contenido para su posterior revisión. En la actualidad, el portal recibe denuncias todo el año, no solo durante el período electoral, y su mantenimiento está a cargo de Media Monitoring Africa, un grupo de la sociedad civil que organiza los equipos de revisión conformados por tres especialistas externos que pertenecen a la Comisión de Desinformación Digital (DDC, por sus siglas en inglés). Durante las elecciones, el DDC hace recomendaciones a la Dirección de Delitos Electorales de la IEC sobre las medidas a considerar.

Los sistemas que están abiertos a los informes públicos de cualquier persona facilitan el ataque masivo en línea o brigading, en el que los agentes que deseen sobrecargar o desacreditar el sistema podrían saturar el canal de informes con documentos falsos o erróneos. Un ejemplo de no desinformación en relación con este tema tuvo lugar antes de las elecciones serbias de 2020. En este caso, un partido que estaba haciendo boicot a las elecciones creó una campaña viral en Facebook alentando a personas partidarias a presentar reclamos a través del proceso de denuncias electorales del organismo correspondiente con el presunto propósito de saturar su capacidad de resolución de disputas. Aunque los casos fueron desestimados, al parecer, causaron retrasos administrativos que afectaron la eficacia del proceso de denuncias. Sudáfrica intenta mitigar este riesgo exigiendo a quienes denuncian que envíen de forma confidencial sus nombres y direcciones de correo electrónico junto con su denuncia.

A sabiendas de las formas en que los mecanismos de denuncia excesivamente formales pueden ralentizar significativamente la colaboración, Bawaslu mantuvo canales de comunicación informales con sus colegas del Ministerio de Tecnologías de la Información y Comunicación, la policía y el ejército a través de WhatsApp para remitir e intercambiar información sobre las denuncias, además de recibir denuncias directamente del público. Cada semana, el Ministerio de Tecnologías de la Información y Comunicación recopilaría y enviaría los informes de contenido que había recopilado a Bawaslu para su revisión y clasificación, y para determinar futuras medidas. Los interlocutores de Bawaslu estiman que recibieron un promedio de 300 a 400 informes por semana.

6.2 ¿CUÁLES SON LAS NORMAS PARA DETERMINAR LA INFRACCIÓN AL CONTENIDO?

Las definiciones que utiliza un órgano de remisión y resolución de denuncias por desinformación para definir qué contenido constituye una infracción que requiere compensación o reparación deben estar redactadas de manera clara y con términos precisos, y ajustarse al marco constitucional, legal y regulatorio del país.

En Sudáfrica, el proceso de denuncias está incorporado al proyecto del Código de Conducta para la implementación de medidas a fin de abordar la desinformación dirigida a causar daños durante el período de elecciones. En el código, se establecen definiciones claras de lo que constituye la desinformación, concretamente, la intención de causar daño público, que incluye interrumpir las elecciones, impedir que tengan lugar, o incidir en la conducta o en el resultado de una elección. Como se analiza en el apartado sobre los códigos de conducta,las definiciones del código se basan firmemente en la Constitución y en el marco legal electoral de Sudáfrica. Las mismas normas son utilizadas en cada etapa del proceso de denuncias, tanto por el DDC, que es externo a la IEC, como por la Oficina de Delitos Electorales y los comisionados dentro de la IEC.

Las definiciones estandarizadas permiten que los organismos electorales participen en consultas y forjen relaciones con posibles aliados en la lucha contra la desinformación electoral. En Indonesia, Bawaslu creó definiciones estandarizadas en materia de contenido ilegal en las campañas electorales. Antes de las elecciones locales de 2018, en las leyes existentes, se describían categorías de contenido prohibido, como incitación al odio, calumnias y engaños, pero estas categorías carecían de definiciones claras. Para lograr la definición de términos, la Fundación Internacional para Sistemas Electorales (IFES, por sus siglas en inglés) prestó apoyo a Bawaslu en la puesta en marcha de una serie de mesas redondas en las que participaron más de 40 partes interesadas del gobierno, la sociedad civil y diversas organizaciones religiosas para conversar sobre las definiciones de los tipos de contenido prohibido en las campañas electorales. Luego se tomaron en cuenta los comentarios que surgieron de las conversaciones en la formulación del Reglamento de Bawaslu sobre el contenido prohibido en campañas electorales.2 Las consultas también pueden redactarse de manera más precisa. En el período previo al lanzamiento de su proceso de denuncias, un grupo de trabajo que incluía a personas de la IEC, abogados de distintos medios de comunicación y miembros de la prensa debatió sobre las definiciones en Sudáfrica. 

También es probable que las definiciones evolucionen con el tiempo, a medida que se ponga a prueba el proceso de denuncias. En Sudáfrica, uno de los temas de debate iniciales fue si el proceso de denuncias debía contemplar los discursos de odio y los ataques a periodistas. Aunque ambos temas fueron excluidos de las definiciones utilizadas durante las elecciones de 2019, Media Monitoring Africa y las entidades asociadas formularon definiciones y elaboraron procesos de presentación de informes para estas categorías adicionales de denuncias tras las elecciones. Las denuncias sobre estos otros temas ahora se pueden presentar a través del portal de denuncias, y la IEC puede considerarlas para futuras elecciones. 

También podría ser útil analizar los marcos legales y regulatorios existentes en torno a la violencia de género, la violencia contra la mujer o la igualdad de género, que se pueden utilizar para elaborar definiciones de contenido en línea que pueda ser contrario a estas leyes y reglamentos. Es primordial la inclusión de definiciones específicas de incumplimientos que afectan de manera desproporcionada a las mujeres y a otros grupos marginados para garantizar que sus preocupaciones y experiencias se atiendan a través de esta iniciativa.

6.3 MEDIDAS REPARATORIAS, SANCIONES Y EJECUCIÓN DE DECISIONES

En un proceso de resolución, se deben estipular una variedad de medidas reparatorias y sanciones que puedan adaptarse a la infracción que se identifique.  En un proceso de remisión de denuncias, puede ser conveniente que existan más medidas reparatorias a su disposición que el envío de contenido a las plataformas para su eliminación.  

Tanto en Sudáfrica como en Indonesia, la decisión más frecuente con respecto a las denuncias remitidas fue no imponer ninguna medida, ya sea porque no se consideró que el contenido constituyera razón suficiente para causar daño público o porque el contenido quedaba fuera del ámbito estricto del contenido relacionado con las elecciones. Por lo tanto, no era un asunto de competencia del organismo electoral. 

La IEC de Sudáfrica tiene la autoridad para determinar las vías de recurso adecuadas. Estas incluyen:3

  • La determinación de que no es necesario imponer ningún tipo de medida.
  • El compromiso con el partido o la persona candidata que ha cometido la infracción para instar a que se cumplan las disposiciones del código de conducta de desinformación, en el que se estipula que las personas o entidades firmantes deben actuar para corregir la desinformación y reparar el daño público previa consulta con la IEC, incluida la desinformación proveniente de partidarios y representantes de dichas personas o entidades.
  • La remisión al organismo regulador o de la industria correspondiente que sea competente en el caso, incluido el Consejo de Prensa de Sudáfrica o la Autoridad Independiente de Comunicaciones de Sudáfrica.
  • La remisión a un organismo público de importancia, como la policía, para realizar nuevas investigaciones o adoptar nuevas medidas.
  • La remisión al tribunal electoral para la multa o sanción correspondiente.
  • El uso de los canales de comunicación de la IEC para corregir la desinformación y reparar el daño público.

Los medidas reparatorias previstas a través del proceso de Bawaslu eran más limitadas que las de sus colegas de Sudáfrica. Bawaslu tenía la autoridad para realizar un seguimiento de las redes sociales durante el período de campaña, pero no para tomar medidas contra los infractores.  El proceso hacía principal hincapié en elevar el contenido para que las plataformas lo revisen y eliminen. En los casos en que el contenido era contrario a las normas comunitarias de la plataforma, el contenido se eliminó o su distribución se limitó de acuerdo con las políticas de la plataforma. En el caso de Facebook, cuando el contenido era contrario a la ley de Indonesia, pero no infringía las normas comunitarias de Facebook, el contenido era "geobloqueado": la publicación era inaccesible desde cualquier punto de Indonesia, pero continuaba siendo accesible en otros países. 

Además de la eliminación o restricción de contenido, Bawaslu también utilizó el contenido que recopiló para identificar la educación de las personas votantes y los temas de información de los votantes para destacarlos en sus mensajes públicos. También remitió casos al sistema de tribunales penales cuando el contenido era contrario a las disposiciones del código penal. Bawaslu informó que no hubo casos de sanciones contra partidos políticos que utilizan el código penal, aunque se adoptaron medidas contra personas. En especial, el "engaño de los siete contenedores" de gran difusión, por el que se afirmaba que se enviaron a Jakarta buques de carga llenos de boletas anteriores a la votación, provocó que se formularan cargos penales contra las personas que iniciaron y difundieron el rumor falso.   

6.4 ¿CÓMO ACTUARÁ EL SISTEMA DE FORMA RÁPIDA?

El plazo posible para la resolución y la adopción de medidas plantea un desafío importante en los procesos de remisión y resolución de denuncias. Aunque parte del contenido identificado como de alta prioridad se abordó rápidamente, los sistemas que Indonesia y Sudáfrica desarrollaron y utilizaron durante sus respectivas elecciones tuvieron múltiples etapas que, en ocasiones, tomó semanas ordenar para emitir una decisión sobre un contenido específico. Dado el volumen de publicaciones, la iteración rápida de mensajes y tácticas, y la velocidad con la que el contenido problemático puede volverse viral, es poco probable que un proceso lento de eliminación de contenidos tenga un impacto medible en la integridad del entorno de la información. Para cuando un contenido específico haya circulado durante uno o dos días, mucho menos una semana o dos, es probable que haya causado la mayor parte del daño, y la rotación del contenido asegurará que hayan surgido nuevas narrativas para captar la atención del público.  

En los casos en que la medida reparatoria o la sanción solicitadas van más allá de la eliminación de contenido, como en el caso de Sudáfrica, un plazo más lento puede no afectar la eficacia de la medida. En ocasiones, Media Monitoring Africa llevaría a cabo una doble vía en la que se enviaría el contenido a la IEC y a las plataformas de forma simultánea: a la IEC, para considerar las diversas medidas reparatorias que tiene a su alcance y puede emitir, y a las plataformas, para revisar el contenido para una eliminación inmediata. Sin embargo, si la principal medida reparatoria que se procura conseguir por un proceso de resolución de denuncias es la eliminación del contenido de una plataforma de redes sociales, un proceso de remisión de denuncias de varias etapas puede no ser una forma eficaz de lograrlo. La eliminación de contenidos puede no ser un objetivo en el que los organismos electorales deban participar.

6.5 ¿CÓMO SE LOGRA LA DIFUSIÓN PÚBLICA O SE GENERA LA TOMA DE CONCIENCIA PÚBLICA?

El proceso de remisión y resolución de denuncias debe tener un objetivo doble: el propósito de un sistema de este tipo es tanto reparar los daños de la desinformación como generar confianza entre el electorado de que las autoridades están atendiendo eficazmente los desafíos de la desinformación de manera que protejan la integridad del proceso electoral. Pensar en una estrategia de comunicación para dar a conocer las iniciativas y los logros del proceso es un componente fundamental para aprovechar al máximo un sistema de denuncias. La mera existencia del sistema de denuncias, si se comunica de manera convincente al público, puede ayudar a reconstruir la percepción pública de la confiabilidad de los procesos democráticos y de los resultados electorales.

En el caso de Sudáfrica, un beneficio secundario de llevar a cabo el proceso de denuncias fue que la IEC podía ofrecer garantías al público tras la elección de que su integridad no había sido socavada por agentes malignos coordinados cuya intención era distorsionar los resultados o interrumpir los procesos electorales. De alguna manera, el mecanismo de remisión también sirvió como iniciativa de monitoreo de los medios de colaboración abierta y permitió llegar a la conclusión de que no había pruebas de que existieran actividades de influencia estatal o extranjera que se estuvieran realizando a gran escala. La IEC concluyó que hubo casos de desinformación e información falsa, pero no hubo pruebas de que existiera una campaña de desinformación coordinada. 

El proceso de denuncias desarrollado por la IEC incluyó la planificación de cómo mantener informado al público sobre las decisiones que se tomaron. Como una forma de generar la toma de conciencia y el interés público en el sistema de denuncias, la IEC envió informes periódicos a los medios de comunicación con un resumen de las denuncias recibidas y la manera de atenderlas. Aunque el proceso de denuncias solo estuvo en marcha durante un breve período antes de las elecciones, los esfuerzos de comunicación de la IEC ayudaron a generar apoyo para el proceso de denuncias, lo que provocó que el sistema continúe incluso después de las elecciones. 

6.6 Disponer del tiempo adecuado para desarrollar y revisar el proceso de denuncias   

Un proceso eficaz de resolución de denuncias es una labor compleja para poner en marcha y lograr la aceptación institucional. Tal sistema puede llevar tiempo para que las personas encargadas de su implementación aprendan a usarlo. El tiempo de puesta en marcha de un sistema puede ser extenso, sobre todo si supone elementos de consulta y el desarrollo de definiciones comunes. Los sistemas existentes deben revisarse antes de cada elección para garantizar que sean adecuados para hacer frente a la creciente amenaza de desinformación electoral.

Los planes y las consultas para el sistema Real411 de Sudáfrica comenzaron en otoño de 2018, y el sistema solo pudo comenzar a funcionar en abril de 2019, antes de las elecciones de mayo. Si bien en ese momento no estaban relacionadas con el sistema de remisión de denuncias, las consultas sobre las definiciones de contenido contrarias a la normativa en Indonesia se llevaron a cabo un año antes de las elecciones de 2019.

 

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Coordinación entre los organismos electorales y las empresas de tecnología y redes sociales para mejorar la difusión de información confiable o limitar la difusión de contenido problemático durante los períodos electorales.

Las empresas de tecnología y redes sociales, incluidas, entre otras, Facebook, Google, Twitter, TikTok y sus empresas subsidiarias, entre ellas Instagram, WhatsApp y YouTube, tienen un papel que desempeñar para garantizar que las elecciones se lleven a cabo en un entorno de información creíble y que su las plataformas no se utilicen para socavar la integridad de las elecciones. Si bien las empresas deben rendir cuentas por los daños que puedan derivarse de sus plataformas y servicios, el progreso hacia la mitigación de estos daños puede mejorarse mediante el compromiso directo con estas empresas.

"Por supuesto que las empresas de tecnología tienen más herramientas para regular lo que sucede en sus plataformas. Hay cosas que los gobiernos no pueden hacer, pero las empresas de tecnología sí pueden; necesitamos su ayuda, pero es necesaria la audacia del gobierno para decirlo", Fritz Edward Siregar, comisionado de la Agencia de Supervisión de las Elecciones Generales de Indonesia (Bawaslu)

El tamaño del mercado de un país es importante cuando se trata de la cantidad de recursos que están dispuestas a invertir las empresas de redes sociales y qué tan disponibles están para ayudar y coordinar con los organismos electorales. Antes de las elecciones de 2019, la Comisión Electoral de la India pudo convocar a representantes de las principales empresas de redes sociales para llevar a cabo una sesión de intercambio de ideas de dos días sobre enfoques de contenido problemático de redes sociales en las elecciones, obteniendo el compromiso de esas empresas de cumplir con un código de ética. Por el contrario, los organismos electorales de países más pequeños han informado de dificultades para lograr que los representantes de la empresa respondan a sus mensajes, incluso después de establecer un punto de contacto dentro de la empresa. Existe una variación significativa en las experiencias de los organismos electorales que trabajan con empresas de tecnología y redes sociales, ya que las plataformas pueden dedicar niveles variables de apoyo a países específicos en función de factores que incluyen el tamaño del mercado, la importancia geopolítica, el potencial de violencia electoral o la visibilidad internacional.

 

 "No somos ingenuos: son empresas con ánimo de lucro" - Dr. Lorenzo Córdova Vianello, Consejero Presidente del Instituto Nacional Electoral de México

 

También existe una variación entre las plataformas de redes sociales en términos de qué tan dispuestas están a participar y cuántos recursos han invertido para trabajar con las autoridades electorales locales. Por ejemplo, las autoridades electorales de Indonesia informaron que Facebook y YouTube tenían representantes locales que facilitaron el trabajo con ellos, pero que Twitter carecía de la capacidad en el lugar, lo que dificultaba la participación recurrente. Según las conversaciones con más de dos docenas de organismos electorales a nivel mundial, parece que Facebook ha invertido más atención y recursos dedicados que otras plataformas para establecer conexiones con las autoridades electorales en una gama más amplia de países.

El estilo y la formalidad de los acuerdos entre las empresas de tecnología y los organismos electorales también varían de un país a otro. Antes de las elecciones mexicanas de 2018, el INE puso a prueba de muchas formas cómo sería la coordinación con las empresas de redes sociales mediante acuerdos de cooperación con Facebook, Twitter y Google, por ejemplo.1 El TSE brasileño, basándose en la experiencia del INE firmó acuerdos formales con WhatsApp, Facebook e Instagram, Twitter, Google y TikTok antes de las elecciones de 2020. Las autoridades electorales brasileñas presionaron para incluir medidas y acciones más concretas que debían adoptar las plataformas de redes sociales, y lograron compromisos de las plataformas para utilizar sus características y arquitectura con el objetivo de reaccionar ante comportamientos maliciosos y no auténticos, así como para promover la difusión de información oficial. Sin embargo, la mayoría de los acuerdos son menos formales y las empresas de redes sociales parecen menos dispuestas a firmar memorandos de entendimiento formales en algunos países y regiones que en otros. En el caso de los países más pequeños, es incluso más probable que la participación sea especial. 

Algunas lecciones aprendidas que los organismos electorales y los representantes de las empresas de redes sociales han compartido con respecto al establecimiento de relaciones productivas:

  • Ambas partes deben establecer canales de comunicación claros y puntos de contacto designados.
  • Las empresas deben establecer relaciones al principio del ciclo electoral cuando las autoridades electorales tengan la capacidad de participar y haya tiempo suficiente para generar confianza. 
  • Los organismos electorales deben asumir la responsabilidad al tener una idea de lo que quieren de las empresas de redes sociales y cómo quieren colaborar.
  • Los organismos electorales deben situar su coordinación con las empresas de redes sociales dentro de los esfuerzos más amplios de múltiples partes interesadas, según corresponda.  Por ejemplo, si un organismo electoral está trabajando tanto con empresas de redes sociales como con responsables de la implementación internacionales para optimizar su uso de las redes sociales, asegurarse de que estas campañas se refuercen entre sí puede aumentar su valor y reducir la duplicación de esfuerzos.
  • Cuando así se desee, los responsables de la implementación internacionales pueden facilitar o proporcionar una estructura a la colaboración entre un organismo electoral y las empresas de redes sociales. En algunos casos, tener un tercero que comprenda cómo operan los organismos electorales y qué tipos de colaboración son más factibles para la empresa de redes sociales puede aumentar la utilidad de estas interacciones y ayudar a los organismos electorales a sentirse seguros de que sus intereses están bien representados.

Aunque existen servicios o tipos de coordinación similares que las empresas de redes sociales brindan en todos los países, la naturaleza exacta de la coordinación difiere de un país a otro. Como se analiza anteriormente, una distinción fundamental en los enfoques del organismo electoral sobre la desinformación electoral es si el enfoque está en una mejor difusión de información creíble o en sanciones por contenido problemático. Esta distinción informa los tipos de colaboración en los que es probable que un organismo electoral se involucre con las empresas de tecnología y redes sociales, aunque muchos organismos electorales se coordinarán de maneras que se incluyan en ambas categorías. 

doodle de Google7.1 Trabajar para ayudar a los organismos electorales a mejorar la difusión de información creíble 

Los organismos electorales pueden asociarse con empresas de tecnología y redes sociales en una variedad de iniciativas que amplían el alcance de los mensajes públicos del organismo electoral o conectan a los votantes con información electoral confiable.

Información para el votante integrada en la plataforma

Una oferta común de Google y Facebook son los recordatorios del día de las elecciones que dirigen a los usuarios a los sitios web del organismo electoral para obtener detalles adicionales sobre cómo participar en las elecciones. En un número cada vez mayor de países, Facebook incorporará notificaciones del día de las elecciones en la parte superior de las fuentes de noticias de los usuarios, que pueden incluir la capacidad de marcar que usted ha votado de una manera que sea visible para sus amigos. En algunos países, Google modificará el "doodle" de Google (la imagen cambiante en la página de inicio del motor de búsqueda) con una imagen de temática electoral que se vinculará a recursos de información de votantes específicos del país. Además de las notificaciones del día de las elecciones, Facebook y Google también pueden integrar notificaciones sobre fechas límite de registro de votantes, datos de candidatos o información sobre cómo votar. Google habilitó un botón de Voto Informado una semana antes de las elecciones mexicanas de 2018 que redirigía a los usuarios a un micrositio del INE con información diseñada para los votantes primerizos.2 Aunque las plataformas pueden ejecutar estas notificaciones de forma independiente, en algunos países las empresas involucran al organismo de gestión electoral para verificar que la información que se proporciona es correcta. Tanto Google como Facebook también han presentado herramientas para ayudar a los votantes a encontrar sus lugares de votación, lo que dirige a los votantes a los recursos del organismo electoral o se basa en datos detallados proporcionados o verificados por dicho organismo, como una función integrada de Google Maps. 

Además de trabajar con Facebook y Google, el TSE en Brasil fue pionero en una serie de vías para trabajar con plataformas adicionales. Por ejemplo, el TSE se asoció con WhatsApp para desarrollar un chatbot que respondió a las preguntas de los usuarios relacionadas con las elecciones y los ayudó a identificar si la información era precisa. El chatbot también proporcionó información sobre los candidatos y sobre cuándo y dónde votar. Más de 1,4 millones de usuarios de WhatsApp consultaron ese chatbot durante el período electoral, y 350.000 cuentas intercambiaron 8 millones de mensajes con el chatbot solo el día de las elecciones. Para las elecciones brasileñas de 2020, Instagram creó stickers para reforzar la importancia de la votación, redirigiendo automáticamente a los usuarios al sitio web oficial del TSE. Twitter creó una notificación para los usuarios con un enlace a la página web del TSE y promovió la difusión de contenido oficial del TSE en la plataforma. TikTok lanzó una página para centralizar la información confiable sobre las elecciones. 

Es importante que las empresas trabajen con los organismos electorales con el fin de asegurarse de que estén preparados para el tráfico adicional a su sitio que puede originarse a partir de estas notificaciones. Una notificación de Facebook que instaba a los indonesios a verificar el estado de su registro de votantes provocó tanto tráfico en el sitio web de la autoridad electoral que colapsó. 

Participación cívica y apoyo a la educación de los votantes

En algunos países, las plataformas se involucrarán en esfuerzos de participación cívica más complejos que tienen como objetivo extender el alcance del contenido creíble e informativo. En México, las empresas de tecnología se asociaron con el INE para ampliar el alcance de la información cívica y electoral. Facebook intensificó el llamado del INE para que los ciudadanos escogieran el tema del tercer debate presidencial, y los tres debates se transmitieron en la plataforma. El INE también colaboró con Twitter utilizando Periscope, la aplicación de transmisión de video en vivo de Twitter, para transmitir los tres debates presidenciales y alentó la participación nacional en torno a los debates con una serie de hashtags personalizados. Incluso pudo utilizar una herramienta Tweet-to-Reply, que permitió a los usuarios que retuitearon mensajes del INE el día de las elecciones optar por recibir los resultados preliminares de las elecciones en tiempo real.

La capacitación sobre cómo las autoridades electorales pueden optimizar su uso de Facebook para la educación y la información de los votantes es otra vía de colaboración con los organismos electorales. En Indonesia, Facebook proporcionó estas capacitaciones a los departamentos de relaciones públicas en las oficinas electorales provinciales y regionales. Si bien Facebook brindó orientación sobre temas tales como cómo hacer videos atractivos, el valor de identificar el mensajero adecuado para el contenido y otras formas de usar la plataforma para sus objetivos, la empresa deja en claro que no brinda orientación sobre qué contenido debería ser compartido, sino simplemente cómo compartir contenido de manera efectiva. 


En función del mandato del organismo electoral y las especificaciones de los acuerdos de colaboración, las empresas de redes sociales y tecnología también pueden colaborar con las autoridades electorales para implementar campañas publicitarias de alfabetización en noticias o capacitaciones para actores electorales sobre la comprensión y detección de la desinformación. También se pueden llevar adelante campañas similares con otras partes interesadas nacionales fuera del organismo electoral; se pueden encontrar datos adicionales sobre este tipo de intervenciones en la sección de la guía sobre Respuestas de la plataforma

Highlight


Ciberhigiene e integridad de la información

Un área de coincidencia en la que las prácticas de ciberseguridad y ciberhigiene del organismo electoral tienen implicaciones para la integridad de la información es la protección de las cuentas oficiales del organismo electoral oficial en las redes sociales y otros canales de comunicación en la Internet. Cuando los canales de comunicación del organismo electoral son pirateados y luego utilizados para difundir información falsa, el impacto no es solo la confusión inmediata que puede causar, sino que también tiene el potencial de socavar la capacidad del organismo electoral para ser un canal de comunicación de confianza en el futuro y socavar la fe en la credibilidad y la profesionalidad de dicho organismo en general.

7.2 Trabajar con organismos electorales para restringir o sancionar contenido problemático

Las empresas de redes sociales también brindan varias vías para que las autoridades electorales identifiquen el contenido que debe restringirse o eliminarse de las plataformas de redes sociales. 

Verificación y seguridad de la cuenta 

Una vía de colaboración importante y no controvertida es brindar a las autoridades electorales apoyo para la eliminación rápida de las cuentas de redes sociales que afirman falsamente ser o hablar en nombre del organismo electoral. La existencia de cuentas falsas puede ser muy problemática, desacreditar el proceso electoral y posiblemente desencadenar violencia. Por ejemplo, en el contexto de las muy polémicas elecciones de Kenia de 2018, una cuenta falsa de Twitter declaró presidente a Uhuru Kenyatta antes de la publicación oficial de los resultados presidenciales, un incidente que el personal de campo de la IFES identificó como un desencadenante de violencia esporádica en áreas de oposición. Varias cuentas falsas utilizaron la imagen del presidente de la Comisión Electoral para anunciar resultados electorales incorrectos o amenazar con violencia contra otros miembros de la Comisión Electoral. 

Las cuentas falsas de organismos electorales son comunes, y su identificación y eliminación es un servicio que las principales plataformas pueden proporcionar a los organismos electorales de cualquier tamaño con relativa facilidad, siempre que exista un canal de comunicación confiable entre la empresa y el organismo electoral. Un miembro de la secretaría del organismo electoral de Malawi informó que Facebook había sido de ayuda para eliminar cuentas falsas antes de las elecciones. La Comisión Electoral Central (CEC) de Georgia informó lo mismo. En Georgia, se descubrieron varias páginas de la CEC falsas. Si bien la CEC consideró que su impacto fue mínimo, la Comisión actuó inmediatamente para que se retiraran las cuentas, poniéndose en contacto con Facebook y escribiendo directamente a los administradores de la página para que desistieran, lo cual fue exitoso en varios casos. Las páginas falsas tenían el potencial de perjudicar la credibilidad de la CEC, lo que provocó una acción decisiva.

 

"La página falsa de la CEC descubierta durante el período preelectoral, titulada "Administración electoral (CEC)", que utiliza el mismo perfil y las mismas imágenes de fondo, daría respuestas poco serias a las personas que hacen preguntas relevantes... nuestra reputación y credibilidad estaban en juego ya que [este] es el objetivo de la desinformación en sí". – Interlocutor de la CEC de Georgia

Facebook, y posiblemente otras plataformas, expresan un deseo activo de que todas las páginas oficiales de organismos electorales se verifiquen en la plataforma. En una reunión de comisionados y personal del organismo electoral en Sudáfrica a principios de 2020, establecieron un stand que los representantes del organismo electoral podrían visitar durante la conferencia para verificar sus cuentas, llamar la atención sobre cuentas falsas y debatir sobre otros problemas de seguridad de cuentas. Facebook reitera los protocolos básicos de seguridad como parte de la verificación de la cuenta, incluida la habilitación de la autenticación de dos factores para que las cuentas de redes sociales de organismos electorales sean más seguras.  

Lista blanca para marcar contenido problemático 

Las empresas de redes sociales también pueden proporcionar a los organismos electorales un canal acelerado para informar sobre contenido que viola los estándares de la comunidad de la plataforma. Las principales plataformas con sede en los EE. UU. mantienen disposiciones que prohíben el contenido que constituye interferencia electoral, supresión de votantes y discurso de odio. En algunos casos, el establecimiento de un canal de información se realiza mediante un proceso más formal. En otros, puede ocurrir de forma más puntual.

El proceso de presentación de informes de Indonesia a Facebook, por ejemplo, fue un acuerdo formal, con un proceso de presentación de informes que se analizó y diseñó para adaptarse a las necesidades de Bawaslu. Facebook capacitó al personal del organismo electoral en las normas comunitarias y el proceso de revisión de contenido de la plataforma y proporcionó a Bawaslu un canal específico a través del cual podían denunciar violaciones. Facebook y Bawaslu celebraron una serie de reuniones para aclarar las políticas de revisión de contenido de Facebook en relación con la ley local y para establecer un procedimiento para el proceso de presentación de informes de Bawaslu durante el período electoral.  Este proceso incluía que Bawaslu clasificara el contenido que identificaban como problemático, qué ley local violaba el contenido y el argumento por el cual el contenido violaba esa ley. Esto luego se enviaba como una hoja de cálculo de Excel semanalmente a Facebook. La subcategoría de remisión y resolución de denuncias contiene más detalles sobre este proceso. Aunque este proceso formal se diseñó y adoptó minuciosamente, un representante de Bawaslu indicó que su proceso de presentación de informes a Facebook no fue tan rápido como con otras plataformas. El representante de Bawaslu indicó que, en su proceso de informes formales a YouTube, la eliminación del contenido contrario a las normas fue más rápida. 

En la India, la comisión electoral convocó a plataformas de redes sociales antes de las elecciones y, como parte del código de ética voluntario, las plataformas "acordaron crear un mecanismo de información específico de alta prioridad para la ICE y nombrar equipos exclusivos durante el período de las elecciones generales para tomar medidas rápidas en relación con cualquier violación de las normas". 

Los canales para marcar contenido en las plataformas a menudo se forman de manera más específica, particularmente en países con poblaciones más pequeñas en las que las plataformas carecen de presencia física. Si no existen relaciones preexistentes con las plataformas, puede que sea demasiado tarde para establecer un proceso claro para cuando se convoquen las elecciones. El mero establecimiento de contacto puede ser insuficiente para sentar las bases de un intercambio productivo de información que beneficie a los organismos electorales. Un representante del organismo electoral de Mauricio informó que Facebook había enviado representantes para reunirse con ellos antes de las elecciones de 2019 y alentó al organismo electoral a informar todo contenido de interferencia en la elección de los votantes para su eliminación. Sin embargo, cuando el organismo electoral identificó contenido durante la elección que dirigió a los votantes a los lugares de votación incorrectos y alegó falsamente que las boletas estaban siendo manipuladas (claras violaciones de los normas comunitarias de Facebook relacionadas con la interferencia en la elección de los votantes), el organismo electoral no pudo comunicarse con nadie en Facebook para eliminar el contenido. 

Para los organismos electorales que, en la actualidad, solo tienen una comunicación especial con las plataformas, sería valiosa una mayor sistematización del proceso para elevar las preocupaciones a las plataformas. Las plataformas deben garantizar que cuentan con suficiente capacidad adicional de personal y canales de información para que la respuesta no dependa de una o dos personas que inicialmente establecieron contacto con el organismo electoral. 

Certificación previa de anunciantes políticos

Un arreglo sin precedentes que la Comisión Electoral de la India hizo para las elecciones de 2019 fue exigir que los anuncios políticos fueran certificados previamente por el Comité de Certificación y Monitoreo de Medios de Comunicación antes de que se publicaran en las redes sociales. Los candidatos proporcionaron la información de sus cuentas de redes sociales a la comisión electoral como parte del proceso de presentación de sus nominaciones, y se requirió que las plataformas permitieran que esas cuentas solo publicaran anuncios que habían sido certificados. Además, se requería una certificación para todos los anuncios electorales que presentaban nombres de partidos políticos o candidatos para las elecciones generales de 2019. Las plataformas también estaban obligadas a eliminar los anuncios políticos que no tenían certificación tras la notificación de la ECI. Es difícil imaginar que las plataformas cumplen con medidas como esta en un país con una audiencia de mercado menor que la India, o en el que la empresa no estaba físicamente presente. Esta intervención se analiza con más detalle en la sección Respuestas legales y reglamentarias.

Cumplimiento del período de silencio

La aplicación de un período de silencio o enfriamiento de la campaña inmediatamente antes del día de las elecciones (como se define en la ley local) es otra área en la que algunos organismos electorales se han coordinado con las plataformas de redes sociales. Tanto Indonesia como la India obtuvieron con éxito el cumplimiento por parte de las empresas de redes sociales de que respetarían el período de silencio. Otras autoridades electorales que expresan interés en tener un arreglo similar han tenido menos éxito en lograr el cumplimiento por parte de las plataformas. 

Durante el período de silencio de 48 horas antes del día de las elecciones, el Código de Ética Voluntariode la India obliga a las plataformas a eliminar el contenido objetable dentro de las tres horas posteriores a que la Comisión Electoral les informe al respecto.

La prohibición en Indonesia se aplica únicamente a la publicidad pagada, no a las publicaciones que se difunden orgánicamente. Indonesia adoptó un enfoque de cumplimiento asertivo del período de silencio al enviar cartas a cada una de las plataformas en las que se describen las disposiciones de la prohibición de la publicidad de campaña durante el período de silencio. Las cartas indicaban la voluntad de utilizar las disposiciones penales existentes en la ley para exigir el cumplimiento de la plataforma. Facebook inicialmente argumentó que el límite entre la publicidad regular y la publicidad política sería difícil de discernir. Bawaslu respondió que no era su responsabilidad resolver esa tensión y que correspondía a las plataformas asegurarse de que cumplieran con la ley. Bawaslu especuló que la fuerza de este edicto llevaba a una interpretación conservadora de lo que constituía la publicidad política por parte de las plataformas, lo que las llevó a restringir una gama más amplia de publicidad al límite durante el período de silencio de tres días de lo que hubieran hecho de otra manera. Bawaslu estimó que, según los informes que recibieron de las plataformas, la prohibición provocó el rechazo de aproximadamente 2.000 anuncios en todas las plataformas durante el período de silencio de tres días.

 

Highlight


Intervención destacada:

El Memorando de Entendimiento entre el TSE de Brasil y WhatsApp estableció un canal de comunicación específico para que el TSE pueda denunciar directamente las cuentas de WhatsApp sospechosas de enviar mensajes masivos. El TSE puso a disposición de los ciudadanos un formulario en línea para denunciar la mensajería masiva ilegal, y al recibir esas denuncias, WhatsApp iniciaría rápidamente una investigación interna para verificar si las cuentas denunciadas habían violado los términos y políticas de WhatsApp sobre los servicios de mensajería masiva y mensajes automáticos. En este caso, las cuentas que realicen conductas prohibidas serían inhabilitadas. Durante el período electoral de 2020, el TSE recibió 5.022 denuncias de mensajes masivos ilegales relacionados con las elecciones, lo que llevó a la inhabilitación de 1.042 cuentas.

"¿Tiene un país la audacia de amenazar a Facebook y YouTube para que sigan las pautas? Si tienen esa audacia, las empresas tecnológicas considerarán el puesto" - Comisionado Fritz Edward Siregar, Agencia de Supervisión de las Elecciones Generales de Indonesia (Bawaslu)

La aplicación de un período de silencio no es algo sobre lo que las plataformas hayan actuado sin ser obligadas por las autoridades locales, y es poco probable que los países más pequeños tengan la influencia necesaria para exigir el cumplimiento. Otras dimensiones de los períodos de silencio electoral se analizan en la sección legal y reglamentaria de esta guía.

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Los organismos electorales pueden coordinarse con la sociedad civil para mejorar el alcance de sus mensajes o ampliar su capacidad para participar en actividades que requieren mucho tiempo y trabajo, como la verificación de datos o la escucha social. La capacidad para forjar este tipo de asociaciones variará significativamente en función de la credibilidad, la independencia y la capacidad tanto de los organismos electorales como de las CSO en un país determinado. 

La colaboración entre los organismos electorales y las CSO se puede formalizar en diversos grados. Por ejemplo, antes de las elecciones indonesias de 2019, Bawaslu firmó un Memorando de Acción (MoA) con la CSO de verificación de datos Mafindo y la CSO de supervisión electoral Perludem que describe los parámetros de su coordinación planificada para contrarrestar la desinformación y la incitación en línea. En Sudáfrica, la coordinación entre la CSO Media Monitoring Africa y la IEC en el desarrollo de su proceso de remisión y resolución de denuncias por desinformación incluyó una estrecha relación de trabajo, pero no se formalizó. Si bien las asociaciones deben revisarse con regularidad para garantizar que sigan cumpliendo los objetivos previstos, las relaciones de colaboración también pueden ser duraderas en lugar de reinventarse en cada ciclo electoral; Perludem celebró un acuerdo de cooperación con la KPU desde 2015 para brindar asistencia con los esfuerzos de información al votante, entre otras cosas.

La colaboración entre los organismos electorales y las CSO requiere un cuidadoso acto de equilibrio para mantener la credibilidad y la independencia reconocida de ambas entidades. Para las CSO, una relación visible con un organismo electoral puede legitimar y elevar el perfil del trabajo que están realizando, pero también puede exponerlas a acusaciones de parcialidad o abdicación de su papel como organismos de control de las instituciones gubernamentales. 

En el caso de Media Monitoring Africa (MMA), que desempeñó un papel fundamental en el desarrollo y la entrega del proceso de remisión y resolución de denuncias por desinformación de la IEC en Sudáfrica, la participación de la IEC en el esfuerzo aportó al proyecto visibilidad y credibilidad con los donantes y con las empresas de redes sociales que inicialmente se mostraron escépticas ante la idea. Esta credibilidad, a su vez, permitió a MMA recaudar fondos suficientes para desarrollar el proyecto y brindar su asistencia al IEC sin costo para la institución, lo que eliminó cualquier relación financiera que pudiera haber puesto en duda su imparcialidad. Prelude también tiene una política de no recibir dinero de los organismos electorales, y la directora ejecutiva, que trabajó anteriormente para Bawaslu, se asegura de que la comunicación entre su oficina y las autoridades electorales se lleve a cabo de manera transparente a través de canales formales. 

Al mismo tiempo, una relación visible con un organismo electoral puede cuestionar la imparcialidad de una CSO. Por ejemplo, el trabajo de verificación de datos de Mafindo incluye abordar la desinformación sobre Bawaslu y la KPU, lo que los ha expuesto a críticas por depender demasiado de las refutaciones oficiales de esas instituciones en lugar de la verificación independiente de las denuncias que se están investigando. Prelude informa que los medios de comunicación acudirán a ellos para aclarar algunas historias relacionadas con las elecciones porque brindan respuestas más rápidas que las fuentes oficiales, lo cual los ha expuesto a acusaciones de que sirven como un departamento de relaciones públicas para la KPU. 

8.1 ESTABLECIMIENTO DE UNA COALICIÓN

La coordinación del organismo electoral con las CSO puede servir simultáneamente para varios objetivos, incluida la creación de consenso sobre la desinformación como una amenaza para las elecciones, la coordinación y la amplificación de refutaciones y contrarrelatos, así como la transparencia y la responsabilidad.

Como se analiza en la sección sobre Códigos de conducta y Códigos de ética y la sección sobre Procesos de remisión y resolución de denuncias por desinformación, el acto de consulta puede establecer una base mediante la cual un organismo electoral comienza a construir una red de actores que pueden trabajar juntos para combatir la desinformación electoral

Highlight


En 2019, el TSE de Brasil lanzó su "Programa de lucha contra la desinformación" enfocado a las elecciones de noviembre de 2020. El programa reunió a unas 60 organizaciones, entre ellas organizaciones de verificación de datos, partidos políticos, instituciones de educación e investigación y plataformas de redes sociales.

El programa organizó las campañas en torno a seis temas: Organización interna del TSE, formación y desarrollo de capacidades, contención de la desinformación, identificación y verificación de datos de desinformación, revisión del marco legal y reglamentario, y mejora de los recursos tecnológicos.

El compromiso de Bawaslu con las CSO, universidades, organizaciones religiosas y grupos de jóvenes para establecer su Declaración de principios y consultar sobre las definiciones de contenido prohibido en las campañas electorales proporcionó una base para las estrategias de intervención de múltiples partes interesadas de Bawaslu.  La inclusión temprana de líderes religiosos, por ejemplo, significó una base para una relación que luego podría ayudar a reforzar la credibilidad del organismo electoral en el futuro, particularmente en el contexto de los Centros para crisis de engaños. La construcción de amplias coaliciones de esta naturaleza también es algo que llevó a cabo el INE en México antes de las elecciones de 2018 al reunir a representantes de la sociedad civil, medios de comunicación, académicos, líderes políticos y representantes de empresas de redes sociales para una conferencia con el fin de debatir cómo contrarrestar la influencia de la desinformación. A esta conferencia inicial le siguieron reuniones de coordinación entre grupos de tecnología cívica, verificadores de datos y grupos de observadores electorales ciudadanos para colaborar en sus esfuerzos para combatir la desinformación en las elecciones. En agosto de 2019, el TSE de Brasil lanzó su "Programa de lucha contra la desinformación", que hizo hincapié en la alfabetización mediática, después de conseguir más de 40 socios institucionales, incluidos medios de comunicación, agencias de verificación de datos y representantes de empresas de tecnología y redes sociales.

El establecimiento de redes y coaliciones también puede ayudar al organismo electoral a intensificar los mensajes de información al votante y los mensajes para contrarrestar la información falsa o la incitación. Por ejemplo, parte del MoA que describe la cooperación entre Bawaslu, Marino y Perludem incluyó una estrategia conjunta de difusión de información para maximizar la red de cada organización para un mejor alcance. Además, Perludem llevó a cabo esfuerzos de información al votante en cooperación con la KPU para promover la comprensión de cada fase del proceso de votación y el papel del organismo electoral, una táctica de comunicación proactiva que puede dificultar que los votantes sean engañados por información falsa y desinformación sobre el proceso electoral. También trabajaron con ambos órganos de gestión electoral para integrar las características del sitio web que permitieron la creación de redes de información entre los organismos electorales, su propio trabajo y el trabajo de los periodistas. Como parte de este esfuerzo, trabajaron con la KPU para desarrollar una API que pudieran usar para extraer directamente datos oficiales de la KPU con el fin de completar el sitio web de Prelude. También permitieron que los informes de desinformación del público se canalizaran a Bawaslu mediante la integración del sitio web de Perludem con CekFacta, una red de verificación de datos de periodistas. 

La coordinación con las CSO también puede ayudar a promover la responsabilidad de los órganos electorales. Por ejemplo, Prelude, además de proporcionar un portal mediante el cual las personas podían informar denuncias por desinformación a Bawaslu, también supervisó el progreso de los informes que se enviaron a través de su sistema para un mayor nivel de transparencia sobre cómo se estaban manejando los informes.

8.2 VERIFICACIÓN DE DATOS Y REMISIÓN DE DENUNCIAS

Es poco probable que un organismo electoral tenga la capacidad o la necesidad de ejecutar su propia operación de verificación de datos. Sin embargo, contar con el organismo electoral como contribuyente externo a una operación de verificación de datos puede mejorar la efectividad de esos esfuerzos en torno a una elección. 

El establecimiento de vínculos de comunicación con el organismo electoral puede permitir que las organizaciones de verificación de datos reciban una aclaración rápida en un caso en el que dicho organismo pueda evaluar con autoridad la precisión de una información falsa o engañosa en circulación. 

El INE tuvo un papel que desempeñar en el esfuerzo de verificación de datos de #Verificado2018 en México, que se analiza con mayor detalle en el capítulo sobre respuestas de la sociedad civil. La colaboración fue particularmente valiosa el día de las elecciones, ya que el INE pudo aclarar rápidamente varias situaciones. Por ejemplo, el INE filmó y compartió rápidamente un video que explica por qué los sitios de votación especiales se estaban quedando sin boletas en respuesta a las quejas provenientes de esos sitios de votación. Los periodistas de #Verificado2018 también consultaron con el INE para verificar o refutar los informes de violencia relacionada con las elecciones, y esa información luego se difundió ampliamente a través de los medios de comunicación. El acuerdo del INE con el equipo de periodistas de #Verificado2018 estableció que las autoridades electorales aclararían cuanto antes todos los temas que se les presentaran y que el equipo de periodistas de Verificado, a su vez, consultaría con el INE antes de publicar las denuncias, además de buscar la confirmación a través de fuentes independientes. 1 

El acuerdo entre MAFINDO y las autoridades electorales de Indonesia, tanto Bawaslu como el KPU, también se diseñó para facilitar una rápida aclaración en los casos en que la red de verificación de datos les proporcionó información falsa o desinformación electoral. En la práctica, algunas veces fue difícil obtener aclaraciones rápidas, un problema que MAFINDO atribuyó a ineficiencias en el flujo interno de información que podrían causar la recepción de información contradictoria proveniente de diferentes personas dentro de los organismos electorales.

Las organizaciones de verificación de datos en Brasil también estaban insatisfechas con la rapidez y amplitud de las respuestas a las solicitudes de aclaración que dirigieron al Tribunal Superior Electoral (TSE) durante las elecciones de 2018. El TSE informó que el volumen de solicitudes de aclaración que recibieron superó las expectativas y la capacidad de respuesta de su personal. 

Desde la perspectiva del apoyo a programas, la coordinación con actores externos y la aclaración de las líneas internas de comunicación como parte de la planificación estratégica y de comunicación de crisis es algo que podría resultar útil. Los organismos electorales deben estar preparados para ser apelados por organizaciones de verificación de datos, reconociendo que la rapidez es importante para responder. Un protocolo de comunicación debe aclarar quién debe recibir, procesar y rastrear la respuesta a las solicitudes de información, qué persona dentro del organismo electoral tiene la autoridad para emitir una aclaración y cuál será el proceso interno para verificar la exactitud de la información.

8.3 Tercerización de la escucha social

Al igual que la verificación de datos, la escucha social para informar la respuesta rápida a incidentes es otro esfuerzo que requiere mucha mano de obra y que los organismos electorales pueden carecer de la capacidad para realizarlo por sí mismos. La sociedad civil puede llenar este vacío a través de asociaciones con los organismos electorales.

En 2012 y 2016, la organización de medios de comunicación independientes Penplusbytes estableció centros de seguimiento de redes sociales (SMTC) para monitorear las redes sociales durante las elecciones de Ghana. Los SMTC utilizaron un software de código abierto que presenta tendencias en logística de votación, violencia, partidos políticos y otros temas. Estas tendencias fueron supervisadas durante un período continuo de 72 horas por el personal de Penplusbytes y estudiantes universitarios. El proceso incluyó un equipo de seguimiento para supervisar el entorno de las redes sociales y pasar el contenido sospechoso a un equipo de verificación que comprobaría la precisión del contenido que se les reenviaba. Luego, el contenido problemático se envió a un equipo de escalada que transmitió información al Grupo de Trabajo de Seguridad de las Elecciones Nacionales. Los miembros del SMTC también integraban la Comisión Electoral Nacional. 

Si no es factible establecer un esfuerzo dedicado como el del SMTC, un organismo electoral puede lograr muchos de los objetivos de escucha social para la respuesta a incidentes a través de asociaciones existentes. El intercambio de inteligencia sobre relatos de tendencias relacionadas con la elección con redes de verificación de datos puede ser un medio para que los organismos electorales logren los objetivos de escucha social sin la inversión que implica desarrollar la capacidad interna para hacer este trabajo. De manera similar, los portales establecidos por el organismo electoral que permiten al público informar sobre contenido problemático para su revisión, como la iniciativa Real 411 en Sudáfrica, pueden proporcionar un enfoque de colaboración colectiva para obtener información sobre los relatos problemáticos que circulan en las redes sociales.

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Highlight


Un estudio de caso detallado sobre la creación por parte de la Oficina Electoral Estatal de Estonia de un grupo de trabajo interinstitucional ad hoc para contrarrestar la desinformación en las elecciones demuestra las formas en que un organismo de gestión electoral con personal limitado y un mandato restringido puede organizar una respuesta integral contra la desinformación.

Coordinación del organismo electoral con otras entidades estatales

Las elecciones son un detonante para la información y la desinformación, pero ciertamente no son el único objetivo de las campañas de desinformación lanzadas contra los actores democráticos. Resulta crucial garantizar que las entidades estatales más allá del organismo electoral tengan un interés activo en supervisar, disuadir y sancionar la desinformación. La coordinación con estas otras entidades estatales durante los períodos electorales puede ser esencial para mejorar la capacidad de un organismo electoral de preservar la integridad electoral frente a la información falsa y la desinformación. La coordinación entre entidades estatales también puede alinear esfuerzos y mensajes para mejorar la eficiencia y prevenir la confusión de enfoques descoordinados. La coordinación con otras entidades estatales también puede ser una estrategia valiosa para los organismos electorales con recursos limitados con el objetivo de dedicarlos a los esfuerzos de lucha contra la desinformación.

"El organismo de gestión electoral en un sistema de pequeña escala no puede depender de su propia capacidad y tiene que reunir a otras instituciones especializadas. Esto no significa que los diferentes nodos de especialización deban actuar por sí mismos, sino a través del organismo de gestión electoral como principal punto focal". – Dr. Priit Vinkel, jefe de la Oficina Electoral del Estado de Estonia 

9.1 Establecimiento de áreas de responsabilidad y líneas de autoridad

La responsabilidad de lucha contra la desinformación de un organismo electoral debe considerarse junto con los esfuerzos de otras entidades estatales para promover la integridad de la información. Los Ministerios de Información, Ministerios Digitales y Ministerios de Relaciones Exteriores, por ejemplo, podrían tener responsabilidades de lucha contra la desinformación. Las agencias estatales de inteligencia, la policía, los tribunales, los órganos de supervisión de los medios de comunicación y las comunicaciones, los órganos de lucha contra la corrupción, las comisiones de derechos humanos, las comisiones de supervisión parlamentaria y otros también pueden tener un papel que desempeñar. 

Dada la cantidad de entidades que posiblemente estén involucradas en el contexto electoral es valioso comprender qué están haciendo las diferentes entidades estatales y cómo podría ser una colaboración efectiva. Puede ser que el organismo quiera asumir un papel de autoridad durante el período electoral.  Esto sucedió en el caso de Bawaslu. Antes de las elecciones, quedó claro que no había ninguna institución en Indonesia con autoridad para supervisar el discurso de odio y la desinformación en las redes sociales durante el período electoral.

 

"Nos hicimos una pregunta: ¿somos, como Bawaslu, lo suficientemente valientes como para intervenir, supervisar todo? Nos convertimos en el centro de las miradas". Comisionado Fritz Edward Siregar, Agencia de Supervisión de las Elecciones Generales de Indonesia (Bawaslu)

Aclarar las líneas de autoridad puede garantizar que haya una voz autorizada al tratar con entidades no estatales, como empresas de redes sociales o partidos políticos. En particular, es más probable que las empresas de redes sociales se involucren si las expectativas y la orientación que reciben de las entidades estatales están alineadas. 

La coordinación puede tomar la forma de un grupo de trabajo, un acuerdo de cooperación formal o un arreglo más específico y flexible. El papel del organismo electoral puede ser diferente dependiendo de si ese arreglo contempla a un organismo permanente que toma acciones especiales durante las elecciones, o a un grupo convocado específicamente con el propósito de contrarrestar la desinformación durante las elecciones. En el caso del primero, un organismo electoral puede verse más como un socio de recursos para un organismo existente. En este último caso, el organismo electoral puede estar dirigiendo la respuesta. 

En Dinamarca, los esfuerzos para organizar una respuesta gubernamental coordinada a la información falsa y la desinformación en línea incluyeron el establecimiento de un grupo de trabajo interministerial, que tuvo un enfoque especial pero no exclusivo en las elecciones. En Indonesia, Bawaslu, la KPU y el Ministerio de Comunicaciones y Tecnología de la Información firmaron un Memorando de Acción antes de las elecciones de 2018 y continuaron su cooperación durante las elecciones de 2019. El acuerdo se centró en coordinar los esfuerzos para supervisar y administrar el contenido de Internet, coordinar el intercambio de información entre instituciones, organizar campañas educativas y promover la participación de los votantes. 

9.2 Facilitar la comunicación 

Una vez que las instituciones acuerdan un arreglo de trabajo, deben tomar medidas para ponerlo en práctica. Las discusiones focalizadas que delinean responsabilidades y procedimientos para la coordinación pueden sentar las bases para comunicaciones flexibles y receptivas, permitiendo una alineación y acción rápidas cuando sea necesario. 

En Indonesia, Bawaslu celebró una serie de reuniones presenciales no solo con el Ministerio de Comunicaciones y Tecnología de la Información, sino también con la comunidad de inteligencia, el ejército y la política para discutir las directrices, los procedimientos y la relación entre sus instituciones. Parte de esas discusiones incluyó identificar qué entidad y qué personas dentro de esas entidades tenían la autoridad para hacer aclaraciones y sobre qué temas.  Una vez establecida la relación formal, las agencias se comunicaron a través de un grupo de WhatsApp que permitió lograr respuestas rápidas y minimizó la formalidad que podría obstaculizar la coordinación efectiva.

Para ilustrar cómo funcionaba la comunicación, Bawaslu compartió un ejemplo en el que se encontraron con una publicación en las redes sociales que alegaba que se estaban utilizando vehículos oficiales del ejército como parte de las actividades de la campaña. El Ministerio de Comunicaciones y Tecnología de la Información tenía las herramientas para encontrar el contenido y llevarlo a la atención del grupo, pero carecía de autoridad para tomar medidas. La acción de moderación de las plataformas de redes sociales fue limitada, ya que no podrían determinar si la afirmación era cierta o no. El ejército tenía la información para probar que esta afirmación era falsa, pero no tenía autoridad para marcar el contenido para su eliminación. Al coordinarse a través de su grupo de WhatsApp establecido, todas las partes relevantes pudieron identificar y actuar rápidamente sobre el problema, una hazaña que Bawaslu indica que habría demorado más de un día si la comunicación se hubiera dirigido a través de canales de comunicación formales.

El plan existente también permite a las instituciones hablar en forma conjunta en el caso de denuncias graves que puedan afectar la integridad electoral. En el caso del muy publicitado "engaño de los siete contenedores" que afirmaba que se habían enviado a Jakarta, Bawaslu, buques de carga llenos de boletas anteriores a la votación, la KPU y la policía celebraron una conferencia de prensa conjunta para aclarar la situación. El proceso proyectó un frente unido en el esfuerzo por contrarrestar la desinformación en las elecciones. 

9.3 Mantener la independencia

En la coordinación con otras entidades estatales, el mantenimiento de la independencia del organismo electoral será de suma importancia.  En países donde los ministerios gubernamentales, las agencias de inteligencia u otros colaboradores potenciales están alineados con un partido gobernante o una facción política, el organismo debe tomar una decisión sobre si debe colaborar con estas instituciones y cómo hacerlo. 

Esta decisión puede tomarse caso por caso. Aunque existía una fuerte coordinación entre varias entidades en Indonesia, Bawaslu eligió deliberadamente no hacer uso del sistema LAPOR! del gobierno, una plataforma que facilita la comunicación entre el público y el gobierno, incluida la funcionalidad para recibir informes y quejas del público que podrían haberse adaptado al proceso de remisión de denuncias por desinformación de Bawaslu. Aunque se consideró que la plataforma era una herramienta tecnológicamente sofisticada que habría sido de gran utilidad, después de varios debates, Bawaslu finalmente decidió no usar el canal dado que usar una herramienta asociada con el partido gobernante podría poner en peligro su independencia reconocida.

 

"Una de nuestras consideraciones cuando trabajamos con otros es nuestra imparcialidad" – Comisionado Fritz Edward Siregar, Agencia de Supervisión de las Elecciones Generales de Indonesia (Bawaslu)

9.4 Integrarse en enfoques de programación proactivos y reactivos

La coordinación con las agencias estatales es algo que puede integrarse o se integra naturalmente en las estrategias proactivas y reactivas de lucha contra la desinformación exploradas en otras subcategorías de este capítulo.

Estrategias proactivas

Estrategias de comunicación y educación al votante proactivas para mitigar las amenazas de desinformación: la coordinación con otras agencias estatales puede ser una forma útil de ampliar los mensajes a un público más extenso. Por ejemplo, en los casos en que los países tienen agencias de salud pública creíbles, asociarse para comunicar mensajes sobre cómo los procesos de votación están cambiando como resultado de la COVID-19 puede mitigar el riesgo de que los cambios en los procedimientos electorales puedan ser objeto de desinformación. 

Planificación de la comunicación en casos de crisis frente a amenazas de desinformación: incluir otras agencias estatales en la planificación de la comunicación en casos de crisis puede generar confianza y relaciones de trabajo que permitan a los organismos electorales obtener aclaraciones y alinear los mensajes con otras entidades estatales en un escenario de crisis.  

Códigos de conducta o declaraciones de principios del organismo electoral para el período electoral: si los códigos de conducta se desarrollan de manera consultiva, incluir la participación de otras agencias estatales desde el principio puede ser beneficioso. Si los códigos de conducta son vinculantes y exigibles, puede ser necesaria la coordinación como se describe en Remisión y resolución de denuncias por desinformación.

Estrategias reactivas

Monitoreo de redes sociales para el cumplimiento legal y reglamentario: los organismos electorales pueden tener o no autoridad para monitorear el cumplimiento por parte de las redes sociales o sancionar las violaciones. En los casos en que el organismo electoral comparte este mandato con otras instituciones, es esencial aclarar los mandatos comparativos de cada organismo y establecer de qué manera esas entidades trabajarán juntas.  

Escucha social para comprender las amenazas de desinformación: una minoría de organismos electorales estará posicionada para establecer su propio sistema de escucha social y respuesta a incidentes.  Sin embargo, es posible que los ministerios de información, las agencias de inteligencia o los órganos de supervisión de campañas ya tengan la capacidad para llevar a cabo la escucha social. Puede darse el caso de que un organismo electoral no pueda preservar su independencia y coordinarse con estas entidades; sin embargo, si es posible, un organismo electoral debería considerar establecer un canal a través del cual la información pueda ser transmitida de manera efectiva o el personal de otra agencia estatal pueda integrarse con el organismo electoral durante períodos electorales sensibles. 

Proceso de remisión y resolución de denuncias por desinformación:para su ejecución, un organismo electoral deberá coordinarse con las entidades correspondientes que puedan tener jurisdicción sobre diferentes denuncias. Esto puede incluir organismos reguladores o de supervisión de los medios de comunicación, comisiones de derechos humanos, fuerzas del orden o los tribunales.

Enfoques del organismo de gestión electoral para contrarrestar la desinformación

Con pocos precedentes que emular, el diálogo y el intercambio entre los organismos electorales que están desarrollando enfoques de lucha contra la desinformación son particularmente importantes. El intercambio permite a las autoridades electorales aprender de sus colegas que toman decisiones y hacen ajustes igualmente difíciles. 

El programa Europa Regional de IFES ha establecido un grupo de trabajo para los organismos electorales dedicado a abordar los desafíos que presentan las redes sociales y la desinformación en las elecciones. El lanzamiento virtual del grupo de trabajo en mayo de 2020 reunió a casi 50 funcionarios electorales de 13 países de la Asociación Oriental y los Balcanes Occidentales y brindó un foro para debatir sobre el desafío de la información falsa y desinformación electoral durante la pandemia de COVID-19. El grupo de trabajo proporciona a los organismos electorales una plataforma para el aprendizaje continuo entre pares, el desarrollo de habilidades y el desarrollo de mejores prácticas. El esfuerzo complementa el lanzamiento de un grupo de trabajo global que reúne a las autoridades electorales y las empresas de redes sociales planificado por la Design 4 Democracy Coalition.

Los organismos electorales que han sido líderes en el desarrollo de estrategias de lucha contra la desinformación también están transmitiendo lecciones a instituciones colegas en otros países. El Instituto Nacional Electoral de México (INE) ha compartido intercambios con autoridades electorales de Túnez y Guatemala para aprendan del enfoque contra la desinformación de México durante las elecciones. La Comisión Electoral de Sudáfrica recibió a expertos mundiales y representantes de organismos electorales de toda África en marzo de 2020 para compartir experiencias que mitigan el impacto de las redes sociales en la integridad electoral.

"Percibimos el peligro de la desinformación, pero la falta de información nos deja con la sensación de que no tenemos suficiente información y el resultado es el miedo… Necesitamos más información sobre el problema y desarrollar fuentes confiables de recursos para que no tengamos miedo de usar esos recursos". – Representante de organismo electoral de África Meridional

Comprender las dimensiones de género de la desinformación

Por Victoria Scott, investigadora sénior del Centro de Investigación y Aprendizaje Aplicado de la Fundación Internacional para Sistemas Electorales

 

En todo el mundo, se somete periódicamente a las mujeres y a las personas que desafían los roles de género tradicionales al hablar en espacios dominados por hombres ‒como líderes políticos, celebridades, activistas, personal electoral, periodistas o personas que están en la mira del ojo público‒ a informes de medios de comunicación partidistas, a la difusión de contenido falso o problemático sobre ellos, y a agresiones, acoso, abuso y amenazas concretas a su reputación.  Cada mujer, niña o persona que no se ajuste a las normas de género y que participe en espacios públicos y digitales corre riesgo, aunque el público puede estar más familiarizado con este comportamiento dirigido a las mujeres líderes. Las mujeres que ocupan o aspiran a cargos de liderazgo público a menudo se enfrentan a críticas que prácticamente no se relacionan con su capacidad o experiencia, como las críticas que suelen recibir los hombres en esos mismos cargos; en cambio, se enfrentan a comentarios de género sobre su carácter, moralidad, apariencia y conformidad o disconformidad con los roles y normas tradicionales de género. Frecuentemente, su representación en el espacio de la información pública está definida por tropos sexistas, estereotipos y contenido sexualizado.  Si bien no es un tema nuevo, este fenómeno está cada vez más generalizado y ha sido impulsado por la tecnología. Aunque este tipo de malicia en línea a menudo se dirige a las mujeres, lesbianas, gais, bisexuales, transexuales e intersexuales (LGBTI) en la mira del ojo público, cualquier persona que se desvíe de las normas de género corre el riesgo de estar expuesta a este tipo de abuso.

Para las entidades donantes y encargadas de la implementación, comprender la interrelación entre el género y la desinformación es primordial para elaborar y entregar una programación integral y efectiva a fin de luchar contra la desinformación y el discurso de odio y promover la integridad de la información. Los esfuerzos de estas entidades para luchar contra la desinformación no llegarán a las personas que están entre las más marginadas de sus comunidades si no se tienen en cuenta las diferentes formas en que las mujeres, las niñas, los hombres, los niños y las personas con diversas orientaciones sexuales e identidades de género participan en el entorno de la información digital y viven e interpretan la desinformación. Por lo tanto, el impacto y la sostenibilidad de estas intervenciones seguirán siendo limitados. Analizar la desinformación con sesgo de género es esencial para elaborar e implementar programas de lucha contra la desinformación de manera que se reconozcan y desafíen las desigualdades de género y las relaciones de poder, y se transformen los roles, las normas y los estereotipos de género. Este enfoque es necesario si se espera mitigar las amenazas de desinformación de manera eficaz.

Un cuerpo de investigación y análisis cada vez más importante explora la función del género en las campañas de desinformación, incluidos los impactos de la desinformación con sesgo de género en las personas, las comunidades y las democracias. Si bien esta investigación presenta un caso convincente para que los encargados de la financiación e implementación tengan en cuenta la integridad de la información y la programación contra la desinformación con sesgo de género, la programación actual a menudo se limita a intervenciones para prevenir o responder a la violencia de género en línea o para fortalecer la alfabetización digital o mediática y en materia de información de mujeres y niñas. Estos son enfoques importantes para fortalecer la integridad de los espacios en línea y responder al desorden informativo, pero una variedad más amplia de programación es tanto posible como necesaria.

Highlight


Distinguir la violencia de género y la desinformación con sesgo de género en la Internet:

la desinformación con sesgo de género y la violencia de género en la Internet son conceptos que a menudo se confunden. Según el marco utilizado a lo largo de esta guía, la violencia de género en la Internet puede considerarse un tipo de desinformación con sesgo de género (que utiliza el género para atacar a los sujetos en contenidos falsos o problemáticos), pero la desinformación con sesgo de género es más amplia que lo que abarca la violencia de género en la Internet. La desinformación con sesgo de género va más allá de los ataques de género llevados a cabo en la Internet e incluye mensajes dañinos que explotan las desigualdades de género, promueven la heteronormatividad y profundizan las divisiones sociales. Una de las razones de la frecuente confusión de estos términos puede ser que los debates sobre género y desinformación suelen basarse en ejemplos de desinformación con sesgo de género que también son ejemplos de violencia de género en la Internet. Por ejemplo, un ejemplo común es el contenido sexualizado falso (como los ultrafalsos sexualizados y las imágenes con Photoshop o los vídeos editados que colocan la cara de una mujer específica en el contenido sexualizado). Este ejemplo puede considerarse tanto violencia de género como desinformación con sesgo de género en la Internet. Sin embargo, también hay ejemplos de mensajes de desinformación con sesgo de género que no se clasifican necesariamente como violencia de género en la Internet, por ejemplo, noticias basura sensacionalistas e hiperpartidistas diseñadas para profundizar las divisiones ideológicas existentes y erosionar la cohesión social.1 Estos dos fenómenos se entrecruzan, y ambos amenazan la integridad del entorno informativo y la participación plena e igualitaria en las esferas política, civil y pública. Es importante que los programas de lucha contra la desinformación no sólo prevengan y respondan a estos ataques directos de acoso y abuso considerados bajo la etiqueta de violencia de género en la Internet, sino que también prevengan y respondan a las operaciones de influencia que explotan las desigualdades y normas de género en sus mensajes. 

 

1Existen diferentes definiciones del término "desinformación con sesgo de género" y una variedad de perspectivas sobre lo que constituye la desinformación con sesgo de género y si es o no distinta de la violencia, el abuso o el acoso de género en la Internet.  Consulte, por ejemplo, la revisión de las definiciones y distinciones existentes en la obra de Jankowicz y otros, Malign Creativity: How Gender, Sex, and Lies are Weaponized Against Women Online (Creatividad maligna: cómo el género, el sexo y las mentiras se convierten en un arma contra las mujeres en la Internet.  A medida que los académicos y los profesionales continúan desarrollando su pensamiento en este campo emergente, estas definiciones y perspectivas siguen evolucionando.

 

Más información:

El objetivo de esta sección de la guía es servir como modelo de referencia para ayudar a donantes, implementadores e investigadores a utilizar una perspectiva de género al investigar y abordar la desinformación y la integridad de la información. También servirá para que financiadores y profesionales incorporen el género en todos los aspectos de la programación contra la desinformación.

La sección comienza con una breve descripción en la que se explica el motivo por el que la programación contra la desinformación debe considerarse desde una perspectiva de género.

En la sección, se define el término "desinformación con sesgo de género" y las dimensiones de género de la desinformación en cada una de sus partes componentes (agente, mensaje, modo de difusión, intérprete y riesgo).

La sección se cierra con un primer análisis de los enfoques actuales para luchar contra la desinformación con sesgo de género y, luego, con un análisis de algunos enfoques nuevos y prometedores para la programación contra la desinformación con sesgo de género. Si bien la programación desde una perspectiva de género y las buenas prácticas aún están surgiendo en el campo de la integridad de la información, esta sección de la guía ofrece enfoques prometedores basados en buenas prácticas conocidas en ámbitos relacionados. Asimismo, en todos los temas de la guía se incluyen ejemplos específicos de integración de género en intervenciones de lucha contra la desinformación.

Comprender las dimensiones de género de la desinformación

La responsabilidad de responder y prevenir la desinformación con sesgo de género no debe recaer sobre las espaldas de los sujetos de los ataques digitales de género, ni sobre aquellos a quienes se dirige o manipula como consumidores de contenido falso o problemático.

Los donantes e implementadores podrían preguntarse qué hace que la desinformación con sesgo de género sea única y diferente de otros tipos de desinformación, por qué es importante analizar el panorama de la información digital y cualquier forma de desinformación (independientemente de si se trata de desinformación específica de género) desde una perspectiva de género, o por qué es necesario diseñar e implementar programas de lucha contra la desinformación con consideraciones específicas de género.  Las respuestas a estas preguntas incluyen:

  • La desinformación que utiliza estereotipos, normas y roles de género tradicionales en su contenido juega con las estructuras de poder arraigadas y trabaja para defender los sistemas políticos heteronormativos que mantienen el dominio político como el dominio de los hombres cisgénero y heterosexuales.
  • Los medios para acceder e interactuar con la información en internet y las redes sociales difieren para las mujeres y las niñas en comparación con los hombres y los niños.
  • La experiencia de la desinformación y su impacto en mujeres, niñas y personas con diversas orientaciones sexuales e identidades de género difiere de la de los hombres y niños cisgénero y heterosexuales.
  • Las campañas de desinformación pueden afectar de manera desproporcionada a mujeres, niñas y personas con diversas orientaciones sexuales e identidades de género, lo que se agrava aún más para las personas con múltiples identidades marginadas (como raza, religión o discapacidad).

Al diseñar y financiar actividades de lucha contra la desinformación, los donantes y los implementadores deben considerar la variedad de formas que puede adoptar la desinformación con sesgo de género, y los impactos del sesgo de género de la desinformación en general. Los esfuerzos de lucha contra la desinformación que abordan de manera integral el género como tema de campañas de desinformación y se dirigen a las mujeres y las niñas como consumidoras de desinformación proporcionan intervenciones multidimensionales que son efectivas y sostenibles.

1.1 ¿Cuáles son las dimensiones de la desinformación en cuestiones de género?

La intersección de los desafíos de la integridad de la información y el género es compleja y está llena de matices. Incluye no solo las formas en que se emplea el género en campañas deliberadas de desinformación, sino que también abarca las formas en que la información falsa de género y el discurso de odio circula dentro de un entorno de información y, a menudo, son amplificadas por actores malignos para explotar las divisiones sociales existentes para beneficio personal o político. Esta intersección de los desafíos de género e integridad de la información se denominará "desinformación con sesgo de género" en esta sección.

La desinformación con sesgo de género incluye contenido falso, engañoso o nocivo que explota las desigualdades de género o invoca estereotipos y normas de género, incluso para dirigirse a individuos o grupos específicos; esta descripción se refiere al contenido del mensaje.  Sin embargo, más allá del contenido de género, otras dimensiones importantes de la desinformación con sesgo de género incluyen: quién produce y difunde contenido problemático (actor); cómo y dónde se comparte y amplifica el contenido problemático, y quién tiene acceso a determinadas tecnologías y espacios digitales (modo de difusión); quién es la audiencia que recibe o consume el contenido problemático (intérprete); y de qué manera la creación, difusión y consumo de contenido problemático afecta a mujeres, niñas, hombres, niños y personas con diversas orientaciones sexuales e identidades de género, así como los impactos de género de este contenido en las comunidades y sociedades (riesgo)1.  

Al desglosar las dimensiones en cuestiones de género respecto de los desafíos de integridad de la información en sus partes componentes (actor, mensaje, modo de difusión, intérpretes y riesgo) podemos identificar mejor los diferentes puntos de intervención donde la programación sensible al género puede tener un impacto2

A continuación, ilustramos las formas en que el género influye en cada uno de estos cinco componentes de la desinformación, el discurso de odio y la información falsa viral.

Amplificación de la información falsa viral y el discurso de odio

Gráfica: La amplificación de la información falsa viral y el discurso de odio a través de desinformación individual o coordinada, IFES (2019)

A. Actor

Al igual que con otras formas de desinformación, los productores y compartidores de mensajes de desinformación con impactos explícitos de género pueden estar motivados por una ideología o una intención más amplia de socavar la cohesión social, limitar la participación política, incitar a la violencia o sembrar desconfianza en la información y la democracia para fines políticos o financieros. Las personas que son susceptibles de convertirse en perpetradores de desinformación con sesgo de género pueden ser actores solitarios o coordinados, y pueden ser ideólogos, miembros de grupos extremistas o marginales, o personas que persiguen únicamente ganancias financieras (como individuos empleados como trolls). Extrapolando desde el campo de la violencia de género, algunos de los factores de riesgo que pueden contribuir con la susceptibilidad de una persona a crear y difundir discursos de odio y desinformación que exploten el género podrían incluir:

  • A nivel individual: actitud y creencias, educación, ingreso, empleo y aislamiento social
  • A nivel comunitario: oportunidades económicas limitadas, bajos niveles de educación, y altas tasas de pobreza o desempleo
  • A nivel social: masculinidad tóxica o expectativas de dominio, agresión y poder masculinos, valores sociales heteronormativos, impunidad de los actos de la violencia contra la mujer, e instituciones patriarcales

Las intervenciones transformadoras de género que buscan promover la equidad de género y masculinidades saludables, fortalecer el apoyo social y promover el desarrollo de relaciones, y aumentar la educación y el desarrollo de habilidades podrían generar factores de protección para que las personas no se convierten en perpetradores de discursos de odio y desinformación con sesgo de género. De manera similar, las intervenciones que buscan fortalecer la cohesión social y política, crear oportunidades económicas y educativas en una comunidad, y reformar las instituciones, las políticas y los sistemas legales podrían contribuir con estos factores protectores.  Además de identificar intervenciones para evitar que las personas se conviertan en perpetradores de desinformación, los profesionales también deben reconocer las complejas discusiones en torno a los méritos de sancionar a los actores por perpetrar desinformación y discurso de odio.  

Cabe destacar que el presente estudio no identificó ninguna investigación o programación que estudie el papel potencial de la mujer como perpetradora de desinformación.  Si bien es ampliamente conocido que la gran mayoría de los perpetradores de violencia de género en línea son hombres, los investigadores aún no saben lo suficiente sobre las personas que crean y difunden desinformación para comprender si las mujeres son actores predominantes y en qué medida y condiciones.  Al considerar las motivaciones y los factores de riesgo de los actores que perpetran desinformación, es importante comprender primero quiénes son esos actores.  Esta es un área que requiere más investigación.

B. Mensaje

Los investigadores y profesionales que trabajan en la intersección de los desafíos de género y la integridad de la información se han centrado principalmente en las dimensiones de la desinformación en cuestiones de género. La creación, difusión y amplificación de contenido de género que es falso, engañoso o nocivo ha sido reconocida e investigada más que otros aspectos de la desinformación. El contenido con sesgo de género de las campañas de desinformación generalmente incluye mensajes que:

  • Atacan directamente a las mujeres, a las personas con diversas orientaciones sexuales e identidades de género y a los hombres que no se ajustan a las normas tradicionales de "masculinidad" (como individuos o como grupos).
  • -Explotan los roles y estereotipos de género, exacerbar las normas y desigualdades de género, promueven la heteronormatividad y, en general, aumentan la intolerancia social e intensifican las divisiones sociales existentes.

Hay innumerables ejemplos de desinformación en forma de ataques directos contra mujeres, personas con diversas orientaciones sexuales e identidades de género y hombres que no se ajustan a las normas tradicionales de "masculinidad" en línea. Esto puede incluir tropos sexistas, estereotipos y contenido sexualizado (por ejemplo, ultrafalsos sexualizados o distribución no consensuada de imágenes íntimas3).  Algunos de estos casos, como los dirigidos a candidatos y líderes políticos destacados, activistas o celebridades, son bien conocidos y han atraído la atención pública y la cobertura de los medios de comunicación. 

Highlight


En 2016, en vísperas de las elecciones parlamentarias en la República de Georgia, hubo una campaña de desinformación que tuvo como objetivo a mujeres políticas y a una periodista en un vídeo que supuestamente las mostraba manteniendo relaciones sexuales. Los vídeos, que se compartieron en la Internet, incluían mensajes intimidatorios y amenazas de que los objetivos del ataque debían dimitir o se publicarían otros vídeos en los que supuestamente aparecían.

En otro ejemplo georgiano, la destacada periodista y activista Tamara Chergoleishvili fue objeto de un video falso que supuestamente la mostraba manteniendo relaciones sexuales con otras dos personas. Una de las personas que aparecen en el vídeo con Chergoleishvili es un hombre que fue calificado de "gay" y sufrió las consecuencias de los sentimientos homófobos en Georgia.

Ejemplos como estos parecen sensacionalistas y extraordinarios, pero muchas mujeres en la opinión pública se encuentran con casos impactantes de ataques como los descritos anteriormente. Han surgido casos similares de distorsión sexualizada contra las mujeres en la política a nivel mundial. 

El impacto potencial de este tipo de desinformación de género es excluir e intimidar a los destinatarios, disuadirlos de presentarse a las elecciones y desempoderarlos y silenciarlos.  Los perpetradores también pueden utilizar estos ataques para animar a sus objetivos a retirarse de la política o a participar de forma dirigida por el miedo, para alejar el apoyo popular de las mujeres políticamente activas, socavando un importante grupo demográfico de liderazgo, manipulando los resultados políticos y debilitando la democracia y para influir en la forma en que los votantes ven determinados partidos, políticas u órdenes políticos enteros. Estas agresiones también pueden utilizarse para la vigilancia de género (control de mujeres y hombres que puedan estar infringiendo las normas y estereotipos de género que rigen su sociedad). 


Fuentes: Historia de Coda, BBC, Radio Free Europe/Radio Liberty    

Sin embargo, si bien algunos casos de estos ataques dirigidos a figuras prominentes pueden ser bien conocidos por el público, una mayor cantidad de estos casos de ataques de género en línea tienen lugar de una manera que es a la vez muy pública y sorprendentemente común. En 2015, un informe del Grupo de trabajo sobre género de la Comisión de Banda Ancha de las Naciones Unidas para el Desarrollo Digital indicó que el 73 por ciento de las mujeres habían estado expuestas o experimentado alguna forma de violencia en línea, y que el 18 por ciento de las mujeres en la Unión Europea había experimentado una forma de violencia grave en Internet a edades tan jóvenes como 15 años.  En un estudio de 2017 del Pew Research Center hecho con una muestra representativa a nivel nacional de adultos en los EE. UU., se encontró que el 21 por ciento de las mujeres jóvenes (de 18 a 29 años) informaron que habían sido acosadas sexualmente en línea.   En un informe de 2020 sobre el estado mundial de las niñas publicado recientemente, Plan International informó sobre los resultados de una encuesta llevada a cabo con más de 14.000 niñas y mujeres jóvenes de entre 15 y 25 años en 22 países. Según la encuesta, el 58 por ciento de las niñas informaron haber sufrido alguna forma de acoso en las redes sociales, y el 47 por ciento de las encuestadas informaron que fueron amenazadas con violencia física o sexual.  El acoso que enfrentaron se atribuyó simplemente a ser una niña o mujer joven que está en línea (y agravado por su raza, etnia, discapacidad o identidad LGBTI), o una reacción violenta hacia su trabajo y el contenido que publican si son activistas o personas francas "especialmente en relación con los temas percibidos de igualdad de género o feministas".  Por lo general, no se habla de estos ataques directos como inusuales o sorprendentes; más bien, el riesgo de ataques de género en línea a menudo se considera un riesgo que las mujeres y niñas deben esperar al elegir participar en espacios digitales o, en el caso de mujeres políticamente activas, como "el costo" de hacer política.


Los contornos del ambiente de la información digital se caracterizan en parte por este tipo de abuso, y estas experiencias han llegado en gran medida a ser esperadas por mujeres y niñas y toleradas por la sociedad. Si bien la mayor parte del tiempo este contenido no se denuncia, cuando los sobrevivientes o los objetivos de estos ataques presentan quejas ante las fuerzas del orden, las empresas de tecnología y las plataformas de redes sociales u otras autoridades, sus preocupaciones a menudo no son resueltas. Comúnmente se les dice que el contenido no cumple con el estándar para el enjuiciamiento penal o el estándar de abuso cubierto por el código de conducta de una plataforma; se les recomienda censurarse, desconectarse (o, en el caso de menores, quitarles los dispositivos a sus hijas), o se les indica que las amenazas son inofensivas.

Highlight


Debido a las formas en que la identidad puede convertirse en un arma en línea, y a la naturaleza interseccional del abuso de género, las mujeres, las niñas y las personas con diversas orientaciones sexuales e identidades de género que también tienen otras identidades marginadas (como la raza, la religión o la discapacidad) experimentan este abuso en mayor proporción y de diferentes maneras.

Además de desarrollar y desplegar ataques directos de género contra individuos o grupos, los actores de la desinformación pueden explotar el género como alimento para contenido adicional. Dicho contenido puede explotar los roles y estereotipos de género, exacerbar las normas y desigualdades de género, reforzar la heteronormatividad y, en general, aumentar la intolerancia social e intensificar las divisiones sociales existentes. Los ejemplos incluyen contenido que glorifica el comportamiento hipermasculino de líderes políticos, feminiza a los opositores políticos masculinos, expone a las mujeres como mal preparadas para liderar u ocupar cargos públicos sobre la base de estereotipos y normas de género, se dedica a hostigar a las lesbianas, combina los derechos y el activismo feministas y LGBTI con ataques a familias "tradicionales" y muestra instancias polarizantes (reales o inventadas) de activismo feminista y LGBTI o de acciones antimujeres y anti-LGBTI para avivar reacciones violentas o miedo. Este tipo de contenido puede tener más matices que los ataques directos y, por tanto, ser más resistente a las intervenciones de programación.

C. Modo de difusión

Aunque la desinformación, la información falsa viral y el discurso de odio con sesgo de género no son desafíos nuevos ni exclusivamente digitales, las herramientas de la tecnología y las redes sociales han permitido un alcance e impacto más amplios de la desinformación y han envalentonado a los individuos solitarios y los actores nacionales o extranjeros que elaboran y difunden estos mensajes. Adicional a la gama de contenido nocivo que ya existe en el entorno de la información, las campañas de desinformación diseñadas para usar de base las divisiones y prejuicios sociales existentes pueden desplegar una serie de técnicas engañosas para amplificar el discurso de odio de género y hacer que estos prejuicios de género parezcan más difundidos y prevalentes de lo que son.

El discurso de odio y la información falsa con sesgo de género pueden tener un gran alcance e impacto incluso en ausencia de una campaña de desinformación coordinada, ya que este contenido circula en el espacio de información digital a través de la interacción orgánica.  Si bien gran parte de este contenido se genera y circula en los principales espacios digitales, también existe una sólida red de espacios virtuales dominados por hombres, a veces llamados colectivamente " manosfera", donde estos mensajes de género nocivos pueden ganar grandes bases de apoyo antes de saltar a las principales plataformas de redes sociales.  La "manosfera" incluye blogs en línea y tableros de mensajes e imágenes que albergan una variedad de creadores de contenido y audiencias con formato anónimo y misóginos, racistas, antisemitas y extremistas (los "derechos de los hombres", el "celibato involuntario" y otras comunidades misóginas se entrelazan con el movimiento de la "derecha alternativa" en estos espacios).4

Con el tiempo, la comunidad de hombres que participan en estos espacios de información ha desarrollado estrategias eficaces para mantener estos mensajes en circulación y facilitar su difusión, desde foros digitales anónimos con poca moderación hasta los principales medios de comunicación (redes sociales y medios tradicionales). Las personas que quieren difundir estos mensajes nocivos han encontrado formas de eludir la moderación del contenido (como el uso de memes u otras imágenes, que son más difíciles de detectar para los mecanismos de moderación de contenido) y tienen tácticas desarrolladas para inyectar este contenido en el entorno de la información más amplia y desplegar ataques coordinados contra objetivos específicos (individuos, organizaciones o movimientos).

Esto es, en parte, lo que hace que el género sea una herramienta atractiva para los actores de la desinformación. La "manosfera" proporciona audiencias preparadas que están listas para la manipulación y activación al servicio de una operación de influencia más amplia, y estas comunidades tienen un conjunto de herramientas de tácticas efectivas para difundir y amplificar contenido nocivo listo.  Una estrategia de desinformación conocida incluye la infiltración de grupos de afinidad existentes para ganar la confianza del grupo y generar conversaciones grupales con contenido destinado a promover un objetivo del actor de desinformación. En caso de que los actores de la desinformación manipulen estas comunidades antimujeres, pueden convertir con éxito las energías de la "manosfera" en contra de un oponente político al promover una granja de trolls con miembros de la comunidad dispuestos a hacer su trabajo de forma gratuita.

Highlight


En noviembre de 2020, Facebook anunció el desmantelamiento de una red de perfiles, páginas y grupos que tenían un comportamiento engañoso coordinado. La campaña de desinformación, que se originó en Irán y Afganistán, se dirigió a los afganos con un foco en las mujeres como consumidoras del contenido compartido. Casi la mitad de los perfiles de Facebook y más de la mitad de las cuentas de Instagram de la red se presentaban como cuentas de mujeres. Varias páginas de la red estaban destinadas a las mujeres. Los contenidos orientados a la mujer que se compartieron en la red se centraron en contenidos que promovían los derechos de la mujer, así como en destacar el trato que los talibanes dan a las mujeres. El análisis del Observatorio de Internet de Stanford indicó que otros contenidos asociados a la red eran críticos con los talibanes y señaló que "es posible que la intención [de los contenidos centrados en las mujeres] fuera socavar las negociaciones de paz entre el gobierno afgano y los talibanes; los talibanes son conocidos por restringir los derechos de las mujeres".

El impacto potencial de este tipo de desinformación de género es profundizar las divisiones sociales y explotar las diferencias ideológicas, comprometiendo la cohesión social y socavando los procesos políticos.

 

Fuente: Observatorio de Internet de Stanford

 

D. Intérpretes

La desinformación dirigida a mujeres y personas con diversas orientaciones sexuales e identidades de género como intérpretes, consumidores o receptores de desinformación es una táctica que puede exacerbar las divisiones sociales existentes, probablemente de formas que beneficien política o financieramente a los creadores y difusores de estos mensajes. Esto puede incluir dirigirse a mujeres y personas con diversas orientaciones sexuales e identidades de género con desinformación diseñada para excluirlas de la vida pública o política (por ejemplo, en Sudáfrica, difundir información falsa según la cual las personas que usan uñas postizas o esmalte de uñas no pueden votar en las elecciones). En otros casos, atacar a estos grupos con desinformación puede ser parte de una campaña más amplia para crear debates polarizadores y ampliar las brechas ideológicas. Por ejemplo, las campañas de desinformación pueden exacerbar las opiniones de las feministas y las que apoyan los derechos de las mujeres y las comunidades LGBTI, así como las opiniones de quienes son antifeministas y se oponen a la igualdad de estos grupos. La desinformación dirigida a mujeres y personas con diversas orientaciones sexuales e identidades de género como intérpretes de la desinformación puede amplificar o distorsionar puntos de vista divergentes para socavar la cohesión social.

E. Riesgo

La prevalencia de la tecnología y las redes sociales ha atraído nueva atención sobre los daños infligidos, especialmente a las mujeres, por los desafíos a la integridad de la información, incluidas las campañas de desinformación. Independientemente de las motivaciones individuales de los actores que crean y difunden el discurso de odio y la desinformación con sesgo de género, los impactos del sesgo de género en la desinformación suelen ser los mismos:

  • La exclusión de mujeres y personas con diversas orientaciones sexuales e identidades de género de la política, el liderazgo y otros roles prominentes en la esfera pública a través de su desempoderamiento, discriminación y silenciamiento.
  • El refuerzo de estructuras institucionales y culturales patriarcales y heteronormativas nocivas.

Highlight


La programación desde una perspectiva de género "intenta corregir las desigualdades de género existentes", mientras que la programación transformadora del género "intenta redefinir los roles y relaciones de género de mujeres y hombres".

Si bien la programación con perspectiva de género pretende "abordar las normas de género, los roles y el acceso a los recursos en la medida en que sea necesario para alcanzar los objetivos del proyecto", la programación transformadora del género pretende "transformar las relaciones desiguales de género para promover el poder compartido, el control de los recursos, la toma de decisiones y el apoyo al empoderamiento de las mujeres".

 

Fuente: ONU Mujeres, Glosario de términos y conceptos relacionados con el género

El contenido y los mensajes nocivos de género que buscan disuadir a las mujeres de ingresar a espacios políticos y explotar las divisiones sociales se han convertido en una parte esperada, y en algunos casos aceptada, del panorama digital. También hay impactos de género implícitos en cualquier forma de campaña de desinformación, ya que las mujeres pueden ser consumidoras o intérpretes de cualquier contenido falso y problemático. La desinformación también puede tener un efecto desproporcionado en las mujeres y las niñas debido a factores como niveles más bajos de logros educativos, alfabetización mediática y competencia en materia de información, confianza en sí mismas y redes de apoyo social, y menos oportunidades de participar en programas diseñados para desarrollar resiliencia contra la desinformación por parámetros como normas culturales y responsabilidades de cuidado del hogar y la familia. Estos son solo una pequeña muestra de los factores que probablemente causen que las mujeres y las niñas se vean desproporcionadamente afectadas por la desinformación y sean el resultado de desigualdades de género más amplias, como el acceso y el control desigual de los recursos, la toma de decisiones, el liderazgo y el poder. Por esta razón, una programación eficaz contra la desinformación debe abordar todos los aspectos de la amenaza de la desinformación mediante el diseño y la financiación de una programación que sea, como mínimo, sensible al género e idealmente transformadora de género.

Las dimensiones de género de la desinformación no solo afectan a mujeres y niñas, sino también a personas con diversas orientaciones sexuales e identidades de género, así como a personas con otras identidades marginadas interrelacionadas. Debido a la limitación en materia de investigación y programación relevantes, hay muy pocos datos disponibles sobre este tema (un problema en sí mismo), pero los miembros de la población LGBTI, así como las mujeres y niñas que tienen otras identidades marginadas, son blanco desproporcionado del acoso y abuso en línea y probablemente también de campañas de desinformación. Es imperativo considerar el impacto diferencial de la desinformación en mujeres, niñas y personas con diversas orientaciones sexuales e identidades de género en función de otros aspectos de su identidad (como raza, religión o discapacidad). En el espacio de la información digital, pueden ser atacados de diferentes maneras que las personas que no comparten estas identidades marginadas y pueden sufrir consecuencias más importantes en relación con las campañas de desinformación.

Comprender las dimensiones de género de la desinformación

En las siguientes dos secciones de la guía se exploran más a fondo dos impactos con sesgo de género significativos de la desinformación:

  • Silenciar a las mujeres que son figuras públicas y disuadir a las mujeres de buscar puestos públicos
  • Socavar la democracia y la buena gobernanza, aumentar la polarización política y expandir las divisiones sociales

2.1 Silenciar a las mujeres que son figuras públicas y disuadir a las mujeres de buscar puestos públicos

A medida que Internet y las redes sociales se han convertido cada vez más en fuentes importantes de información y consumo de noticias para las personas de todo el mundo, las mujeres en política están recurriendo a estos medios para llegar al público y compartir sus propias ideas y políticas como una alternativa —a menudo sesgada— a la cobertura de los medios. Muchas mujeres (que por lo general tienen acceso limitado a la financiación, redes pequeñas, poco reconocimiento de nombres y experiencia política y vínculos menos tradicionales que los hombres en la política) notan que su presencia en las redes sociales es parte integral de sus carreras y atribuyen a estas plataformas una mayor exposición al público, así como la capacidad de dar forma a sus narrativas e interactuar directamente con los partidarios y electores. Sin embargo, también suelen ser sujeto de cantidades alarmantes de desinformación con sesgo de género que busca deslegitimarlas, desacreditarlas y desalentar su participación en la política.

Según una investigación realizada por la Unión Interparlamentaria con 55 mujeres parlamentarias en 39 países, el 41,8 por ciento de los participantes de la investigación informaron que habían visto "imágenes de [ellas] extremadamente humillantes o con carga sexual difundidas a través de las redes sociales". Estas experiencias no solo desalientan a las mujeres políticas de continuar en la política o postularse para una reelección (ya sea por preocupaciones sobre su propia seguridad y reputación o las de sus familias), sino que también tienen un efecto perjudicial sobre la participación de las mujeres en la política en sociedades enteras, ya que se ven disuadidas de entrar en el campo político por el trato que reciben otras mujeres antes que ellas.

"Las investigaciones han demostrado que los ataques a las redes sociales tienen un efecto escalofriante, particularmente en las candidatas políticas por primera vez. Las mujeres suelen citar la 'amenaza de ataques públicos generalizados y rápidos a su dignidad personal como un factor que las disuade de entrar en política'".

--Redes (anti)sociales: The Benefits and Pitfalls of Digital for Female Politicians, Atalanta

Aunque hubo un aumento reciente en la investigación que estudia las experiencias de las mujeres políticas con la desinformación con sesgo de género en el espacio de la información digital y las redes sociales5, este fenómeno también lo viven las mujeres periodistas, funcionarias electorales, figuras públicas, celebridades, activistas, jugadoras en línea y otras mujeres. Aquellas que son objeto de desinformación, incitación al odio y otras formas de ataques en línea pueden ser discriminadas, desacreditadas, silenciadas o forzadas a autocensurarse.

Lo que puede ser aún más impactante son los efectos perniciosos de estas campañas de desinformación en las mujeres y niñas que son testigo de los ataques contra mujeres prominentes. Al ver cómo las mujeres figuras públicas son atacadas en línea, es más probable que se sientan desanimadas y desamparadas para ingresar a la esfera pública y participar en la vida política y cívica. El subtexto de estas amenazas de daño, asesinatos de personajes y otras formas de desacreditar y deslegitimar les dice a las mujeres y niñas que no pertenecen a la esfera pública: que la política, el activismo y la participación cívica no fueron diseñados para ellas y que se arriesgan a sufrir violencia y daños al entrar en estos espacios.

2.2 Socavar la democracia y la buena gobernanza, aumentar la polarización política y expandir las divisiones sociales

"Cuando las mujeres deciden que el riesgo para ellas y sus familias es demasiado grande, su participación en la política se ve afectada, al igual que el carácter representativo del gobierno y el proceso democrático en su conjunto".

--Sexism, Harassment and Violence against Women Parliamentarians, IPU

"La participación igualitaria de las mujeres es un requisito previo para las democracias fuertes y participativas, y ahora sabemos que las redes sociales se pueden movilizar de manera efectiva para acercar a las mujeres al gobierno, o expulsarlas".

--Lucina Di Meco, Gendered Disinformation, Fake News, and Women in Politics

Más allá de sus impactos sobre las mujeres, las niñas y las personas con diversas orientaciones sexuales e identidades de género como individuos y comunidades, las campañas de desinformación que utilizan estereotipos o normas patriarcales de género utilizan a las mujeres como objetivos en su contenido o se dirigen a ellas como consumidoras para socavar la democracia y la buena gobernanza. Como señala la académica y politóloga Lucina Di Meco, la inclusión y la participación equitativa y significativa son requisitos para las democracias fuertes. Cuando las campañas de desinformación obstaculizan esa participación igualitaria, las elecciones y las democracias sufren.

Las campañas de desinformación pueden utilizar las dimensiones de género para aumentar la polarización política e incrementar las divisiones sociales simplemente reforzando los estereotipos de género existentes, magnificando los debates divisivos, amplificando las ideologías y teorías sociales y políticas marginales y defendiendo las dinámicas de poder existentes al desalentar la participación de las mujeres y personas con orientaciones sexuales e identidades de género diversas.  Estas acciones sirven para excluir a los miembros de las comunidades marginadas de los procesos políticos y las instituciones democráticas y, al hacerlo, socavan su participación significativa en sus democracias y la representación en sus instituciones. Debido a que la voz y la participación de los ciudadanos son esenciales para construir sociedades democráticas sostenibles, silenciar las voces de mujeres, niñas y personas con diversas orientaciones sexuales e identidades de género debilita las democracias, lo que hace que la desinformación de género no sea solo un "problema de mujeres" y que abordarlo no sea solo una misión de la "programación de inclusión", sino que sea imperativo para la programación contra la desinformación y los esfuerzos para fortalecer la democracia, los derechos humanos y la gobernanza en todo el mundo. La pluralidad de experiencias y puntos de vista deben reflejarse en la forma en que se gobiernan las sociedades para asegurar "procesos políticos e instituciones gubernamentales participativos, representativos e inclusivos".

Comprender las dimensiones de género de la desinformación

Enfoques actuales para contrarrestar la desinformación con sesgo de género y abordar las dimensiones de la desinformación en cuestiones de género

El campo de los programas contra la desinformación con sesgo de género aún está emergiendo, y los programas que se centran explícitamente en este problema y sus impactos son poco frecuentes. Actualmente, desde los sectores de la democracia hasta los sectores de género y tecnología, existe una conciencia y comprensión limitadas, aunque cada vez mayores, de las formas variadas y matizadas en las que la desinformación y los programas de género pueden entrecruzarse.  Para ilustrar la variedad de formas en que se puede aplicar una perspectiva de género a los programas contra la desinformación, en las secciones temáticas de esta guía se integran los ejemplos programáticos que incluyen elementos de género. Para complementar estos ejemplos, esta sección aplica lo que funciona en áreas de programas relacionadas para delinear formas en las que el género puede integrarse aún más en los programas contra la desinformación.  Por ejemplo, las prácticas prometedoras para los programas de lucha contra la desinformación con sesgo de género se pueden extraer de las buenas prácticas en los programas de desarrollo o de ayuda humanitaria centrados en la violencia de género y la equidad de género. 

Violencia centrada en ataques directos de género en línea

Los programas existentes para contrarrestar la desinformación con sesgo de género se centran principalmente en prevenir, identificar y responder a ataques directos dirigidos a mujeres o personas con diversas orientaciones sexuales e identidades de género como sujetos de desinformación por género. Estos programas a menudo se centran estrictamente en las mujeres políticas y periodistas como destinatarias de estos ataques.  Este tipo de programas incluye una variedad de respuestas, como la denuncia y eliminación de las plataformas, la verificación de datos o eliminación de mitos, la capacitación en seguridad y protección digital y el desarrollo de habilidades, o la alfabetización mediática e informacional para mujeres, niñas y comunidades LGBTI.  De manera similar, el cuerpo de investigación existente identificado como enfocado en la desinformación con sesgo de género se centra en gran medida en el diagnóstico de estos ataques directos, las motivaciones de sus perpetradores y los daños de tales ataques.  Si bien estas son áreas críticas para continuar financiando los programas y la investigación, estas intervenciones son necesarias pero no suficientes. Los donantes y los responsables de la implementación también deben perseguir programas que aborden otras dimensiones de género y desinformación.  

Para informar mejor el diseño y la implementación de intervenciones efectivas y sostenibles para contrarrestar la desinformación con sesgo de género, así como para mitigar sus impactos de manera más amplia, los investigadores también deben ampliar su enfoque para investigar temas como: 

  • Las diferentes formas en que mujeres, niñas, hombres, niños y personas con diversas orientaciones sexuales e identidades de género se relacionan con el ecosistema de información digital.
  • Los factores de riesgo de y los factores de protección contra la perpetración o ser destinatario de desinformación con sesgo de género.
  • Mujeres como perpetradoras o cómplices de desinformación, incitación al odio y otras formas de campañas dañinas en línea

Los programas informativos en este espacio podrían incluir un mapeo del panorama digital, evaluaciones de género y tecnológicas para identificar brechas en el acceso y habilidades, discusiones de grupos focales, participación comunitaria e investigación de la opinión pública. Este tipo de programas permitirán a los profesionales comprender mejor las diversas formas en que estos diferentes grupos interactúan con el espacio de información digital, pueden ser vulnerables a ser objeto de desinformación o susceptibles a perpetrar desinformación, y se ven afectados por los impactos de la desinformación. 

 

Más reactivo que proactivo, más específico que sistemático

Como se señaló en otras secciones de la guía, una forma de caracterizar a los programas contra la desinformación es considerar los enfoques como proactivos o reactivos.  

Los programas proactivos son intervenciones que buscan prevenir la creación y propagación de desinformación con sesgo de género antes de que ingrese al espacio de la información digital. También podría incluir los esfuerzos para fortalecer la resiliencia de aquellos que probablemente sean destinatarios de desinformación o aquellos susceptibles de convertirse en perpetradores de desinformación con sesgo de género.  Esto puede incluir una amplia gama de intervenciones, como alfabetización mediática e informacional, fomento de la confianza y la resiliencia, programas de igualdad de género, programas de participación civil y política, y programas de educación, desarrollo de la fuerza laboral y medios de vida. 

Los programas reactivos pueden incluir intervenciones que busquen responder a la desinformación con sesgo de género después de que ya se haya publicado, como denunciar contenido a plataformas o autoridades policiales para su eliminación o investigación o la verificación de datos y los mensajes de respuesta para contrarrestar contenido falso o problemático.  

Algunos programas contra la desinformación con sesgo de género pueden ser tanto reactivos como proactivos, ya que son intervenciones que responden a la creación y propagación de casos discretos de desinformación con sesgo de género y tienen como objetivo disuadir a los posibles responsables de dicha desinformación. Los ejemplos incluyen políticas y enfoques a nivel de plataforma o industria para la identificación, el etiquetado o la eliminación de contenido, legislación para criminalizar el discurso de odio, la violencia de género en línea y otro contenido dañino o problemático, o la regulación de las respuestas de la plataforma a la desinformación con sesgo de género.

Los enfoques reactivos tienden a ser más específicos e inmediatos o de corto plazo por naturaleza, debido a que intentan acabar con las campañas de desinformación o los ataques discretos a medida que surgen.  Algunos enfoques proactivos también son de naturaleza específica, como los programas con sesiones de capacitación únicas, clases, juegos móviles u otros conjuntos de herramientas para la seguridad digital o la alfabetización mediática e informacional.  Sin embargo, muchos enfoques proactivos (y algunas respuestas que son tanto reactivas como proactivas) son más sistemáticos o de largo plazo, con el objetivo de transformar las normas de género, aumentar la participación democrática, crear cambios sociales y de comportamiento a largo plazo, crear espacios más seguros para mujeres, niñas y personas con diversas orientaciones sexuales e identidades de género en línea, y desarrollar la resiliencia de las personas, comunidades y sociedades para resistir el peso de los ataques y las campañas de desinformación.

Gran parte de los programas existentes para contrarrestar la desinformación con sesgo de género son reactivos y específicos para dar respuesta y abordar sus impactos después de que ya se haya introducido en el entorno digital.  Las intervenciones reactivas, como el etiquetado o la eliminación de contenido y la verificación de datos, la eliminación de mitos o la corrección del registro en respuesta a ataques directos, generalmente son insuficientes para revertir los daños causados por la desinformación con sesgo de género, desde el daño a la reputación y la autocensura hasta el retiro de los espacios públicos y digitales y sembrar semillas de desconfianza y discordia. 

Key Resource


Sin embargo, como señalan los académicos y profesionales de este campo, gran parte del daño ya está hecho cuando se despliegan las respuestas a la desinformación de género6.

Como es el caso con la mayoría de los programas relacionados con el género, si bien existen usos importantes para programas reactivos y proactivos para contrarrestar la desinformación con sesgo de género, a fin de garantizar que los programas de prevención y respuesta a la desinformación sean efectivos y sostenibles, es imperativo que los donantes y las comunidades de responsables de la implementación piensen en programas de lucha contra la desinformación con sesgo de género proactivos, no solo reactivos.  Sin embargo, un desafío importante es que los programas basados en transformar la percepción del género y los programas diseñados para fortalecer los factores de protección contra la desinformación generalmente se pueden medir en cambios generacionales, en lugar de los períodos de dos a cinco años que requerirían la mayoría de las fuentes de financiamiento de donantes.  Adaptar este enfoque holístico requeriría que los donantes consideren repensar la estructura típica de sus mecanismos de financiamiento y los requisitos de presentación de informes.

Comprender las dimensiones de género de la desinformación

Enfoques prometedores para programas contra la desinformación con sesgo de género

Establecer protocolos institucionales y organizacionales

Varios estudios de investigación recientes7 que investigan la prevalencia y el impacto del acoso y abuso en línea de periodistas (mujeres) en los Estados Unidos y en todo el mundo determinaron que muchas personas que son objeto de tales ataques no informan estos incidentes a sus empleadores u otras autoridades debido a la preocupación de que nada puede hacerse o se haría en respuesta, o por temor a las repercusiones personales o profesionales de la denuncia.  En los casos en que denuncien estos incidentes a sus empleadores, es posible que las organizaciones no tomen medidas o que traten los informes de forma incoherente e inadecuada.  Una recomendación clave que surgió de estos hallazgos es establecer protocolos institucionales y organizacionales, incluidas políticas y prácticas específicas para apoyar a las víctimas de ataques y atender las denuncias de ataques.

Con base en esta investigación y el trabajo en el área de violencia de género en línea, los donantes y responsables de la implementación deben apoyar a instituciones y organizaciones tales como partidos políticos o campañas, organismos electorales, medios de comunicación y noticias, y organizaciones activistas o de defensa para establecer protocolos institucionales integrales a fin de prevenir ataques y responder a informes, que incluyen: 

  • Brindar capacitación y educación en seguridad y protección digital adecuadas sobre el acoso en línea.
  • Establecer mecanismos de denuncia claros y accesibles que garanticen la seguridad y protección de los sobrevivientes de la violencia en línea y la desinformación con sesgo de género, así como su capacidad para participar libremente en los espacios digitales.
  • Garantizar una investigación sistemática y coherente de las denuncias de ataques y las remisiones a las autoridades correspondientes.
  • Establecer una variedad de respuestas que las instituciones ofrecerán para apoyar a su personal o miembros que son objeto de ataques (por ejemplo, detección y documentación de amenazas, informes a plataformas o autoridades, coordinación de contramensajes, intercambio de orientación y apoyo al personal o miembros que eligen bloquear o confrontar a los perpetradores de sus ataques).
  • Proporcionar los recursos y las referencias adecuados después de una denuncia, como seguridad física, apoyo psicológico, apoyo legal y servicios de barrido de datos personales.

Con el fin de determinar qué protocolos se necesitan y responder a las experiencias vividas por mujeres y personas con diversas orientaciones sexuales e identidades de género en el trabajo, los programas deben permitir tiempo y financiamiento para que las instituciones realicen encuestas a su personal sobre sus experiencias e involucren al personal en decisiones sobre los protocolos, políticas y prácticas.

Este enfoque puede adaptarse del periodismo y la industria de los medios de comunicación a otras organizaciones e instituciones donde prevalecen los ataques de desinformación con sesgo de género, instalando políticas y prácticas para garantizar respuestas favorables, constantes y efectivas contra los ataques directos.  Esta intervención puede contribuir a combatir la impunidad de los autores de ataques de desinformación con sesgo de género, así como el silenciamiento, la autocensura y el desánimo para participar en la esfera política o pública por parte de las personas que son objeto de estos ataques.

 

Coordinar estrategias de prevención, respuesta y mitigación de riesgos y establecer vías adecuadas para la administración y remisión de casos.

La desinformación con sesgo de género, al igual que la violencia de género, desafía a las partes interesadas a involucrarse en múltiples sectores y niveles.  Los esfuerzos de prevención y respuesta para abordar la desinformación con sesgo de género dependen de la cooperación entre los sectores público y privado, incluidas las empresas de tecnología y los medios de comunicación (especialmente las redes sociales y las plataformas de comunicaciones digitales), las autoridades policiales y judiciales, la sociedad civil, los prestadores de servicios de salud psicosocial y mental, y otros prestadores de servicios de salud en los casos en que los esfuerzos de desinformación impulsados por la tecnología puedan ocasionar daños físicos.  Además, los esfuerzos de mitigación del riesgo de desinformación con sesgo de género también dependen de la cooperación y el intercambio de información entre estas partes interesadas y los responsables de políticas a nivel internacional y nacional (para informar la reforma legal y regulatoria), los actores de la sociedad civil (para abogar por intervenciones apropiadas, efectivas y sostenibles), el sector de la educación (para informar los planes de estudio relacionados con el pensamiento crítico y las habilidades analíticas, la alfabetización mediática e informacional, y la seguridad digital) y el sector de la seguridad en los casos en que los incidentes de desinformación con sesgo de género pueden formar parte de una campaña coordinada por actores nacionales o extranjeros malignos.

Los donantes y los responsables de la implementación deben buscar la sólida experiencia del sector de ayuda humanitaria, específicamente la de los coordinadores de prevención y respuesta a la violencia de género (VG) y los proveedores de servicios, para desarrollar un enfoque coordinado de las intervenciones de desinformación con sesgo de género.  Específicamente, las entidades de financiamiento y los responsables de la implementación pueden adaptarse y obtener orientación del Manual para la coordinación de intervenciones contra la violencia de género en situaciones de emergencia y de los modelos de redes y protocolos de coordinación a nivel nacional sobre elementos relevantes del enfoque detallado en este manual para implementar respuestas a la desinformación con sesgo de género. 

Dos elementos importantes de un enfoque coordinado para las intervenciones de VG en situaciones de emergencia que deben trasladarse al adaptar este enfoque son la administración de casos y el establecimiento y uso de las vías de remisión adecuadas.  Establecer una administración de casos adecuada en este contexto podría implicar: 1) la parte interesada que recibe una queja de desinformación con sesgo de género (por ejemplo, una plataforma de redes sociales o la policía local) lleva a cabo un proceso de admisión estándar con la persona que informa; y 2) la parte interesada que recibe la queja o denuncia utiliza una vía de remisión establecida para derivar la parte informante a una organización de la sociedad civil local (por ejemplo, organizaciones locales de mujeres que son prestadoras de servicios con experiencia en violencia de género) para la administración de casos y remisiones adicionales, según corresponda. La remisión de la parte informante a un administrador de casos establecido que esté capacitado para trabajar con destinatarios o sobrevivientes de desinformación con sesgo de género y en red con las otras partes interesadas puede agilizar los servicios de apoyo para la parte informante al establecer un punto de contacto principal responsable de interactuar con ellas. La organización del administrador de casos sería responsable de comunicar las diversas opciones de respuesta y recursos disponibles, proporcionar remisiones a los proveedores de servicios apropiados en la red de remisiones y remitir los casos a los miembros apropiados de la red de coordinación para el seguimiento y (en casos de un ataque directo) el apoyo a la persona destinataria o sobreviviente del ataque.  

Establecer vías de remisión en este contexto implicaría identificar o establecer organizaciones o instituciones apropiadas responsables de diferentes aspectos de la respuesta a denuncias de desinformación con sesgo de género, garantizando que todas las organizaciones e instituciones de la red de coordinación tengan acceso a las vías de remisión, lo que les permitirá recibir informes iniciales de incidentes y remitir a las partes informantes a una organización local de administradores de casos para que ellos informen a la parte informante los servicios disponibles y las vías para buscar diferentes intervenciones o recursos.  Si la parte informante otorga el permiso, el administrador de casos también debe conectarlos con los servicios correspondientes en la vía de remisión.

Los donantes deben considerar el apoyo a: 

  • Un mapeo o análisis sectorial de las partes interesadas relevantes. 
  • Una reunión de profesionales y expertos para analizar el panorama y las necesidades de la desinformación con sesgo de género.
  • Capacitación y sensibilización de las fuerzas del orden, los profesionales del derecho y los formuladores de políticas sobre género, violencia de género en línea y facilitada por la tecnología, y desinformación.
  • El establecimiento de una red de coordinación que incluya redes sociales y plataformas de comunicación digital, autoridades policiales y judiciales, la sociedad civil, prestadores de servicios de salud psicosocial y mental, y otros prestadores de servicios de salud.
  • El desarrollo de funciones y responsabilidades claras de los miembros de la red, por ejemplo, el establecimiento de organizaciones de administradores de casos con el apoyo de la sociedad civil y los gobiernos.
  • El desarrollo de protocolos de respuesta para guiar los esfuerzos de coordinación, gestión, prevención y respuesta de la red, incluido el desarrollo de una metodología de administración de casos y una vía de remisión.

Esta intervención puede contribuir a la aplicación de un enfoque holístico y centrado en los sobrevivientes para establecer programas de respuesta y prevención contra la desinformación con sesgo de género, y combatir la impunidad de los perpetradores mediante la institucionalización de un enfoque coherente y sistemático de presentación de denuncias ante plataformas y fuerzas del orden para su investigación y recursos.

 

Construir redes y comunidades de partidarios y desplegar un contradiscurso.

"No alimente a los trolls" es un refrán común de advertencia que se ofrece a quienes se encuentran sujetos a desinformación con sesgo de género.  Los expertos solían pensar que la mejor manera de contrarrestar los ataques directos dirigidos a alguien debido a su género y explotar las normas y estereotipos de género era simplemente ignorar los ataques.  Sin embargo, recientemente, el diálogo sobre este tema ha comenzado a evolucionar.  

Si bien algunos todavía aconsejan "No alimente a los trolls", en otras palabras, consideran que simplemente se debería ignorar o bloquear, denunciar y luego omitir el contenido publicado sobre ellos en línea, otros que trabajan con los sujetos de estos ataques y también quienes han sido ellos mismos objeto de tales ataques han comenzado a reconocer las deficiencias de este enfoque. Señalan el empoderamiento que los sujetos de la desinformación con sesgo de género y quienes lo presencian pueden obtener por alzar la voz y denunciar los ataques (o ver a otros hacerlo), y la necesidad de sacar a la luz la misoginia cuando aparece en los espacios digitales.  Investigación realizada en el marco del proyecto Name It. El proyecto Change It también indica que las mujeres que participan en política que responden directamente a los ataques sexistas y denuncian la misoginia y el acoso o el abuso que enfrentan en línea (o cuando un tercero lo hace en su nombre) son capaces de recuperar la credibilidad ante los votantes que inicialmente pueden haber perdido como resultado de haber sido atacadas.

Es importante señalar claramente que, si bien hay debates en curso y en evolución sobre este tema acerca de la mejor forma en que las personas pueden o ‘deberían’ responder a la desinformación con sesgo de género, no es responsabilidad de aquellos que son objeto de tales ataques responder de una manera, si acaso, ni evitar que ocurran o tomar medidas para mitigar los riesgos de estos ataques.  No se debe esperar que quienes sufren ataques de desinformación con sesgo de género carguen con la resolución de este problema.  Más bien, es responsabilidad de una variedad de partes interesadas, incluidas las plataformas tecnológicas, las instituciones gubernamentales y los organismos reguladores, los partidos políticos, las organizaciones de medios de comunicación y la sociedad civil, establecer e implementar enfoques y mecanismos eficaces para prevenir y responder a la desinformación con sesgo de género, como también trabajar para abordar sus causas profundas y mitigar sus impactos duraderos y de largo alcance.  Sin embargo, las mejores prácticas adaptadas de los programas de respuesta a la violencia de género indican que cuando el sujeto de desinformación con sesgo de género informa un incidente, se le debe presentar información sobre las opciones disponibles de respuesta y recursos y cualquier beneficio potencial y riesgos adicionales asociados con esas opciones.

Una posible respuesta a la desinformación con sesgo de género es el contradiscurso, que el Dangerous Speech Project define como "Cualquier respuesta directa al discurso de odio o dañino con el fin de socavarlo", y también señala: "Existen dos tipos de contradiscurso: campañas organizadas de contramensajes y respuestas orgánicas espontáneas". Las personas que han sido atacadas por contenido dañino en línea pueden optar por participar en un contradiscurso por sí mismas, o pueden optar por obtener el apoyo de su propia comunidad personal y profesional o una red en línea de partidarios para elaborar y desplegar un contradiscurso públicamente en su nombre o en privado con mensajes de apoyo (por ejemplo, por correo electrónico o en una plataforma cerrada).  La efectividad del contradiscurso es difícil de medir, en parte porque quienes participan en el contradiscurso pueden tener diferentes objetivos (desde cambiar la actitud del perpetrador hasta limitar el alcance del contenido dañino y brindar mensajes de apoyo al sujeto de un ataque). Sin embargo, la investigación emergente y la evidencia anecdótica indican que la elaboración y el uso de un contradiscurso (ya sea por parte de quienes son objeto de estos ataques, sus instituciones u organizaciones, o una comunidad de partidarios en línea en general) son una práctica prometedora para responder a la desinformación con sesgo de género.8

Se ha hecho referencia a una variedad de resultados positivos del contradiscurso, que incluyen:

  • Darle una sensación de empoderamiento a los destinatarios de los ataques de desinformación con sesgo de género, lo que les permite recuperar su discurso.
  • Aumentar la probabilidad de comentarios positivos, civiles o "prosociales" o disminuir la probabilidad de comentarios negativos, descorteses o "antisociales".
  • Desestimar el contenido dañino con un contraataque de apoyo, tanto en publicaciones de redes sociales públicas como en comunicaciones privadas.
  • Demostrar a quienes comparten contenido dañino que su lenguaje o mensaje no es aceptado.

 

El monitoreo de las redes sociales puede desempeñar un papel importante en la lucha contra la desinformación con sesgo de género y puede estar vinculado a la coordinación y el despliegue de actividades de contradiscurso en respuesta a los ataques de desinformación con sesgo de género.

Los investigadores, los profesionales y los actores de la sociedad civil participan cada vez más en actividades de monitoreo de las redes sociales para informar su comprensión de la desinformación con sesgo de género, identificar puntos de entrada para interrumpir la desinformación con sesgo de género, la desinformación viral y el discurso de odio, y abogar por leyes o reglamentaciones que respondan a los crecientes desafíos de la violencia de género en línea y la difusión de contenido nocivo con sesgo de género en línea. 

En el contexto de la desinformación con sesgo de género, el monitoreo de las redes sociales se puede utilizar para cumplir dos funciones principales: 

  • Escuchar el discurso que tiene lugar en el entorno de información digital, monitorear el sentimiento y brindar una ventana importante a la creación, difusión y amplificación de contenido dañino. 
  • Monitorear la adherencia de los actores políticos, los medios de comunicación y las instituciones públicas a la orientación legal y reglamentaria y los códigos de conducta en torno a la desinformación y el discurso de odio, y monitorear la aplicación por parte de las plataformas tecnológicas de sus normas comunitarias, términos de uso o códigos de conducta.

Un primer paso que deben dar los donantes, investigadores y responsables de la implementación es crear metodologías y herramientas para monitorear las redes sociales y recopilar datos sobre desinformación con sesgo de género, discursos de odio y desinformación viral. Estas metodologías y herramientas deben adaptarse a los contextos locales y aplicarse en la investigación y la programación con el fin de montar un esfuerzo eficaz para contrarrestar la desinformación con sesgo de género. En 2019, el Consorcio para el Fortalecimiento de los Procesos Electorales y Políticos (CEPPS, por sus siglas en inglés) lanzó una herramienta de análisis de redes sociales para monitorear la violencia en línea contra las mujeres en las elecciones. La herramienta incluye una guía detallada sobre cómo identificar tendencias y patrones de violencia en línea, que incluye: identificar los posibles destinatarios a monitorear (es decir, mujeres políticas, candidatas, activistas); definir el léxico del discurso de odio a monitorear; elegir a qué plataformas de redes sociales monitorear; seleccionar las preguntas de investigación; ejecutar el análisis utilizando software de minería de datos; y luego analizar los resultados. Puede encontrar una descripción completa y detallada del proceso en "Violencia en línea contra las mujeres en las elecciones: una herramienta de análisis de las redes sociales" del CEPPS.

El NDI también ha desarrollado una metodología para extraer y analizar de manera efectiva dichos datos en sus informes "Tuits que hielan la sangre" y "Generando odio" con demostraciones a través de investigaciones en cinco países. Un paso esencial de la metodología es crear un léxico en los idiomas locales del lenguaje de acoso basado en el género y el lenguaje político del momento a través de talleres con organizaciones locales de derechos de las mujeres y organizaciones de tecnología cívica. 

Algunas de las lecciones clave de esta investigación incluyen:

  • Deben crearse léxicos de violencia en línea específicos desde el punto de vista contextual y lingüístico y luego evolucionar: "En todos los países del estudio de casos, los participantes del taller destacaron la naturaleza fluida y evolutiva del lenguaje e intercambiaron ideas sobre formas de explicar este matiz en la metodología del estudio. Por ejemplo, el NDI aprendió del taller de Colombia que el lenguaje violento en español variaba en América Latina, con palabras específicas de Colombia y palabras de otras partes de la región que se utilizan dentro del país. En Indonesia, se utilizaron palabras o frases religiosas, que complicaron y acentuaron la violencia en línea al invocar mensajes religiosos al mismo tiempo. En Kenia, los participantes del taller señalaron que una serie de palabras o frases violentas que eran de uso común en la lengua suajili hablada aún no se habían convertido en texto escrito en línea en Twitter. Estas lecciones variadas apuntan a la necesidad de léxicos contextuales y lingüísticamente específicos que puedan actualizarse, modificarse e implementarse continuamente con codificadores humanos que trabajen junto con los algoritmos informáticos" (extraído de "Tuits que hielan la sangre").

 

  • Es esencial la atención hacia las comunidades minoritarias y las identidades que se entrecruzan: "[La violencia contra las mujeres políticamente activas] en línea es variada y contextual, ya que difiere de un país a otro y de una cultura a otra. Sin embargo, también se da el caso de que las expresiones utilizadas y los impactos de la violencia en línea pueden variar significativamente entre las comunidades de un mismo país. Por esta razón, es importante incluir intencionalmente y considerar comunidades históricamente marginadas entre las mujeres (por ejemplo, mujeres con discapacidades, mujeres LGBTI y mujeres que conforman minorías religiosas y étnicas) al explorar el fenómeno de la [violencia en línea contra las mujeres que participan en política]. Durante el taller de Colombia, representantes femeninas de la comunidad sorda compartieron que la violencia que enfrentaron no fue en texto, sino a través de GIF o videoclips en lenguaje de señas violentos. Se explicó que este mecanismo de publicación fue particularmente efectivo para amenazar y transmitir inseguridad porque, para la mayoría de los miembros de la comunidad sorda en Colombia, el lenguaje de señas es su primera lengua y, por lo tanto, el enfoque fue certero. Entender que los tipos de amenazas y modos de violencia en línea pueden diferir sustancialmente cuando se dirigen a diferentes comunidades marginadas indica que se requiere más trabajo para crear léxicos relevantes" (extraído de "Tuits que hielan la sangre").

 

  • Experiencia local del centro: "La forma en que la desinformación con sesgo de género se enmarca y se propaga a través de una red varía mucho según el contexto. Identificar o mitigar la desinformación con sesgo de género no puede tener éxito sin la participación central y la dirección de expertos locales que comprendan las sutilezas de cómo se puede expresar la desinformación con sesgo de género, dónde es probable que surja y cuándo. Las plataformas deben respaldar el trabajo de los expertos locales para identificar y combatir la desinformación con sesgo de género, por ejemplo, mediante el acceso a datos o el ensayo de posibles respuestas a través de cambios en el diseño de la plataforma. Es poco probable que los sistemas automatizados para identificar la desinformación con sesgo de género tengan altos niveles de precisión, aunque si se emplean, deberían utilizarse de manera transparente y estar supervisados por expertos locales" (extraído de "Generando odio").

 

Tanto el capítulo Marcos legales y reglamentarios, sección 6.2.b, sobre la creación de capacidad para monitorear incumplimientos como el capítulo de Monitoreo de elecciones exploran estos conceptos más a fondo.

Aparentemente, en respuesta a lo que muchos perciben como una falta de intervenciones adecuadas por parte de los formuladores de políticas y las plataformas tecnológicas para abordar el problema de la desinformación con sesgo de género, una variedad de ONG, la sociedad civil y organizaciones de defensa han diseñado intervenciones para capacitar a los posibles destinatarios de estos ataques digitales (así como también a sus empleadores, aliados y visitantes) para desarrollar e implementar una campaña de contraataque eficaz, mientras que otros han establecido comunidades en línea de partidarios que están listos para apoyar a los destinatarios de estos ataques con campañas de contraataque (entre otros servicios de apoyo, como monitorear el espacio digital donde se está llevando a cabo el ataque y ayudar al destinatario del ataque a informar el incidente).

 

Ejemplos de capacitación en contradiscurso:

  • Currículo de capacitación Gendersec de Tactical Tech sobre "Hackear el discurso de odio": plan de estudios del taller de capacitación sobre cómo configurar una red de apoyo en línea, crear contenido de contradiscurso textual y visual e implementar una campaña de contradiscurso.
  •  Manual de campo sobre el acoso en línea de PEN América: guía de capacitación para periodistas y escritores sobre cómo responder al acoso y abuso en línea, incluida la creación de una comunidad de partidarios y el desarrollo de mensajes de contradiscurso; incluye orientación para los empleadores sobre cómo apoyar al personal que sufre acoso en línea, incluso a través del contradiscurso.

Comunidades en línea de partidarios y ejemplos de programas de contradiscurso:

  • Proyecto HeartMob de Hollaback!: plataforma en línea con una red de partidarios lista para responder a los informes de los usuarios sobre acoso en línea y brindar un contradiscurso positivo (entre otros servicios de apoyo).
  • TrollBusters: red de partidarios siempre listos para responder a las denuncias de acoso en línea de mujeres periodistas con un contradiscurso positivo; incluye monitorear las cuentas de redes sociales de las víctimas para detectar ataques continuos y enviar mensajes de respuesta continuos (entre otros servicios de apoyo).

Las entidades de financiamiento y los responsables de la implementación deben considerar brindar apoyo para ampliar intervenciones como las mencionadas anteriormente con el fin de construir comunidades de partidarios y diseñar y desplegar campañas efectivas de contradiscurso, incluido el apoyo a la integración de estas intervenciones de la sociedad civil en plataformas tecnológicas.

Fortalecer los factores de protección y desarrollar la resiliencia de personas y comunidades.

Debido a que la desinformación con sesgo de género nace de la desigualdad de género y las normas discriminatorias, disuadir su creación, diseminación y amplificación en el entorno de la información digital requerirá que los donantes y los implementadores piensen más allá del alcance percibido de los programas contra la desinformación.  Como se señaló anteriormente, los programas para fortalecer los factores de protección y desarrollar la resiliencia de las personas, las comunidades y las sociedades contra la desinformación con sesgo de género pueden no parecer programas que los donantes y los responsables de la implementación normalmente consideren como intervenciones contra la desinformación.  Estos programas no deben limitarse a intervenciones para desarrollar la resiliencia de mujeres, niñas y personas con diversas orientaciones sexuales e identidades de género (aunque este es un tipo importante de respuesta), sino que también deben incluir intervenciones basadas en transformar la percepción de género que tengan como objetivo fortalecer la resiliencia y la protección de comunidades y sociedades enteras contra la perpetración y el consumo de desinformación con sesgo de género.  

Los programas para fortalecer los factores de protección de las personas, las comunidades y las sociedades contra la amenaza de la desinformación con sesgo de género (y la desinformación en general) incluyen intervenciones que abarcan los sectores del desarrollo, como los programas para: 

  • Promover la equidad y justicia de género.
  • Transformar las normas de género discriminatorias y patriarcales.
  • Fortalecer la cohesión social.
  • Aumentar la participación e inclusión democráticas.
  • Mejorar el acceso equitativo a una educación de calidad.
  • Aumentar la estabilidad económica y mejorar las oportunidades económicas.
  • Fomentar la alfabetización mediática e informacional. 
  • Fortalecer el pensamiento crítico, las habilidades analíticas y de investigación. 
  • Proporcionar apoyo social y oportunidades de fortalecimiento de la confianza. 

Algunos de los que trabajan en la intersección de la tecnología, la desinformación y el género advertirán que un enfoque en intervenciones como la alfabetización mediática e informacional, las habilidades de pensamiento crítico y el fomento de la confianza coloca de manera inapropiada la responsabilidad de resistir la desinformación y sus efectos en las personas afectadas negativamente por ella, en lugar de en el sector de la tecnología y los responsables de la formulación de políticas para identificar e instituir soluciones efectivas.  La responsabilidad de responder y prevenir la desinformación con sesgo de género no debe recaer sobre las espaldas de los sujetos de los ataques digitales de género, ni sobre aquellos a quienes se dirige o manipula como consumidores de contenido falso o problemático. Sin embargo, para erradicar el problema de la desinformación, los esfuerzos contra la desinformación con sesgo de género deben incluir pensar de manera integral el desarrollo de resiliencia ante la desinformación y diseñar programas para fortalecer la resiliencia no solo de los individuos, sino también de comunidades y sociedades enteras.  Por ejemplo, los planes de estudio de alfabetización mediática e informacional a nivel regional o nacional no asignan a los estudiantes la responsabilidad de aprender a resistir la desinformación con sesgo de género, sino que trabajan para proteger a comunidades enteras contra los desafíos de la integridad de la información.

Los donantes e implementadores deben trabajar para integrar los programas contra la desinformación con sesgo de género en todos los sectores de desarrollo, incorporando estas intervenciones en programas centrados en el cambio social y de comportamiento a largo plazo para desarrollar la resiliencia de las personas, las comunidades y las sociedades a fin de resistir el problema en evolución de la desinformación.

Respuestas legales y reglamentarias a la desinformación

Por Lisa Reppell, especialista en redes sociales mundiales y desinformación del Centro de Investigación y Aprendizaje Aplicado de la Fundación Internacional para Sistemas Electorales

Los marcos legales y reglamentarios que rigen las elecciones varían significativamente en cuanto a la forma en que se adaptaron al uso generalizado de internet y las redes sociales en las campañas. Si bien los legisladores de algunos países han hecho avances para armonizar sus marcos legales y reglamentarios con un entorno de información en evolución, otros marcos guardan silencio respecto del tema de los medios digitales. A medida que los actores políticos adoptan cada vez más las tácticas de las redes sociales y las operaciones de información habilitadas por la tecnología como prácticas de campaña estándar, la ausencia de una guía legal y reglamentaria que establezca límites a los comportamientos de campaña permisibles se vuelve cada vez más problemática.

Las leyes y las regulaciones cuidadosamente elaboradas pueden inhibir a los actores políticos de utilizar la desinformación y otras prácticas en línea dañinas o engañosas para el beneficio personal y político de formas que erosionan la salud del entorno de información democrática. Al mismo tiempo, la adopción de una legislación demasiado amplia puede tener implicaciones escalofriantes para los derechos políticos y electorales. Si bien la reforma legal y reglamentaria para adaptarse a las formas en que las redes sociales y la tecnología han cambiado las elecciones es esencial, basar esa reforma en buenas prácticas comparativas y globales puede ayudar a los reguladores a considerar los desafíos de regular esta área.

Aunque la mayoría de los países han establecido normas y reglas para dirigir el flujo de información a través de los medios impresos y de radiodifusión durante las campañas y las elecciones, los principios democráticos que informan estas leyes y regulaciones (libertad de expresión, transparencia, equidad y promoción de la información democrática) no se han extendido constantemente a las redes sociales y las campañas en línea. Sin embargo, la regulación debe hacer más que simplemente extender los mecanismos de supervisión de los medios existentes al mundo digital. Las redes sociales e internet han alterado la forma en que las personas se encuentran, interactúan y crean información política y electoral, lo que requiere que los legisladores y reguladores adopten enfoques consistentes con esta nueva realidad.

"(Nuestra organización) analiza el contenido de los medios de comunicación en el período previo a las elecciones, observamos los medios impresos, de radiodifusión y tradicionales, los cuales están claramente cubiertos por las pautas y los procesos electorales. Si vemos algo en la radio o la televisión, habría un medio de recurso en nuestra comisión electoral para abordarlo adecuadamente. Lo que vimos con los medios digitales… (no fue) cubierto por nada ni por nadie. Fue una brecha enorme". — William Bird, director de Media Monitoring Africa (Sudáfrica)

Highlight


Una reglamentación que modifique el comportamiento de los adversarios extranjeros o que altere significativamente las prácticas comerciales globales de las plataformas de redes sociales es un objetivo poco realista para los procesos de reforma legal a nivel nacional.1 Sin embargo, la regulación de las acciones de los actores nacionales durante los períodos electorales o las leyes discretas que crean presión sobre las formas de operar de las plataformas dentro de un país son áreas viables para la reforma. Esta reglamentación también se basa en el mandato existente de los organismos normativos o judiciales para supervisar el comportamiento de los actores nacionales durante las elecciones, incluidos los candidatos y los partidos políticos.

La legislación nacional que rige el uso de los medios digitales durante las elecciones y las campañas tiene el potencial de cerrar los vacíos que actualmente explotan los actores nacionales para manipular el entorno de información en épocas de elecciones. El uso de desinformación para obtener una ventaja política durante los períodos de campaña constituye más que la difusión de información falsa o engañosa. Las campañas de desinformación suelen estar dirigidas por actores que aprovechan los comportamientos engañosos y coordinados en línea para distorsionar la comprensión pública, aumentar la polarización social y socavar la confianza en las elecciones y las instituciones democráticas. Estas campañas están sobrealimentadas por la naturaleza, la escala y la capacidad en red de los nuevos sistemas en línea y pueden tener un impacto enorme en la participación política, la percepción social y la seguridad de las mujeres y otros grupos marginados. Para construir una red que despliegue desinformación a gran escala, a menudo se requieren recursos financieros no solo para desarrollar y probar mensajes, sino también para financiar la amplificación de esos mensajes. En ausencia de pautas políticas específicas y del financiamiento de campañas para el uso de las redes sociales en las campañas, existen pocas limitaciones sobre qué comportamientos son permisibles, incluso en los casos en que esos comportamientos parecerían ser una clara violación de los principios que existen en otras partes de la ley.

Algunos países están desarrollando enfoques novedosos para abordar el uso de las redes sociales en las campañas y las elecciones, a veces de maneras que carecen de precedentes internacionales. La intención de esta sección temática es detallar, categorizar y discutir las implicaciones de estas decisiones legales, reglamentarias y judiciales emergentes a nivel nacional. Esta sección se basa en un análisis de los marcos legales electorales de más de cuarenta países en seis continentes. Muchas de las leyes y políticas recopiladas en esta sección temática aún no se probaron exhaustivamente en contextos electorales, por lo que es posible que no siempre esté claro cuáles lograrán avanzar en los objetivos que se pretenden.

Exploración: definiciones, ejemplos comparativos y consideraciones de aplicación

Esta sección de la guía está destinada a ser un recurso para los legisladores que contemplan la regulación de las redes sociales y digitales en sus propios marcos legales electorales, así como para los donantes e implementadores internacionales que pueden proporcionar ejemplos comparativos en el proceso.

  1. DEFINICIONES: El contenido de esta sección comienza con una discusión de las consideraciones sobre definición clave que los legisladores deben abordar en la regulación de las redes sociales durante las elecciones y campañas, así como ejemplos de cómo diferentes países han optado por definir estos conceptos. Dependiendo de cómo se definan estos conceptos, tendrán el potencial de alterar significativamente el alcance y la capacidad de aplicación de la ley. 
  2. EJEMPLOS COMPARATIVOS: A continuación, el texto procede con ejemplos comparativos y análisis de medidas adoptadas en la legislación, la reglamentación y la jurisprudencia a nivel nacional. Se analizan medidas para restringir el contenido y los comportamientos en línea durante las campañas y las elecciones, así como medidas para promover la transparencia, la equidad y la información democrática. Los ejemplos que se incluyen se pueden explorar individualmente según el interés y no es necesario leerlos consecutivamente. Además, están destinados a proporcionar perspectivas comparativas para informar sobre las discusiones acerca de las reformas legales y reglamentarias, aunque la inclusión de un ejemplo no constituye un respaldo de ese enfoque.
  3. APLICACIÓN: Una regulación cuidadosa significa poco si no va acompañada de una consideración significativa respecto de cómo se aplicará esa regulación. La falta de realismo en relación con la aplicación amenaza con socavar la autoridad de los organismos reguladores que promulgan reformas y puede generar expectativas poco realistas sobre lo que se puede lograr únicamente mediante la regulación.

Respuestas legales y reglamentarias a la desinformación

1.1 ¿Qué constituyen las redes sociales o los medios digitales?

El entorno de los medios en línea sigue evolucionando y las regulaciones que se diseñan hoy para abordar elementos específicos de ese entorno pueden quedar obsoletas rápidamente. Los reguladores deben considerar la gama completa de herramientas de comunicación habilitadas en internet para determinar qué tan amplia o limitada debe ser su guía.

Al escribir en 2014, International IDEA (Instituto Internacional para la Democracia y Asistencia Electoral) definió las redes sociales como "Plataformas basadas en la web o móviles que permiten interacciones bidireccionales a través del contenido generado por el usuario (UGC, por sus siglas en inglés) y la comunicación. Por lo tanto, las redes sociales no son medios que se originan solo en una fuente o se transmiten desde un sitio web estático. Más bien, son medios en plataformas específicas diseñadas para permitir a los usuarios crear (generar) contenido e interactuar con la información y su fuente".

En estos años, la web social ha seguido evolucionando y es posible que definiciones como las anteriores ya no contemplen suficientemente la gama de actividades en línea que los reguladores desean abordar. El análisis realizado por el Knight First Amendment Institute de la Universidad de Columbia de las 100 plataformas más populares de redes sociales articula las complejidades sobre las definiciones al clasificar las redes sociales.  La captura de la actividad de la campaña que tiene lugar en aplicaciones de mensajería digital, como WhatsApp, Telegram o Signal, o en foros de internet de subculturas, por ejemplo, puede requerir una definición más amplia que la anterior. El papel de los motores de búsqueda, los distribuidores de publicidad en línea o la transmisión de televisión por internet basada en anuncios de campaña también puede requerir una definición más amplia.

La Ley del Tratado Interestatal de Medios de Alemania de 2020 (Medienstaatsvertrag - "MStV") proporciona una de las definiciones más completas de la gama de actividades que busca gobernar. La ley introduce "regulaciones integrales específicas de los medios para aquellos proveedores que actúan como guardianes del contenido o servicios de los medios para difundirlo", como "motores de búsqueda, televisores inteligentes, asistentes de idiomas, tiendas de aplicaciones, [y] redes sociales". La ley intenta proporcionar definiciones detalladas en las categorías de las plataformas de medios, las interfaces de usuarios y los intermediarios de los medios.

En lugar de referirse a las redes sociales o los medios digitales, el código electoral de Canadá se refiere a las "plataformas en línea" y las define en función de la característica más destacada que está regulada por el código: que venden publicidad. La ley canadiense define una plataforma en línea como "un sitio de Internet o una aplicación de Internet cuyo propietario u operador, en el curso de sus actividades comerciales, vende directa o indirectamente un espacio publicitario en el sitio o aplicación a personas o grupos".2

Otras jurisdicciones restringirán aún más las redes sociales o plataformas en línea obligadas a cumplir con una nueva ley o regulación en función de un criterio específico, como el número de usuarios. La ley Netzwerkdurchsetzungsgesetz (NetzDG) de Alemania, por ejemplo, que exige que las empresas eliminen rápidamente el contenido ilegal de sus plataformas, se aplica solo a las plataformas de Internet con al menos 2 millones de usuarios.3

 

Al definir las redes sociales o los medios digitales, los redactores deberán considerar:

  • ¿Qué tipo de comportamiento en línea aborda esta ley? ¿Incluye todos los sitios web que permiten publicidad pagada o comentarios públicos, como blogs o sitios de noticias en línea? ¿Incluye a las aplicaciones de mensajería digital (es decir, WhatsApp)? ¿A los motores de búsqueda? ¿A distribuidores de publicidad en internet? 
  • ¿La intención de la ley es simplemente regular las actividades en línea pagadas que tienen lugar en las redes sociales? Si es así, ¿debería la definición centrarse en entidades en línea que ejecutan publicidad pagada? 
  • ¿Son las obligaciones creadas en esta ley demasiado onerosas para las pequeñas empresas de redes sociales en formas en que sofocarían a la competencia debido a los altos costos de cumplimiento? Por tanto, ¿debería la ley limitarse a las plataformas que superan un cierto número de usuarios diarios o tienen una cierta cantidad de ingresos o valor de mercado?

1.2 ¿Qué son las campañas online? (contenido orgánico frente a contenido pagado)

Los marcos legales y regulatorios pueden desear distinguir entre actividades "orgánicas" y "pagadas" que son realizadas por el actor al cual se regula. Por ejemplo, el contenido orgánico de la campaña sería material compartido por un partido o un candidato con su audiencia establecida en las redes sociales, que puede o no participar o difundir ese material. El alcance del contenido orgánico está determinado por el tamaño de la audiencia en las redes sociales de un candidato o campaña; es decir, aquellas entidades que han elegido seguir o interactuar con el actor de las redes sociales en cuestión, así como la calidad y el atractivo del contenido que se comparte. 

Por otro lado, el "contenido pagado" es el material por el cual pagó el actor que está siendo regulado para brindar mayor visibilidad entre las audiencias que pueden no haber optado por interactuar con ese material. Las diferentes redes sociales y plataformas digitales tienen diferentes funciones no gratuitas para ampliar el alcance del contenido, que incluyen, entre otras, la colocación de anuncios o el pago para priorizar el contenido en las fuentes que alimentan las redes sociales de los usuarios o los resultados del motor de búsqueda. Si una de las partes paga por el desarrollo de mensajes o materiales de campaña, incluso si luego se distribuyen a través de canales orgánicos, eso también se puede calificar como un gasto que debe reportarse, como se explica en la siguiente sección de definición sobre "¿Qué constituye un gasto de publicidad en redes sociales o medios digitales?"

Esta distinción es particularmente pertinente en casos en los que existen restricciones para hacer campaña fuera de un período designado. Por ejemplo, se necesita una definición clara para delinear qué comportamientos en línea están permitidos antes de que comience un período de campaña o durante un período de silencio electoral, directamente antes de las elecciones.

Los reguladores de diferentes países han optado por responder a esta pregunta de diversas maneras, y algunos han determinado que tanto el contenido pagado de las redes sociales como el gratuito constituyen campañas en línea, mientras que otros determinan que la regulación se refiere solo a la publicidad pagada. 

Highlight


A la hora de decidir dónde delimitar los límites de la campaña en la Internet, los reguladores podrían considerar si su intención principal es regular las actividades de las páginas o cuentas oficiales de los candidatos y partidos o si desean regular la actividad de cualquier usuario de las redes que participe en la campaña. Si el objetivo es gobernar las cuentas oficiales de los candidatos y los partidos en las redes sociales, el monitoreo de todas las publicaciones y la actividad de estas cuentas -pagadas y no pagadas- es un objetivo más alcanzable, dado que sólo habrá que supervisar un número discreto de cuentas para comprobar su cumplimiento.

Por otro lado, si la regulación pretende afectar a todos los usuarios de las redes sociales que publican contenidos políticos, en lugar de solo a las cuentas oficiales de los partidos y las campañas, el control de todas las publicaciones orgánicas de cada usuario de las redes sociales resulta poco práctico y corre el riesgo de una aplicación selectiva o partidista. Centrarse en la publicidad pagada, especialmente en los países en los que existen informes de transparencia publicitaria de las plataformas de redes sociales, hace que la supervisión de toda la publicidad política pagada sea un objetivo más realista.

El marco legal electoral de Venezuela, por ejemplo, estipula que la expresión política no pagada en las redes sociales por parte de los candidatos o los partidos no se considera campaña. 4 El marco canadiense reconoce la complejidad de hacer cumplir la veda electoral en la Internet al eximir "la transmisión de un mensaje que fue transmitido al público en lo que comúnmente se conoce como Internet antes del período de silencio ... que no fue cambiado durante ese período".5 Del mismo modo, las pautas de 2010 de la Comisión Electoral Nacional de Polonia prohíben cualquier actividad en la Internet que constituya una campaña durante el período de veda electoral, pero permiten que el contenido que se publicó en la Internet antes del inicio del período de veda siga siendo visible.6

Al definir las campañas en línea, los reguladores deberán considerar:

  • ¿Desean distinguir entre contenido que se difunde a través de medios pagados y no pagados? 
  • ¿Solo el contenido compartido por partidos y candidatos está sujeto a regulación, o las estipulaciones pertenecen a una gama más amplia de usuarios de internet que pueden publicar contenido político, comprar anuncios políticos o hacer publicidad?
  • ¿Cuál es la capacidad del organismo regulador para monitorear y sancionar las infracciones de las campañas? Y ¿esto afecta la forma en que se definen las campañas en línea de manera estricta o amplia?

1.3 ¿Cómo define la ley la publicidad política, la publicidad de campañas y la publicidad temática?

La legislación nacional puede adoptar un enfoque amplio o restringido para definir los tipos de publicidad que están sujetos a escrutinio. Delinear claramente los criterios por los cuales se considerará que los anuncios pagados en línea entran en una categoría regulada es esencial para cualquier regulación que, por ejemplo, intente poner barreras a la publicidad política permitida o requiera divulgaciones específicas relacionadas con la publicidad política en línea. 

Los códigos electorales y las plataformas de redes sociales utilizan distintas definiciones para "publicidad política", "publicidad de campañas", "publicidad electoral" y "publicidad temática". Estas frases no tienen definiciones universales y establecer las distinciones de definición entre estos conceptos también es un desafío familiar de la regulación de las campañas fuera de línea. Tanto para las campañas en línea como fuera de línea, las distinciones sutiles dentro de estas definiciones pueden alterar significativamente el alcance y el impacto de una ley. 

Para los países que han designado períodos de campaña, los términos "publicidad de campaña" y "financiamiento de campaña" son los que se utilizan para delinear las actividades y los gastos que ocurren durante ese período designado; mientras que "publicidad política" y "financiamiento político" incluirían las actividades y los gastos de un partido que tienen lugar fuera del período de campaña o se relacionan con las operaciones generales del partido. 

A los efectos de esta sección de la guía, "publicidad política" se utilizará como un término general para referirse a la publicidad que colocan los partidos políticos, los candidatos o terceros que actúan en su nombre, así como cualquier publicidad (independientemente de quién ha colocado el anuncio) que hacen referencia explícita a un partido político, candidato o elección o que fomentan una opción electoral en particular. La "publicidad de campaña" solo se utilizará cuando se haga referencia a medidas que se apliquen específicamente a un período de campaña designado. 

La distinción es importante, ya que algunos gastos de los partidos (por ejemplo, la colocación de anuncios que tengan un propósito de educación de los votantes) podrían considerarse anuncios políticos o anuncios de campaña, en función de la definición utilizada. Si las definiciones no son claras, los candidatos y los partidos que imparten educación al votante fuera del período de campaña pueden argumentar que dichos mensajes son parte de su curso normal de negocios y no parte de una campaña, lo que abre un camino para que los partidos eludan las regulaciones de la campaña.

La frase "publicación de anuncios" se utiliza en esta sección para contemplar una gama más amplia de anuncios que hacen referencia a cuestiones sociales o políticas, pero que no hacen referencia explícita a un partido, candidato o elección. Cualquier entidad puede colocar anuncios publicitarios, ya sean expresamente políticos o no. Los países que someten una gama más amplia de publicidad en línea a la regulación pueden optar por hacerlo para disuadir la publicidad clandestina con objetivos políticos, sociales o financieros, pero que no nombra específicamente candidatos o partidos en un intento de eludir la regulación. Una definición amplia expande significativamente la matriz de publicidad que luego debe estar sujeta a normas o revisión. Facebook señala que, en el caso de los países que realizan un seguimiento de los anuncios publicitarios, estos pueden provenir de una variedad de anunciantes, incluidos "activistas, marcas, grupos sin fines de lucro y organizaciones políticas". 

Los intentos de regular los anuncios publicitarios también plantean consideraciones de libertad de expresión para la sociedad civil y los grupos de defensa. En Irlanda, por ejemplo, las actividades reguladas incluyen aquellas que son "para promover u oponerse, directa o indirectamente, a los intereses de un tercero en relación con la conducción o gestión de cualquier campaña realizada con miras a promover o procurar un resultado particular en relación con una política o políticas o las funciones del Gobierno o de cualquier autoridad pública".8 El debate sobre esta disposición destacó las preocupaciones respecto de que una definición tan amplia podría afectar el trabajo de defensa y campaña de las organizaciones de la sociedad civil.9

Nueva Zelanda y Canadá también han elaborado definiciones suficientemente amplias de publicidad electoral para hacer posible la sanción de la publicidad política en línea que disfrazan como publicidad basada en temas.

  • Nueva Zelanda10 
    • En esta ley, publicidad electoral
      • (a) significa un anuncio en cualquier medio que razonablemente pueda considerarse que alienta o persuade a los votantes a hacer una o ambas de las siguientes acciones: 
      • (i) votar, o no votar, por un tipo de candidato descrito o indicado por referencia a puntos de vista o cargos que están o no ocupados o asumidos (se indique o no el nombre del candidato); 
      • (ii) votar, o no votar, por un tipo de partido descrito o indicado por referencia a opiniones o cargos que están o no ocupados o asumidos (se indique o no el nombre del partido);
  • Canadá11 
    • La publicidad electoral significa la transmisión al público por cualquier medio durante un período electoral de un mensaje publicitario que promueve o se opone a un partido registrado o la elección de un candidato, incluso al adoptar una posición sobre un tema con el que está asociado un partido o candidato registrado.

Las definiciones de Nueva Zelanda y Canadá distinguen aún más la publicidad electoral de un contenido editorial o de opinión.

El hecho de que la legislación nacional disponga que los anuncios sobre cuestiones políticas o sociales estén sujetos a medidas adicionales de transparencia o supervisión puede afectar la información recopilada y catalogada por Facebook y posiblemente por otras plataformas en línea. Por ejemplo, a principios de 2021, Facebook recogió una mayor variedad de anuncios en su biblioteca de anuncios para Canadá, la Unión Europea y Singapur, Taiwán, Reino Unido y Estados Unidos que para otros países.12 Entre los 34 países que obtuvieron acceso a la Biblioteca de anuncios de Facebook en julio y agosto del 2020, solo Nueva Zelanda y Myanmar requirieron una divulgación adicional para la publicidad de temas sociales además de los anuncios políticos y electorales (que se aplicaron a todos los países restantes). En el caso de Nueva Zelanda, esto puede haber sido en respuesta a una disposición legal a nivel nacional que requiere divulgaciones más amplias de la plataforma relacionadas con la publicidad de emisión, aunque el código legal de Myanmar no dice nada al respecto.

Al definir publicidad política, de campaña, electoral o temática, los reguladores deberán considerar:

  • ¿Existen definiciones de publicidad política, de campaña, electoral o temática en el marco legal electoral actual? Si es así, ¿se aplican a la publicidad en redes sociales?
  • Si no hay una definición o no se aplica a las redes sociales, o si incluye una definición limitada de publicidad política, ¿sería beneficioso ampliar o revisar la definición?
  • ¿El marco legal requiere que activistas, marcas, grupos sin fines de lucro y organizaciones políticas hagan anuncios publicitarios?
  • En cada caso, ¿es esta una carga razonable para imponer a estas entidades que no suprimirá su capacidad para llegar a las audiencias previstas debido a requisitos demasiado onerosos?
  • ¿Cuáles son las implicaciones de los cambios propuestos sobre la libertad de expresión, en particular para las organizaciones de la sociedad civil que participan en la defensa?

1.4 ¿Quiénes son los pagadores y las entidades pagadas en las campañas en línea?

Si los reguladores intentan utilizar los mecanismos legales existentes a su disposición –incluido el marco legal que regula el financiamiento político, la corrupción pública o el uso de recursos estatales, entonces se deben considerar las definiciones que reconocen la complejidad del ecosistema de información. La creación de desinformación a gran escala por parte de un actor nacional o extranjero probablemente requerirá el desembolso de fondos para asegurar el personal, la experiencia y los materiales necesarios para crear y mantener una campaña en línea sostenida. Por lo tanto, la regulación que busca brindar transparencia a través de requisitos de divulgación o regular las actividades de campañas pagadas debe reconocer la multitud de relaciones financieras que podrían constituir un gasto.

Las redes sociales digitales y las campañas en las redes sociales aumentan las oportunidades de ocultar los orígenes del contenido al actuar por medio de terceros. Las medidas que buscan traer transparencia a estos flujos financieros querrán considerar no solo quién es el pagador y el beneficiario, sino también quién es la entidad pagada: ¿la plataforma de redes sociales en sí misma? ¿Influencers que operan páginas o fuentes en las respectivas plataformas y pueden recibir pagos para promover contenido político? ¿Empleados públicos que participan en campañas a través de las redes sociales mientras están en el trabajo? ¿Empresas de relaciones públicas o entidades de creación de contenido (como granjas de contenido o granjas de trolls) que producen y difunden contenido en nombre de una entidad política?

Además, ¿esas entidades operan dentro del país o extraterritorialmente? 

Canadá, por ejemplo, exime las publicaciones en las redes sociales de su definición de "publicidad" si se encuentran dentro de los siguientes parámetros: "la transmisión hecha por una persona, sin fines comerciales en la Internet, de sus opiniones políticas personales" (énfasis añadido).13 Esto se puede interpretar en el sentido de que requiere que las entidades políticas paguen a los intermediarios de las redes sociales o personas influyentes para que se divulgue como publicidad. Sin esta consideración, los candidatos y los partidos políticos pueden eludir las regulaciones al pagar a entidades de terceros para promover contenido o colocar anuncios en su nombre. La naturaleza de las redes sociales hace que sea comparativamente fácil para una entidad política contratar los servicios de un tercero para realizar actividades reguladas o prohibidas en las redes sociales mientras elude los requisitos de divulgación. Las leyes deben incluir definiciones claras de términos para recoger esta realidad y cerrar los vacíos.

Por el contrario, es poco probable que las medidas que sancionen o impongan obligaciones a los difusores de contenido ilícito, sin tratar de identificar a los patrocinadores de ese contenido, disuadirán a los actores que son los beneficiarios finales de las campañas de desinformación.

Al definir quiénes son el pagador y las entidades pagadas, los reguladores querrán considerar:

  • Si una determinada acción está prohibida o sujeta a requisitos de divulgación, ¿el marco legal y reglamentario también se aplica a la contratación o instrucción de terceros para realizar esa acción?
  • ¿Cómo impacta la disposición legal o reglamentaria bajo consideración en el difusor de contenido frente al patrocinador de la actividad?

"No hay una regulación para atrapar al patrocinador, solo al que difunde (el contenido)". — Representante de la sociedad civil de Indonesia.

1.5 ¿Qué constituye un gasto en publicidad digital o en redes sociales?

Si un enfoque legal o reglamentario incluye requisitos de divulgación o transparencia, es importante definir los tipos de gastos en publicidad digital o campañas digitales que deben divulgarse. Es posible que estos requisitos también deban revisarse a intervalos regulares para garantizar que se adapten a las tácticas en rápida evolución de las campañas digitales.

Los requisitos de divulgación sólidos proporcionarán información sobre las fuentes de financiamiento, la cantidad de financiamiento proporcionada por cada fuente y la información detallada sobre cómo se utilizó el financiamiento. La divulgación completa es necesaria para poder juzgar si los fondos provienen de fuentes legalmente permitidas y si se utilizan para fines legítimos de los partidos y las campañas. Los requisitos mínimos de divulgación les facilitan a los actores políticos el cumplimiento de la letra de la ley y ocultan comportamientos cuestionables que violan la intención de los requisitos de divulgación.

El análisis de la Comisión Electoral del Reino Unido señala que los gastos en publicidad digital se pueden ocultar fácilmente en diferentes categorías de informes. La Comisión observa que no pueden recoger una cantidad precisa de lo que se ha gastado en publicidad en las redes sociales porque los datos se limitan a los pagos realizados directamente por la entidad informante a los proveedores de las redes sociales identificables, como Facebook o YouTube. Esto no tiene en cuenta la realidad de que una cantidad significativa de los gastos digitales ocurre a través de consultorías o agencias de publicidad intermediarias14 Por ejemplo, el Partido Laborista reportó gastos en publicidad digital de £16.000 en las elecciones parlamentarias del 2015 en el Reino Unido, cuando cálculos posteriores mostraron que el total estaba más cerca de £130.000 a través de agencias de publicidad intermediarias. Prácticas como esta llevaron a la Comisión Electoral a concluir que se necesitaban requisitos de gastos más detallados.15

Al definir qué información se incluye en los requisitos de divulgación, los reguladores tendrán que considerar:

  • ¿Qué constituye un gasto? Por ejemplo:
    • ¿Solo el costo de colocar un anuncio? 
    • ¿El pago a empresas de publicidad digital o relaciones públicas para diseñar e implementar campañas publicitarias? 
    • ¿El costo de producir un anuncio? 
    • ¿El costo de obtener el perfil de las audiencias objetivo? 
    • ¿El costo de desarrollar e implementar chatbots (u otros bots) para interactuar con los usuarios en las plataformas de redes sociales? 
    • ¿El pago directo o mediante terceros a las granjas de contenido (o trolls) para difundir contenido o mensajes de redes sociales designados en grandes cantidades? 
    • ¿El costo de obtener el respaldo de influencers?

1.6 ¿Existe un plazo durante el cual se deben divulgar los gastos?

Para los países que han definido los períodos de campaña descritos en la ley o la regulación, se abre un vacío si los reguladores requieren una divulgación detallada de los gastos publicitarios en las redes sociales solo durante el período de la campaña. Aunque tal gasto se puede recoger en los informes financieros regulares de las partes, es posible que las cifras solo se capturen anualmente y, según los requisitos de los informes, pueden contener menos detalles de los que se pueden requerir durante los períodos de campaña. Además, si un gasto se define como un acuerdo para realizar un pago o un pago en sí mismo, puede afectar la presentación de los informes. Si se define de manera imprecisa, un concursante político podría, por ejemplo, retrasar el pago a un intermediario de redes sociales hasta después del día de las elecciones para evitar los requisitos de información.

 

Al definir un plazo para la divulgación, los reguladores deberán considerar:

  • ¿Cómo están ya delineados los requisitos de divulgación en la ley para los medios tradicionales o el financiamiento político? 
  • ¿La línea de tiempo está diseñada de una manera que se alinea con el momento en que es probable que se produzcan gastos en medios digitales o sociales en el ciclo electoral? Por ejemplo, el costo de perfilar las audiencias objetivo o pagar por el respaldo de un influencer podría ocurrir mucho antes del evento electoral, o el pago podría ocurrir después del día de las elecciones como una forma de evitar los requisitos de divulgación que cubren solo el período inmediato de la campaña.

Los límites de los gastos para el financiamiento de las campañas solo se aplican durante el período de la campaña, pero también hay gastos de campaña fuera del período oficial de la campaña. Tenemos que redefinir la cobertura del financiamiento de las campañas para que sea más integral. — Representante de la sociedad civil de Indonesia

1.7 ¿Por qué son problemáticas las definiciones de noticias falsas y desinformación?

Las intervenciones legales y reglamentarias que intentan prohibir o sancionar las "noticias falsas" o la desinformación se han generalizado en los últimos años. Sin embargo, la dificultad para definir estos términos es una de las razones por las que tales medidas son frecuentemente criticadas por quienes temen sus implicaciones para los derechos fundamentales. Como se discutió en la introducción a esta guía, las definiciones precisas de desinformación son esquivas, y lo que comúnmente se conoce como desinformación abarca una amplia gama de comportamientos engañosos y problemáticos.

Si el éxito de una intervención legal o reglamentaria se basa en una definición precisa, completa y universalmente aplicable de "noticias falsas", "información falsa", "información errónea", "desinformación" o un término similar, es probable que la intervención dará como resultado un daño colateral a la libertad de expresión o será demasiado vago para ser ejecutable de manera confiable. También tiene un alto riesgo de ser aplicada de manera selectiva, por ejemplo, contra oponentes políticos o para restringir la libertad de prensa. 

Algunas jurisdicciones han optado por derivar el problema de determinar qué contenido constituye "noticias falsas" a la revisión judicial. La ley francesa, por ejemplo, estipula que si un artículo es una "noticia falsa" y, por lo tanto, está sujeto a su eliminación o moderación, depende de la determinación de un juez. El fallo se hará de acuerdo con tres criterios: las noticias falsas deben ser manifiestas, difundidas deliberadamente a gran escala y provocar una alteración del orden público o comprometer el resultado de una elección.16 La aplicación proporcional de dicha ley depende de un poder judicial independiente aislado de la presión política, jueces bien formados y capaces de comprender el ecosistema de información digital y un poder judicial con recursos suficientes y capaz de acelerar la revisión de tales reclamos, incluidas las apelaciones.

Los legisladores y los reguladores deben considerar la variedad de enfoques descritos en este texto antes de recurrir al instrumento contundente de la prohibición o la criminalización de las noticias falsas o la desinformación. En los casos en que el contenido y el discurso que circulan en las redes sociales contravienen las leyes penales existentes, se recomienda la derivación del contenido infractor para su investigación y el enjuiciamiento pertinente según las disposiciones existentes –como las que cubren la difamación, el discurso de odio, el fraude o el robo de identidad– para la adopción de sanciones penales adicionales por la difusión de noticias falsas o desinformación.

 

Respuestas legales y reglamentarias a la desinformación

Las medidas para restringir el contenido o los comportamientos relacionados con el uso de las redes sociales u otras tecnologías digitales se esfuerzan por actualizar las regulaciones de la campaña con el entorno de información actual. En ausencia de normas de conducta, las redes sociales y las tecnologías digitales pueden usarse en campañas de manera descaradamente engañosa y destructiva con impunidad. Si bien no están explícitamente prohibidos, algunos usos de las redes sociales y otras tecnologías digitales pueden contradecir los principios que rigen las campañas consagrados en otras partes de la ley electoral.

i. Restricción de contenido o comportamientos: medidas dirigidas a actores domésticos
a. Prohibición de campañas en las redes sociales fuera de un período de campaña designado

Muchos países delimitan el marco temporal del período de campaña. Esto puede consistir, por ejemplo, en una estipulación de que las actividades de la campaña solo pueden comenzar uno o varios meses antes del día de las elecciones. El período de veda electoral de uno o varios días directamente antes del día de las elecciones durante el cual se prohíben ciertas actividades de campaña también tiene un amplio precedente mundial. Estas disposiciones pueden aplicarse de manera muy estricta a los candidatos y partidos políticos que se disputan las elecciones o, de manera más general, a las declaraciones políticas o anuncios publicados por activistas que no participan en la campaña, es decir, terceros involucrados en campañas que no son candidatos ni partidos políticos en sí mismos. Algunos países han ampliado estas disposiciones para considerar la actividad política y la publicidad en las redes sociales, pero muchos guardan silencio sobre el tema de las redes sociales o están explícitamente exentos de las regulaciones de campaña. 

Es más probable que las restricciones temporales sobre las campañas a través de las redes sociales tengan un impacto en la propagación de la desinformación cuando son parte de una combinación de medidas destinadas a crear reglas y normas para el uso de las redes sociales en las campañas. Si bien las tácticas de desinformación continuarán evolucionando, las características de las operaciones actuales de influencia en línea incluyen el cultivo de audiencias en línea, la infiltración de redes de afinidad en línea existentes y la creación y el crecimiento de redes de cuentas coordinadas; procesos que requieren tiempo y, con frecuencia, la inversión de recursos financieros. Las medidas para restringir temporalmente la duración de un período de campaña combinadas con estipulaciones detalladas sobre qué actividades constituyen un gasto de campaña, por ejemplo, podrían inhibir a los actores domésticos que buscan construir una presencia engañosa que planean activar en las redes sociales a lo largo de meses o años durante el período de la campaña.

Extender las leyes existentes que establecen restricciones de tiempo en los períodos de campaña para cubrir también las redes sociales puede ser relativamente sencillo. Las leyes electorales de Argentina, por ejemplo, indican que la publicidad en televisión y radio está limitada a 35 días antes de la fecha fijada para las elecciones y que la campaña a través de Internet o de tecnologías móviles solo está permitida durante el período de campaña (que comienza 50 días antes del día de las elecciones y finaliza con el inicio del período de veda electoral 48 horas antes de las elecciones).17 La resolución de las consideraciones definitorias descritas en la sección anterior (que constituye los medios digitales, las campañas en la Internet y la publicidad política) es necesaria para hacer que la aplicación de las restricciones sobre las campañas fuera del período designado sea predecible y proporcional. 

A diferencia de algunos de los enfoques legales y regulatorios más nuevos o más hipotéticos explorados en otra parte de esta sección de la guía, la interpretación de las prohibiciones sobre el uso de las redes sociales durante los períodos de campaña tiene un precedente judicial significativo. Algunos casos destacados incluyen:18

  • En 2015, la Sala Superior del Tribunal Electoral del Poder Judicial de la Federación de México falló en contra de un partido político luego de que varias personas de alto perfil tuitearan en apoyo del partido durante el período de veda electoral. El Tribunal determinó que la coordinación detrás de estas acciones, incluida la identificación de intermediarios pagados, constituía parte de la estrategia de propaganda del partido.
  • Una decisión en 2010 del Tribunal Superior Electoral de Brasil aborda una instancia en la que un candidato a la vicepresidencia tuiteó en apoyo de su compañero de fórmula presidencial antes del inicio del período de campaña. El tribunal multó al candidato, alegando que el tuit constituía propaganda electoral ilegal. 
  • En dos casos de 2012 y 2016, la Sala Superior del Tribunal Electoral del Poder Judicial de la Federación de México dictaminó que las publicaciones de candidatos o precandidatos en cuentas de redes sociales personales fuera del período de campaña estaban permitidas si el contenido no solicitaba de manera abierta el apoyo electoral y era en beneficio de la libre expresión en cuestiones de interés nacional.
  • La Corte Suprema de Eslovenia determinó en 2016 que estaba permitido publicar opiniones personales durante el período de veda electoral, incluso a través de las redes sociales. La determinación se tomó después de que un ciudadano particular fuera multado por publicar una entrevista con un candidato en Facebook durante la veda. 

Para los reguladores que estén considerando estas medidas, se debe tener en cuenta que las restricciones a las actividades de los actores políticos legítimos pueden proporcionar una ventaja a los actores malignos que no están sujetos a la legislación nacional. Antes de las elecciones presidenciales francesas de 2017, por ejemplo, se publicaron en línea hallazgos de datos pirateados de la campaña de Emmanuel Macron momentos antes del período de veda designado de 24 horas antes del día de las elecciones, durante el cual los medios de comunicación y las campañas no pueden debatir sobre las elecciones, lo cual impidió que la campaña respondiera públicamente al ataque.

b. Restricción de los comportamientos en línea que constituyen un abuso de los recursos estatales

La extensión de las disposiciones sobre Abuso de recursos del estado (ASR, por sus siglas en inglés) a las redes sociales es una forma en la que la regulación (junto con la aplicación) puede disuadir a los titulares de utilizar los recursos del estado para difundir desinformación con el objetivo de obtener ventajas políticas. A medida que los actores nacionales adoptan cada vez más tácticas iniciadas por actores estatales extranjeros para fabricar y amplificar artificialmente el contenido de las redes sociales de formas engañosas para impulsar sus perspectivas políticas nacionales, podrían aplicarse las tácticas para disuadir la corrupción interna. 

El marco de evaluación sobre el Abuso de recursos del estado de la IFES reconoce las restricciones a las comunicaciones oficiales del gobierno al público y las restricciones al personal estatal como dos elementos de un marco legal integral del ASR para las elecciones. Estas son dos áreas claras en las que la extensión de las disposiciones del ASR para las redes sociales son valiosas. Por ejemplo, las restricciones a los mensajes que un candidato en ejercicio podría difundir a través de los medios públicos pueden extenderse lógicamente a restricciones sobre el uso de las cuentas oficiales de las redes sociales del gobierno para realizar campañas. Además, es posible que las restricciones al personal estatal (por ejemplo, prohibir la participación en campañas mientras esté de servicio o un mandato general para mantener la imparcialidad) deban actualizarse explícitamente para abordar el uso de cuentas de redes sociales personales.

Con respecto al ASR, las posibles preguntas a investigar podrían incluir: ¿Cómo se están utilizando las cuentas oficiales de redes sociales de las agencias gubernamentales durante el período de campaña? ¿Están las cuentas de las agencias gubernamentales involucradas en la coordinación con las cuentas de las redes sociales partidistas para promover ciertas narrativas? ¿Cómo se utilizan las cuentas de los empleados estatales para promover contenido político? 

Para los titulares que buscan utilizar los recursos estatales para asegurar una ventaja electoral, las cuentas personales de las redes sociales del personal estatal y el alcance de las redes sociales de las agencias estatales oficiales son bienes inmuebles atractivos en la movilización de narrativas políticas. En Serbia, por ejemplo, el análisis realizado por la Balkan Investigative Reporting Network alega que el partido gobernante mantenía un sistema de software que registraba las acciones de cientos de cuentas de redes sociales de personas (muchas de esas cuentas pertenecientes a empleados estatales que publican contenido durante el horario comercial habitual), ya que impulsaban la propaganda del partido y menospreciaban a los oponentes políticos antes de las elecciones de 2020. De ser ciertas, estas acusaciones equivaldrían a que un partido gobernante convierta a los empleados del estado en un ejército de trolls contra los oponentes políticos. 

Antes de las elecciones de 2020, la Agencia Anticorrupción de Serbia emitió una declaración en la que afirmaba que "los sujetos políticos y los titulares de funciones públicas deben utilizar de forma responsable las redes sociales e Internet para la campaña preelectoral, puesto que la promoción política en las páginas de Internet propiedad de los organismos gubernamentales representa un abuso de los recursos públicos".19 La agencia señaló que el aumento en las campañas en las redes sociales como resultado de las restricciones de distanciamiento social por COVID-19 atrajo una atención especial a este tema.

"Lo más difícil es conectar a los malos actores con el gobierno... No es un problema de base; es un problema de política de élite". — Representante de la sociedad civil del sudeste asiático

Otras acciones que se han tomado en la intersección del ASR y las redes sociales a nivel mundial incluyen un fallo de la Cámara Regional de Monterrey del Tribunal Federal Electoral de México en 2015, que determinó que, al usar un vehículo del gobierno para viajar a los colegios electorales con candidatos políticos y publicar sobre esta actividad a través de una cuenta de Twitter promocionada en una página web oficial del gobierno, un gobernador en funciones infringió la ley. Como resultado, el tribunal anuló las elecciones, aunque una solución tan extrema no está en sintonía con las buenas prácticas internacionales sobre cuándo se puede o se debe anular las elecciones.  

c. Establecimiento de límites en el uso de datos personales por parte de las campañas

Las restricciones al uso de los datos personales por parte de los actores políticos nacionales son una vía que algunos países están explorando para bloquear la difusión y amplificación de la desinformación. La microfocalización, el uso de los datos del usuario para orientar con precisión anuncios y mensajes a públicos muy específicos, ha recibido una atención considerable. La microfocalización puede permitir a las entidades políticas legítimas, así como a los actores nacionales y extranjeros malignos, adaptar la publicidad de manera estricta para llegar a audiencias muy específicas de manera que permita la difusión no transparente de contenido engañoso o problemático. Al limitar la capacidad de las campañas para usar datos personales, los reguladores también pueden limitar su capacidad para orientar anuncios de manera controvertida a audiencias muy limitadas.

En el Reino Unido, la oficina del Comisionado de Información (ICO) inició una investigación en 2017 para analizar el uso de datos personales con fines políticos en respuesta a las acusaciones de que los datos personales de las personas se estaban utilizando para microfocalizar anuncios políticos durante el referéndum de la Unión Europea. La ICO multó a la campaña Leave.EU y las entidades asociadas por prácticas indebidas de protección de datos e investigó la campaña Remain conforme a criterios similares.

Si bien el uso de datos se incluye en esta sección sobre la restricción de contenido o comportamientos, el tema también tiene implicaciones de transparencia y equidad. En su análisis de la regulación de la microfocalización política en la Internet en Europa, el académico Tom Dobber y sus colegas señalan que se ha propuesto una nueva Ley de partidos políticos en los Países Bajos que "incluye nuevas obligaciones de transparencia para los partidos políticos con respecto a las campañas políticas digitales y la microfocalización política".20 Dobber continúa comentando que "los costos de la microfocalización y el poder de los intermediarios digitales están entre los principales riesgos de los partidos políticos. Los costos de la microfocalización pueden dar una ventaja injusta a los partidos más grandes y mejor financiados sobre los partidos más pequeños. Esta ventaja injusta empeora la desigualdad entre partidos políticos ricos y pobres y restringe el libre flujo de ideas políticas".21

Las limitaciones en el uso de datos personales para campañas políticas generalmente se incluyen en debates políticos más amplios sobre la privacidad de los datos y los derechos de las personas en relación con sus datos personales. En Europa, por ejemplo, el Reglamento General de Protección de Datos (GDPR) de la Unión Europea impone restricciones a la capacidad de los partidos políticos para comprar datos personales, y los documentos del registro de votantes no son accesibles en la mayoría de los países.22 El tema de la privacidad de los datos se explora con más detalle en la sección temática sobre normas y estándares.

d. Restricción de publicidad política a las entidades que están registradas para las elecciones

Algunas jurisdicciones limitan el tipo de entidades que pueden publicar anuncios políticos. La ley electoral albanesa, por ejemplo, estipula que "sólo los sujetos electorales inscritos para las elecciones tienen derecho a emitir anuncios políticos durante el período electoral en medios privados de radio, televisión o audiovisuales, ya sean digitales, por cable, analógicos, satelitales o por cualquier otra forma o método de transmisión de señales".23 En el caso Bowman contra el Reino Unido, el Tribunal Europeo de Derechos Humanos dictaminó que es aceptable que los países impongan limitaciones financieras a las campañas de personas que no son candidatos que estén en la Internet con límites impuestos a los candidatos, aunque también dictaminó que los límites de gasto indebidamente bajos para quienes no son candidatos crean barreras a su capacidad para compartir libremente opiniones políticas, lo cual infringe el artículo 10 de la Convención.24

Si bien los candidatos y los partidos pueden participar en diversos grados en la difusión de falsedades y propaganda a través de sus campañas oficiales, los esfuerzos destinados a tener un impacto en el entorno de la información a escala utilizarán cuentas no oficiales o redes de cuentas para lograr sus objetivos. Además, estas cuentas se configuran, controlan o disfrazan fácilmente para que parezca que provienen de ubicaciones fuera del territorio, lo que hace que la aplicación nacional sea ineficaz.

En la práctica, las medidas para restringir los anuncios publicados por alguien que no es candidato solo serían aplicables con el cumplimiento de las empresas de redes sociales, ya sea a través de restricciones generales o la precertificación de los anuncios políticos respaldados por las plataformas. Fuera de un gran mercado como India o Indonesia, que han alcanzado cierto grado de cumplimiento de las plataformas para imponer tales restricciones, esto parece poco probable. La otra ruta con el potencial para hacer que esta medida sea aplicable sería que las plataformas cumplieran con las solicitudes de datos de usuarios del gobierno de los organismos nacionales de supervisión que buscarían sancionar tales infracciones. Esto presenta una serie de preocupaciones por la aplicación selectiva y la posible violación de la privacidad del usuario, particularmente en entornos autoritarios donde los datos podrían usarse indebidamente para llegar a oponentes u otros disidentes.

e. Prohibición de la distribución o creación de ultrafalsos con fines políticos

Otro enfoque legislativo es prohibir el uso de ultrafalsos con fines políticos. Varios estados de los Estados Unidos han aprobado o propuesto leyes para ello, incluidos Texas, California y Massachusetts. Según las actualizaciones de la ley federal de Estados Unidos de 2020, es obligatoria, entre otras cosas, la notificación a la legislatura de los Estados Unidos por parte del poder ejecutivo en los casos en que las actividades de desinformación de ultrafalsos en el extranjero tengan como objetivo las elecciones en los Estados Unidos. Las definiciones de ultrafalsos en estas leyes se centran en la intención de engañar a través de una manipulación altamente realista de audio o video utilizando inteligencia artificial.

Puede suceder que los estatutos existentes relacionados con la identificación del fraude, la difamación o la protección del consumidor cubran el uso engañoso de videos e imágenes manipulados con fines políticos. Según un estudio, el 96 por ciento de los ultrafalsos implica el uso no consensuado de imágenes de celebridades femeninas en la pornografía, lo que sugiere que las disposiciones existentes relacionadas con el fraude de identidad o el uso no consensuado de imágenes íntimas también pueden ser aplicables. Los ultrafalsos se utilizan a menudo para desacreditar a las candidatas y a las funcionarias públicas, por lo que sancionar la creación o distribución de ultrafalsos o utilizar las disposiciones legales existentes para enjuiciar a los autores de tales actos podría tener un impacto en la desinformación dirigida a mujeres que se desempeñan en una función pública.

f. Penalización de la difusión de noticias falsas o la desinformación

Un enfoque común de la regulación es la introducción de disposiciones legales que penalizan a los difusores o creadores de desinformación o de noticias falsas. Esta es una tendencia preocupante, ya que tiene importantes implicaciones para la libertad de expresión y la libertad de prensa. Como se analizó en la sección de definiciones ¿por qué son problemáticas las definiciones de noticias falsas y desinformación?, la dificultad extrema de llegar a definiciones claras de conductas prohibidas puede dar lugar a restricciones injustificadas y daños directos a los derechos humanos. Aunque algunos países adoptan tales medidas en reconocimiento y en un intento por mitigar el impacto de la desinformación en los procesos políticos y electorales, tales disposiciones también son adoptadas de manera oportunista por los regímenes para sofocar la oposición política y controlar a la prensa. Incluso en países donde las medidas pueden tomarse de buena fe para proteger los espacios democráticos, la posibilidad de abuso y aplicación selectiva es significativa. Los gobiernos también han aprobado una serie de leyes restrictivas y de emergencia para frenar la información falsa y la desinformación relacionada con la COVID-19, con implicaciones igualmente escalofriantes para las libertades fundamentales. El Instituto Poynter mantiene una base de datos de leyes contra la información falsa con un análisis de sus implicaciones. 

Antes de adoptar sanciones penales adicionales por la difusión de desinformación, los legisladores y reguladores deben considerar si las disposiciones existentes en el derecho penal, como las que cubren la difamación, el discurso de odio, el robo de identidad, la protección del consumidor o el abuso de los recursos estatales son suficientes para abordar los daños que las nuevas disposiciones penales intentan abordar. Si el marco de derecho penal existente se considera insuficiente, las revisiones del derecho penal deben emprenderse con cautela y consciencia respecto de la posibilidad de dañar democráticamente los resultados posteriores.

"Si queremos luchar contra los bulos, no es a través del derecho penal, que es demasiado rígido". — Representante de la sociedad civil de Indonesia

Cabe señalar que se han hecho algunos intentos de legislar contra la violencia de género en línea, que en ocasiones entra en la categoría de desinformación. Las académicas Kim Barker y Olga Jurasz analizan esta cuestión en su libro, Online Misogyny as Hate Crime: A Challenge for Legal Regulation?, donde concluyen que los marcos legales existentes no han tenido éxito a la hora de acabar con los abusos en línea porque se centran más en el castigo tras la comisión de un delito que en la prevención.

ii. Restricción de contenido o comportamientos: medidas dirigidas a redes sociales y plataformas tecnológicas

La legislación nacional dirigida a las redes sociales y las plataformas tecnológicas a menudo se adopta en un intento por aumentar la supervisión nacional sobre estos poderosos actores internacionales que tienen poca obligación legal de minimizar los daños derivados de sus productos. Las restricciones sobre el contenido y los comportamientos que obligan al cumplimiento por parte de las plataformas pueden hacer que las empresas sean responsables de todo el contenido en sus plataformas o, de manera más estricta, apuntar solo a la publicidad paga en sus plataformas. En este debate, las plataformas argumentarán, con cierto mérito, que es casi imposible para ellas filtrar miles de millones de publicaciones diarias de usuarios individuales. Por el contrario, puede ser más razonable esperar que las plataformas de redes sociales escudriñen contenido publicitario pagado.

Como se discutió en la sección sobre actores domésticos, ciertos países prohíben la publicidad política pagada fuera del período de campaña, algunos restringen la publicidad política pagada por completo, y otros limitan la capacidad de publicar anuncios políticos solo a entidades que están registradas para las elecciones. En algunos casos, los países les han pedido a las empresas de redes sociales que hagan cumplir estas restricciones haciéndolas responsables de los anuncios políticos en sus plataformas. 

Asignar la responsabilidad a las plataformas para hacer cumplir las restricciones publicitarias nacionales también tiene el potencial de crear una barrera para los anuncios políticos o de emisión publicados por actores aparentemente no políticos o por cuentas no oficiales afiliadas a actores políticos. Sin embargo, si los reguladores nacionales adoptan este enfoque, las dificultades para cumplir con docenas, si no cientos de requisitos regulatorios nacionales dispares seguramente serán un punto de debate con las empresas. Como cualquier otra medida que pone límites a la expresión política permisible, también conlleva el potencial de abuso.


El debate global en torno a las regulaciones de las plataformas que alterarían fundamentalmente las prácticas comerciales de las empresas de redes sociales y de tecnología (regímenes antimonopolio o de datos de los usuarios, por ejemplo) están fuera del alcance de este capítulo. En cambio, se trata de intentos a nivel nacional de imponer obligaciones ejecutables a las plataformas que modifiquen la forma en que se comportan en una jurisdicción nacional específica. 

A menudo, la aplicabilidad de las normativas específicas de cada país colocadas en las plataformas diferirá en función del riesgo político o de reputación que se perciba asociado a la inacción en un país, que puede estar relacionado con el tamaño del mercado, la importancia geopolítica, el potencial de violencia electoral o la visibilidad internacional. Dicho esto, algunas medidas son más fáciles de cumplir en el sentido de que no requieren que las plataformas reconfiguren sus productos de manera que tengan ramificaciones globales y, por lo tanto, son más fáciles de someter a la elaboración de normas nacionales. 

La capacidad de un país para obligar a actuar a las plataformas también puede estar asociada a si las plataformas tienen una oficina o presencia legal en ese país. Esta realidad ha dado lugar a leyes nacionales que obligan a las plataformas a establecer una presencia local para responder a las órdenes judiciales y a los procedimientos administrativos. Alemania ha incluido una disposición en este sentido en su Tratado Interestatal de Medios de Comunicación. Los requisitos para designar representantes locales que permitan demandar a las plataformas ante los tribunales se vuelven muy polémicos en países que carecen de protecciones legales adecuadas para la expresión de los usuarios y en los que el temor a la censura está bien fundado. El 1 de octubre de 2020 entró en vigor una controvertida ley turca que obliga a las empresas a nombrar un representante local que responda a las órdenes de las autoridades locales para bloquear contenidos considerados ofensivos. Las empresas de redes sociales con sede en Estados Unidos han optado por no cumplir la ley a instancias de los grupos de derechos humanos, y se enfrentan a multas crecientes y a posibles restricciones de ancho de banda que estrangularían el acceso a las plataformas en Turquía en caso de que se siga incumpliendo. Este contraste ilustra los desafíos que las plataformas de redes sociales deben sortear para cumplir con la legislación nacional. Las medidas que constituyen una supervisión razonable en un país con una sólida protección de los derechos civiles y políticos pueden servir como mecanismo de censura en otro.

Al mismo tiempo, la acción conjunta basada en las normas internacionales de derechos humanos podría ser una forma de que los países con menos influencia individual sobre las plataformas eleven sus legítimas preocupaciones. El Marco Político de noviembre de 2020 del Foro sobre Información y Democracia articula el reto de armonizar los requisitos de transparencia y, al mismo tiempo, evitar el abuso de las normativas nacionales por motivos políticos. Si bien la acción conjunta a nivel de la Unión Europea está ocurriendo, el informe señala la posibilidad de la Organización de Estados Americanos, la Unión Africana, la Cooperación Económica Asia-Pacífico o la Asociación de Naciones del Sudeste Asiático, o los bancos regionales de desarrollo como posibles foros organizadores de la acción conjunta en otras regiones.


 

a. Responsabilizar a las plataformas de todo el contenido y exigir la eliminación del contenido     

El debate sobre qué contenido debería permitirse en las plataformas de redes sociales tiene un alcance global. El análisis de este tema es prolífico y es poco probable que surja un consenso global dadas las definiciones legítimas y diferentes de los límites que pueden y deben imponerse sobre el habla y la expresión. El componente central de muchas de estas medidas que introducen responsabilidad por todo el contenido es el discurso de odio. Si bien el discurso de odio no se limita a períodos políticos o electorales, ejercer presión sobre las fallas sociales a través de la amplificación en línea del discurso de odio es una táctica común utilizada en la propaganda política y por los agentes de desinformación durante los períodos electorales.

Algunas jurisdicciones nacionales han intentado introducir diversos grados de responsabilidad de la plataforma para todo el contenido alojado en ellas, independientemente de que se trate de contenido orgánico o pagado. 

Según la legislación alemana de aplicación de la ley en redes sociales (NetzDG), las empresas de redes sociales deben eliminar el contenido "evidentemente ilegal" dentro de las 24 horas posteriores a la notificación. Otro contenido ilegal debe revisarse dentro del plazo de siete días después de su denuncia y eliminarse si se determina que infringe la ley. El incumplimiento conlleva una multa de hasta 5 millones de euros, aunque la ley exime a los proveedores que tienen menos de 2 millones de usuarios registrados en Alemania. En realidad, la ley no crea nuevas categorías de contenido ilegal; su propósito es exigir que las plataformas de redes sociales exijan el cumplimiento de 22 estatutos sobre contenido en línea que ya existen en el código alemán. Están dirigidos a contenido que ya es ilegal, como "incitación pública al delito", "violación de la privacidad íntima mediante la toma de fotografías", difamación, "falsificación y traición", formación de organizaciones criminales o terroristas y "difusión de representaciones de violencia". También incluye la conocida prohibición alemana de glorificar el nazismo y negar el Holocausto. El proceso de eliminación no requiere una orden judicial ni proporciona un mecanismo de apelación claro, sino que confía en las plataformas en línea para tomar estas determinaciones.25

La ley ha sido criticada por ser demasiado amplia y vaga en su diferenciación de "contenido ilícito" y "contenido manifiestamente ilícito". Algunos críticos también se oponen a la NetzDG como una ley de "aplicación privatizada" porque las plataformas en línea evalúan la legalidad del contenido, en lugar de hacerlo los tribunales u otras instituciones democráticamente legítimas. También se le atribuye haber inspirado una serie de leyes de imitación en países donde el potencial para censurar la expresión legítima es alto. A fines de 2019, Foreign Policy  identificó 13 países que habían introducido leyes similares; la mayoría de estos países fueron clasificados como "no libres" o "parcialmente libres" en la evaluación de Freedom of the Internet (Libertad de la internet) de Freedom House de 2019.26

Francia, que tiene normas preexistentes que restringen la incitación al odio, también introdujo medidas similares a las de Alemania para regular el contenido en línea. Sin embargo, el tribunal constitucional francés revocó estas medidas en 2020, que de manera similar a la ley alemana, habrían requerido que las plataformas revisaran y eliminaran el contenido de odio identificado por los usuarios dentro de un plazo de 24 horas o enfrentar multas. El tribunal dictaminó que las disposiciones de la ley llevarían a las plataformas a adoptar una actitud demasiado conservadora hacia la eliminación de contenido para evitar multas, restringiendo así la expresión legítima.

El Reino Unido es otro ejemplo citado con frecuencia que ilustra varios enfoques para regular el contenido nocivo en línea, incluida la desinformación. En el Online Harms White Paper (Libro Blanco de daños en línea) de 2019, donde se describe el plan del gobierno del Reino Unido para la seguridad en línea, se propuso imponer un deber legal de cuidado a las empresas de internet para la protección de sus usuarios, con la supervisión de un regulador independiente. En un período de consulta pública del Libro Blanco de daños en línea se informó sobre la legislación propuesta en 2020 que se centra en responsabilizar a las empresas por los sistemas que tienen para proteger a los usuarios de contenido nocivo. En lugar de requerir que las empresas eliminen partes específicas de contenido, el nuevo marco requeriría que las plataformas proporcionen políticas claras sobre el contenido y el comportamiento que sean aceptables en sus sitios y hagan cumplir estos estándares de manera constante y transparente. 

Estos enfoques contrastan con el marco búlgaro, por ejemplo, que exime a las plataformas de redes sociales de la responsabilidad editorial.27 La sección 230 de la Ley de decencia en las comunicaciones de los Estados Unidos también exime expresamente a las plataformas de redes sociales de la responsabilidad indirecta.

Se han propuesto o promulgado otras leyes en países de todo el mundo que introducen algún grado de responsabilidad para que las plataformas moderen el contenido nocivo en ellas. En términos generales, esta categoría de respuesta regulatoria es objeto de un intenso debate sobre el potencial de censura y abuso. Los modelos de Alemania, Francia y el Reino Unido han citado con frecuencia ejemplos de intentos de democracias consolidadas de imponer de manera más activa un deber a las plataformas por el contenido que albergan, al tiempo que incorporan controles suficientes para proteger la libertad de expresión, aunque las medidas en los tres países también son criticadas por las formas en que han intentado lograr este equilibrio. Estos diferentes enfoques también ilustran cómo la proliferación de leyes nacionales que introducen la responsabilidad de las plataformas está cerca de imponer una multitud de obligaciones potencialmente contradictorias a las empresas de redes sociales. 

b. Prohibir que las plataformas alojen publicidad política pagada

Algunas jurisdicciones prohíben totalmente la publicidad pagada de las campañas en los medios de comunicación tradicionales, y esa prohibición se extiende o puede extenderse a la publicidad pagada en las redes sociales.28 "Durante décadas, la publicidad política pagada en televisión ha estado completamente prohibida durante las elecciones en muchas democracias europeas. Estas prohibiciones de publicidad política tienen como objetivo evitar la distorsión del proceso democrático por parte de intereses financieramente poderosos y garantizar la igualdad de condiciones durante las elecciones".29 

El Código Electoral francés estipula que durante los 6 meses anteriores al mes de las elecciones está prohibida la publicidad comercial con fines de propaganda electoral a través de la prensa o de "cualquier medio de comunicación audiovisual".30 Una estipulación como esta depende de definiciones claras de campaña en línea y publicidad política; las enmiendas al Código Electoral francés en 2018, por ejemplo, intentan inhibir una amplia gama de anuncios políticos y de asuntos públicos al estipular que la ley se aplica al "contenido informativo relacionado con un debate de interés general",31 en lugar de limitar la disposición a los anuncios que hacen referencia directa a candidatos, partidos o elecciones. En el caso francés, estas disposiciones, junto con una serie de requisitos de transparencia que se discuten en las secciones siguientes, llevaron a algunas plataformas, como Twitter, a prohibir todos los anuncios de campañas políticas y emitir anuncios de defensa en Francia, una medida que luego se expandió a una política global. Del mismo modo, Microsoft prohibió todos los anuncios en Francia "que incluyan contenido relacionado al debate de interés general asociado a una campaña electoral", que también es ahora una política global. Google prohibió todos los anuncios con "contenido informativo relacionado con un debate de interés general" entre abril y mayo de 2019 en toda su plataforma en Francia, incluido YouTube.32 La ley francesa condujo a Twitter a bloquear inicialmente un intento del servicio de información del gobierno francés de pagar por tuits patrocinados para una campaña de registro de votantes en el período previo a las elecciones parlamentarias europeas, aunque esta posición fue finalmente revertida.

La prohibición francesa de publicar anuncios en las redes sociales fue legitimada por una prohibición paralela de la publicidad política a través de medios impresos o de radiodifusión. Otras jurisdicciones que buscan imponer restricciones a la publicidad en las redes sociales podrían considerar de manera similar adecuar esas normas con los principios que rigen la publicidad en los medios tradicionales o fuera de línea. 

c. Responsabilizar a las plataformas para que apliquen las restricciones sobre los anuncios políticos que se publican fuera de un período de campaña designado 

Algunas jurisdicciones han optado por responsabilizar a las entidades que venden anuncios políticos, incluidas las empresas de redes sociales, para hacer cumplir las restricciones a la publicidad fuera del período de campaña designado, tanto antes de que comience el período de campaña como durante los períodos de veda oficial el día o los días justo antes de las elecciones.

Indonesia tuvo cierto éxito al pedir a las plataformas que hicieran cumplir el período de silencio de tres días antes de sus elecciones de 2019. Según los interlocutores, Bawaslu envió una carta a todas las plataformas advirtiéndoles que aplicarían sanciones penales si permitían publicidad política pagada en sus plataformas durante el período de silencio designado. A pesar de las respuestas de una o más de las plataformas de que la línea entre la publicidad en general y la publicidad política era demasiado incierta para imponer una prohibición estricta, Bawaslu insistió en que las plataformas encontraran una manera de cumplir. Las plataformas, a su vez, informaron haber rechazado una gran cantidad de anuncios durante el período de silencio. Las restricciones de Bawaslu se aplicaban solo a la publicidad pagada, no a las publicaciones orgánicas.

Según el "Código de Ética Voluntario para las Elecciones Generales de 2019 de la India", las empresas de redes sociales se comprometieron a eliminar el contenido prohibido en un plazo de tres horas durante el período de silencio de 48 horas antes de la votación. Los signatarios del Código de Ética desarrollaron un mecanismo de notificación a través del cual la Comisión Electoral podría informar a las plataformas relevantes sobre posibles incumplimientos de la Sección 126 de la Ley de representación del pueblo, que prohíbe a los partidos políticos publicitar o transmitir discursos o mitines durante el período de silencio.

India e Indonesia son mercados muy grandes y la mayoría de las empresas de redes sociales globales tienen presencia física en ambos países. Estos factores contribuyen significativamente con la capacidad de estos países para imponer el cumplimiento de la plataforma. Es poco probable que esta ruta sea igualmente efectiva en países que no tienen una amenaza tan creíble de sanción legal sobre las plataformas o la capacidad de imponer sanciones o restricciones en las plataformas de una manera que afecte su negocio global.  

Para los países que prueban esta ruta, como con las restricciones a las campañas en las redes sociales impuestas a los actores nacionales, las restricciones que dependen de las plataformas para su aplicación también deben reconocer las distinciones definitorias entre contenido pago y no pago y entre campañas políticas y temáticas, por ejemplo, para tener alguna aplicabilidad.  El marco canadiense reconoce la complejidad de hacer cumplir el silencio electoral en la Internet al eximir los contenidos que estaban en vigor antes del período de apagón y que no han sido modificados.33 La decisión de Facebook de instituir unilateralmente un período de silencio publicitario político para el período de tiempo que rodea directamente a las elecciones de 2020 en EE.UU. también limitó la publicidad política a los contenidos que ya estaban en la plataforma. No se podían publicar anuncios con contenido nuevo. Los movimientos para restringir la publicidad pagada pueden beneficiar a los titulares u otros concursantes que hayan tenido tiempo de establecer una audiencia en las redes sociales antes de las elecciones; la publicidad paga es una herramienta fundamental que puede permitir que los nuevos candidatos lleguen a audiencias grandes.  

d. Solo permitir que las plataformas publiquen anuncios políticos precertificados

Durante las elecciones de 2019, la Comisión Electoral de la India exigió que la publicidad en línea pagada que presentaba los nombres de partidos políticos o candidatos fuera revisada y precertificada por ella. Las plataformas, a su vez, solo podían publicar anuncios políticos que habían sido precertificados.34 

Esta medida solo se aplicó a una banda estrecha de anuncios políticos: cualquier anuncio de asuntos políticos o de terceros que no mencionara de forma explícita partidos y candidatos no necesitaría ser precertificado de conformidad con estas normas. En otros países, la implementación de un requisito de precertificación requeriría una capacidad institucional al nivel de las autoridades electorales indias para hacer posible la revisión de todos los anuncios, así como el tamaño del mercado y la presencia física de las oficinas de la empresa en el país para lograr que cumplan. 

El proyecto de leyes electorales de Mongolia requeriría que los partidos políticos y los candidatos registren sus sitios web y cuentas de redes sociales. Estos proyectos de ley también bloquearían el acceso a sitios web que gestionan contenido de actores políticos que no cumplen. La disposición redactada como tal parece penalizar a los sitios web de terceros por infracciones cometidas por un candidato. Las disposiciones exigen, además, que la función de comentarios en los sitios web oficiales de la campaña y las cuentas de redes sociales esté desactivada, y el incumplimiento de esta disposición supone la aplicación de una multa.35 Como la ley aún está en fase de proyecto, la aplicabilidad de estas medidas no ha sido probada en el momento de la publicación.

e. Obligar a las plataformas a prohibir los anuncios publicados por medios vinculados al estado 

En la actualidad, las plataformas de redes sociales tienen diferentes políticas sobre la capacidad de los medios de noticias controlados por el estado para colocar publicidad pagada en sus plataformas. Si bien las plataformas han adoptado en gran medida restricciones sobre la capacidad de los actores extranjeros para colocar publicidad política, algunas plataformas todavía permiten que los medios controlados por el estado paguen para promover su contenido a audiencias extranjeras en general. Twitter ha prohibido a los medios de comunicación controlados por el Estado colocar publicidad pagada de cualquier tipo en su plataforma.36 En los países en los que se aplica la biblioteca de anuncios de Facebook, el proceso de verificación de anunciantes intenta prohibir a los actores extranjeros la colocación de publicidad política. Sin embargo, Facebook no restringe actualmente la capacidad de los medios vinculados al estado de pagar para promover su contenido de noticias a audiencias extranjeras, una herramienta que los actores estatales utilizan para construir audiencias extranjeras.

En el Análisis del Observatorio de Internet de Stanford se muestra cómo los medios estatales chinos utilizan la publicidad en las redes sociales como parte de esfuerzos de propaganda más amplios y de qué manera esos esfuerzos fueron utilizados para desarrollar una audiencia extranjera para los medios de comunicación tradicionales controlados por el estado y las cuentas de las redes sociales. La capacidad de llegar a esta gran audiencia se utilizó luego para moldear falsamente narrativas favorables sobre China durante la pandemia de coronavirus.

Las prohibiciones contra los actores extranjeros vinculados al estado que pagan para promover su contenido entre las audiencias nacionales podrían estar vinculadas a otras medidas que intentan dar transparencia en el cabildeo político. Por ejemplo, algunos expertos en los Estados Unidos proponen la aplicación de la Ley de Registro de Agentes Extranjeros (FARA) para restringir la capacidad de los agentes extranjeros registrados en virtud de la FARA para hacer publicidad dirigida a las audiencias estadounidenses en las redes sociales. Esto, a su vez, requiere un esfuerzo constante y proactivo por parte de las autoridades estadounidenses para exigir que los medios estatales sean identificados y registrados como agentes extranjeros. En lugar de prohibir los anuncios colocados por agentes extranjeros conocidos, otra opción es exigir que las plataformas etiqueten los anuncios para aumentar la transparencia. Varias plataformas han adoptado por su cuenta tales disposiciones, 37aunque la aplicación ha sido irregular.

f. Restringir la forma en que las plataformas pueden dirigir los anuncios o utilizar datos personales

Otra vía que se está explorando en los mercados más grandes es imponer restricciones a las formas en que las plataformas pueden utilizar los datos personales para orientar la publicidad. Las plataformas, hasta cierto punto, están adoptando tales medidas en ausencia de una regulación específica. Google, por ejemplo, permite un rango más limitado de criterios de orientación usados para colocar anuncios electorales en comparación con otros tipos de anuncios. Facebook no limita la orientación de los anuncios políticos, aunque ofrece varias herramientas para proporcionar un grado de transparencia a los usuarios sobre cómo están siendo focalizados. Facebook también permite a los usuarios optar por no recibir ciertos anuncios políticos, aunque estas opciones solo están disponibles en los Estados Unidos desde principios de 2021. Menos entendidas son las herramientas utilizadas por los servicios de transmisión de televisión para dirigir anuncios. Es poco probable que la regulación a nivel nacional de esta naturaleza fuera de los Estados Unidos o la Unión Europea tenga la capacidad de alterar las políticas de las plataformas. Se puede encontrar más información sobre este tema en la sección temática sobre las respuestas de las plataformas a la desinformación.

Respuestas legales y reglamentarias a la desinformación

Las medidas que promueven la transparencia pueden incluir obligaciones para los actores nacionales de divulgar las actividades políticas designadas en las que participan en las redes sociales, así como obligaciones para las plataformas digitales de divulgar información sobre las actividades políticas designadas que tienen lugar en sus plataformas o etiquetar ciertos tipos de contenido que de otro modo podría ser engañoso. Estas medidas forman parte del rechazo regulatorio contra la desinformación, ya que permiten comprender las prácticas potencialmente problemáticas que están utilizando los actores políticos nacionales o extranjeros, y fomentan la comprensión pública de los orígenes del contenido que consumen. La transparencia brinda la oportunidad para que el público tome decisiones más sustentadas acerca de su información política. 

i. Promover la transparencia: medidas dirigidas a actores nacionales
a. Exigir la declaración de publicidad en redes sociales como gasto de campaña

Uno de los enfoques más comunes para promover una mayor transparencia por parte de los actores nacionales es ampliar la definición de "medios" o "publicidad" que está sujeta a los requisitos de divulgación existentes para que incluya la publicidad en línea y en las redes sociales. Las expansiones de esta naturaleza deben tener en cuenta las consideraciones sobre definición que figuran al comienzo de esta sección de la guía. Es posible que se necesiten requisitos de divulgación detallados para delimitar qué tipos de gastos constituyen anuncios en redes sociales, incluidos, por ejemplo, pagos a terceros para publicar contenido favorable o atacar a oponentes. Si bien la expansión de los requisitos de divulgación existentes amplía los principios de transparencia existentes, la elaboración de requisitos de divulgación significativos requiere una consideración cuidadosa de las formas en que las redes sociales y la publicidad en línea difieren de las formas no digitales de publicidad política.

Para ofrecer ejemplos ilustrativos, la sección 349 de la Ley Electoral de Canadá tiene una amplia regulación sobre los gastos de terceros y el uso de fondos extranjeros, que capta la publicidad pagada en línea. También se ha presentado un proyecto de resolución en Colombia con el objetivo de categorizar la publicidad pagada en las redes sociales como gasto de campaña sujeto a límites en cuanto a su monto. La resolución facultaría a las autoridades electorales colombianas para investigar estos gastos dado que, a menudo, los efectúan terceros y no la propia campaña. Además, establecería un registro de plataformas de medios en línea que venden espacios publicitarios políticos y sometería la publicidad política en las redes sociales al mismo marco que las campañas políticas en los espacios públicos. 

b. Exigir el registro de cuentas de redes sociales de partidos y candidatos 

Si bien el monitoreo de las cuentas oficiales de los partidos y candidatos solo brinda una visión limitada de la publicidad política y los mensajes políticos que circulan en las redes sociales, tener un registro de las cuentas oficiales de redes sociales es un primer paso hacia la transparencia. Una manera de lograr esto sería exigir a los candidatos y partidos que declaren las cuentas que administran sus campañas o que están vinculadas financieramente con ellas. Este enfoque puede proporcionar un punto de partida para que los órganos de monitoreo controlen el cumplimiento de las leyes y reglamentos locales que rigen las campañas. Tal requisito podría combinarse con una regulación que estipule que los candidatos y las campañas solo puedan participar en ciertas actividades de campaña a través de cuentas de redes sociales registradas, como pagar para promover anuncios con contenido político o de asuntos públicos. Esta combinación de medidas puede crear una vía para exigir el cumplimiento en los casos en los que se descubra que los partidos o candidatos utilizan cuentas de redes sociales de formas prohibidas para ocultar relaciones financieras con cuentas nominalmente independientes. Para exigir el cumplimiento sería necesario el monitoreo, que se analiza en la subsección Cumplimiento al final de esta sección temática de la guía.

Este enfoque se ha adoptado en Túnez, donde una directiva emitida por la comisión electoral del país exige que los candidatos y los partidos registren sus cuentas oficiales en las redes sociales ante la comisión.38 El proyecto de ley electoral de Mongolia también impondría la obligación de que los sitios web y las cuentas de redes sociales de los candidatos, los partidos y las coaliciones se registraran en la Comisión Reguladora de las Comunicaciones (para las elecciones parlamentarias y presidenciales) y en la comisión electoral respectiva (para las elecciones locales).39 Sin embargo, la ley mongólica en su totalidad no debe tomarse como modelo, ya que plantea problemas relacionados con la libertad de expresión y las limitaciones de aplicación, dada la vaguedad de la definición. 

c. Exigir la divulgación y el etiquetado de bots o cuentas automatizadas

Los "bots" o "bots sociales", que pueden realizar acciones automatizadas en línea que imitan los comportamientos humanos, se han utilizado como parte de las campañas de desinformación en el pasado, aunque se discute el grado en que han influido en los resultados electorales.40 Cuando son desplegados por actores malignos en el espacio de la información, estas líneas de código pueden, por ejemplo, alimentar a personas artificiales de las redes sociales, generar y amplificar el contenido de las redes sociales en grandes cantidades, y ser movilizados para acosar a los usuarios legítimos de las redes sociales. 

A medida que ha aumentado la conciencia pública sobre esta táctica, los legisladores han intentado legislar en esta área para mitigar el problema. Los enfoques legislativos que buscan prohibir el uso de los bots no han logrado ganar terreno. En Corea del Sur, por ejemplo, se propuso una medida para penalizar los bots y el software utilizado para la manipulación en línea, pero finalmente no se promulgó. Un proyecto de ley en Irlanda que tenía como fin penalizar el uso de bots para publicar contenido político a través de múltiples cuentas falsas tampoco se convirtió en ley. 

La opinión está dividida en cuanto a la eficacia de tales medidas y sus implicaciones respecto de la libertad de expresión. Los detractores de ese enfoque opinan que dicha legislación puede inhibir el discurso político y que las medidas demasiado amplias pueden socavar los usos políticos legítimos de los bots, como las campañas de registro de votantes o el uso de chatbots por parte de autoridades electorales para responder a preguntas habituales de los votantes. Los detractores también indican que legislar contra tácticas específicas de desinformación es una batalla perdida, dado que las tácticas evolucionan muy rápidamente. La eliminación de las redes de bots automatizados también está en consonancia con el interés propio de las plataformas de redes sociales en cuanto a su reputación, por lo que es posible que no sea necesaria una legislación contra tales operaciones. 

Crear iniciativas para agregar transparencia y divulgación al uso de bots puede ser un enfoque menos controvertido que penalizar su uso. California aprobó una ley en 2019 que hace que sea ilegal "usar un bot para comunicarse o interactuar en línea con otra persona en California con la intención de engañarla respecto de la artificialidad de su identidad". El Tratado Interestatal de Medios de Alemania (Medienstaatsvertrag o “MStV”) también incluye disposiciones que promueven la transparencia en torno a los bots al obligar a las plataformas a identificar y etiquetar el contenido difundido por los bots.  Las medidas que penalizan o exigen la divulgación del uso de bots presentan complicaciones para su aplicación dada la dificultad de identificar bots de manera confiable.

 

"Para cuando los legisladores aprueben las leyes para neutralizar una característica dañina, los adversarios la habrán dejado atrás". Renee DiResta, Directora de investigación del Observatorio de Internet de Stanford

d. Exigir la divulgación del uso de fondos políticos en el extranjero

Al hacerse más estrictas las regulaciones en sus países de origen, los actores políticos también podrían buscar coordinar con actores extranjeros para publicar anuncios políticos en redes sociales. Incluso podría utilizarse financiación extranjera para publicar anuncios dirigidos a las comunidades de la diáspora que tengan derecho a votar desde fuera del país. Si bien las plataformas con requisitos de identificación y divulgación de anuncios políticos prohibirán en algunos casos la compra de anuncios políticos en moneda extranjera o mediante cuentas administradas desde otro país, estas medidas aún no son suficientes para captar todos los anuncios políticos o de asuntos públicos difundidos extraterritorialmente. 

Los requisitos de divulgación que abordan la financiación extranjera deberían considerar las formas en que los gastos extranjeros en publicidad en las redes sociales pueden diferir de los gastos en medios tradicionales. Nueva Zelanda, por ejemplo, exige la plena divulgación de toda la publicidad adquirida por entidades exteriores, por lo que su incumplimiento constituye una violación de la financiación de la campaña.41 Sin embargo, podría ser difícil demostrar que el partido político o el candidato beneficiario es consciente de que la financiación de la campaña se está gastando en su beneficio extraterritorialmente, lo que podría hacer inútil la aplicación

ii. Promover la transparencia: medidas dirigidas a las plataformas
a. Exigir que las plataformas mantengan repositorios de transparencia publicitaria

Algunos países han impuesto obligaciones legales a las plataformas en línea más grandes para que mantengan repositorios de los anuncios políticos comprados en sus plataformas. Francia y Canadá, por ejemplo, exigen a las grandes plataformas en línea que mantengan una biblioteca de anuncios políticos. El Código de Ética de la India, firmado antes de las elecciones de 2019 por las empresas de redes sociales que tienen actividades en el país, comprometió a los firmantes a "facilitar la transparencia en los anuncios políticos pagados, incluido el uso de sus etiquetas o tecnología de divulgación preexistentes para dichos anuncios". Puede que la medida haya sido decisiva para obligar a estas empresas a ampliar la cobertura de sus prestaciones de transparencia publicitaria a la India.

Facebook introdujo voluntariamente una biblioteca de anuncios de acceso público en un número muy limitado de países en 2018, y desde principios de 2021 ha ampliado la cobertura a 95 países y territorios. Google mantiene divulgaciones de transparencia publicitaria política para Australia, la UE y el Reino Unido, India, Israel, Nueva Zelanda, Taiwán y los Estados Unidos, pero ha tardado más en expandir estas herramientas a otros mercados. A medida que las plataformas contemplan a dónde expandir sus herramientas de transparencia publicitaria, es concebible que la actualización de la legislación nacional para exigir que las plataformas mantengan repositorios de anuncios pueda influir en la forma en que las empresas asignan prioridades a los países para su expansión. Los detalles sobre la funcionalidad de las herramientas de transparencia publicitaria se encuentran en la sección de la guía que cubre las respuestas de la plataforma a la desinformación

Sin embargo, los mandatos legales podrían poner en desventaja a las plataformas en línea más pequeñas, ya que el costo de establecer y mantener repositorios de publicidad puede ser desproporcionadamente más alto para las plataformas de menor tamaño que para las más grandes. El requisito legal podría sofocar involuntariamente la pluralidad y diversidad de plataformas. Una manera de remediar este efecto secundario es crear un umbral de usuario para la obligación. Por ejemplo, los requisitos de transparencia publicitaria de Canadá se aplican solo a plataformas con más de tres millones de usuarios habituales en ese país, 42 aunque incluso este umbral podría ser demasiado bajo para evitar convertirse en un obstáculo para la competencia. Los reguladores nacionales también podrían considerar una norma mediante la cual las plataformas tengan la obligación de proporcionar herramientas de transparencia publicitaria si un cierto porcentaje de la población del país utiliza sus servicios.

Algunos países donde las plataformas no mantienen repositorios de anuncios han experimentado con los suyos propios. Antes de las elecciones de 2019, Sudáfrica probó un nuevo repositorio de anuncios políticos, desarrollado en asociación con las autoridades electorales y mantenido por la sociedad civil. El cumplimiento no era obligatorio y, en consecuencia, fue mínimo entre los partidos políticos, pero la iniciativa demostró ser lo suficientemente prometedora como para que quienes implementaron el repositorio de anuncios estén considerando hacer que el cumplimiento sea obligatorio por ley en elecciones futuras.43 

Las medidas legales que obligan o intentan obligar a las plataformas a mantener repositorios de anuncios también podrían incorporar disposiciones que exijan la marcación clara de los anunciantes para distinguir entre contenido pago y orgánico, así como etiquetas que distingan entre anuncios y contenido editorial y de noticias. También podrían describirse los requisitos de etiquetar el contenido que se origina en fuentes de medios vinculadas al estado. Las medidas también podrían incluir requisitos de verificación de identidad para actores u organizaciones que publiquen anuncios políticos o de asuntos públicos. Sin embargo, estas disposiciones probablemente requerirían hacer modificaciones en la funcionalidad de las herramientas de transparencia publicitaria de la plataforma, un cambio que es más factible con la presión conjunta de varios países.

b. Exigir que las plataformas proporcionen transparencia algorítmica 

Las medidas adicionales que se están analizando en Francia, Alemania y otros lugares se centran en plataformas atractivas para proporcionar una mayor comprensión de los algoritmos que influyen en la forma en que se muestra el contenido (orgánico y pago) a los usuarios individuales o, dicho de otra manera, la transparencia de cara a los usuarios sobre cómo se utilizan sus datos para personalizar los anuncios y el contenido que ven. 

La ley MStV de Alemania, por ejemplo, introduce nuevas definiciones y reglas destinadas a promover la transparencia en una amplia gama de portales y plataformas en línea. "En virtud de las disposiciones de transparencia, los intermediarios deberán proporcionar información sobre el funcionamiento de sus algoritmos, incluyendo: [1] Los criterios que determinan cómo se accede y se encuentra el contenido. [2] Los criterios centrales que determinan cómo se agregan, seleccionan, presentan y ponderan los contenidos".44 La legislación de la UE sobre temas comparables se ha basado en el derecho alemán para su desarrollo, lo que sugiere que esta vía puede influir en las conversaciones a nivel de la UE sobre la transparencia de las plataformas y, posteriormente, incluir las operaciones globales de los proveedores e intermediarios de medios digitales.

El marco de políticas del Foro sobre Información y Democracia de noviembre de 2020 ofrece un análisis detallado sobre cómo los actores estatales podrían regular la transparencia algorítmica.45

Respuestas legales y reglamentarias a la desinformación

Algunas medidas diseñadas para promover la equidad pueden ser la creación e imposición del cumplimiento de límites de gasto para los partidos políticos y los candidatos con el objetivo de crear un campo de juego nivelado para los contendientes con menos recursos económicos. Otros países están experimentando con la obligación de que las plataformas proporcionen tarifas publicitarias equitativas o espacio publicitario gratuito y disponible por igual a los candidatos y partidos.

Promover la equidad como elemento disuasorio de la desinformación es un reconocimiento de los fundamentos económicos de muchas campañas de desinformación coordinadas. Al brindar a los contendientes políticos oportunidades más equitativas de ser escuchados por el electorado, estas medidas intentan disminuir la ventaja de aquellos contendientes con buenos recursos financieros que pueden, entre otras tácticas, dirigir recursos hacia la promoción de la desinformación para sesgar el espacio informativo. Las estrategias que promueven la equidad también pueden beneficiar a las mujeres, las personas con discapacidades y las personas de grupos marginados que, a menudo, tienen menos recursos que sus contrapartes más privilegiadas y muchas veces son blanco de campañas de desinformación. 

i. Promover la equidad: medidas dirigidas a actores nacionales
a. Limitar los gastos de redes sociales de los partidos o candidatos

Un enfoque para nivelar el campo de juego en las redes sociales es limitar cuánto puede gastar cada partido o candidato en las redes sociales, ya sea como límite absoluto o como porcentaje del gasto total de la campaña. 

Rumanía, por ejemplo, limita el gasto en publicidad pagada en redes sociales al 30 por ciento del gasto total permitido.46 En el Reino Unido, el gasto en redes sociales se contabiliza en el límite de gasto aplicable a los candidatos y partidos y debe ser comunicado. Todo material publicado en las redes sociales que sea "material electoral" (es decir, que promueva o se oponga a partidos políticos, candidatos o partidos específicos que apoyen políticas o asuntos públicos o tipos de candidatos particulares y que esté disponible para el público) cuenta para el límite.47

Sin embargo, estas medidas requieren que los respectivos países pongan en práctica mecanismos efectivos de divulgación e investigación de los gastos de campaña, un recurso del que carecen la mayoría de las democracias. 

ii. Promover la equidad: medidas dirigidas a las plataformas
a. Exigir que las plataformas publiquen las tarifas publicitarias y traten a los candidatos electorales por igual

Varios países han actualizado sus marcos legales para extender a las redes sociales el principio de equidad en la fijación de precios de los anuncios políticos. En el contexto de los medios tradicionales, se pueden utilizar medidas legales y regulatorias para garantizar que los candidatos y los partidos tengan acceso a las mismas oportunidades publicitarias al mismo precio. Por ejemplo, medidas que exijan que la televisión, la radio o los medios gráficos publiquen sus tarifas publicitarias con el fin de garantizar que todos los actores tengan el mismo acceso a estos canales de distribución y que los medios no puedan censurar ciertas opiniones políticas mediante el cobro de tarifas diferentes. 

Extender esta lógica a las redes sociales, donde las visualizaciones publicitarias a menudo se determinan en subastas en línea en tiempo real que tienen lugar en un abrir y cerrar de ojos cuando los usuarios se desplazan por sus feeds de redes sociales o actualizan sus navegadores de Internet, presenta un desafío diferente. El costo de publicar un anuncio fluctúa en función de numerosos factores que determinan cuánta demanda existe para llegar a usuarios específicos. Por ejemplo, en 2019 durante las elecciones primarias del partido Demócrata estadounidense, el costo de llegar en Facebook a votantes y donantes con alta probabilidad de ser demócratas aumentó drásticamente cuando los veinte candidatos que competían para la nominación presidencial del partido impulsaron la demanda, con implicaciones para los candidatos a cargos de menor jerarquía que también intentaban llegar a los votantes. El costo de llegar a los votantes para las organizaciones y los candidatos republicanos fue significativamente menor porque no hubo primarias presidenciales republicanas competitivas que impulsaran la demanda.

A pesar de la complejidad de la determinación del precio de la publicidad en las redes sociales, varios países han intentado implementar regulaciones en esta área:

  • Paraguay estipula que se les aplicará a una multa a las plataformas de redes sociales que modifiquen sus tarifas de publicidad de manera que favorezcan a cualquier partido o movimiento político sobre otro.48
  • El Código Electoral de El Salvador hace referencia a una obligación constitucional de que los medios de comunicación deben brindar información sobre las tarifas que cobran por sus servicios, y que el principio constitucional de equidad en los precios entre los partidos políticos es aplicable en el caso de las redes sociales.49 
  • Los reglamentos venezolanos prohíben que las plataformas de redes sociales respalden o apoyen a los candidatos, y les prohíben negarse a aceptar publicidad pagada de cualquier candidato.50 

Exigir que las plataformas de redes sociales establezcan un estándar de equidad entre partidos y candidatos requeriría cambios en la forma en que se seleccionan y muestran los anuncios a los usuarios o en su precio. Exigir, además, que traten a candidatos y partidos de manera equitativa presenta una serie de preguntas para su aplicación, pero es un principio importante a tener en cuenta dado el inmenso poder de las plataformas a este respecto. Las empresas tienen la ventaja tecnológica para favorecer o desfavorecer a candidatos según su preferencia; por ejemplo, pueden dirigir de manera más eficaz algunos anuncios de candidatos que tienen posturas más favorables a las propias plataformas. Ejemplos recientes en la India y los Estados Unidos han mostrado cómo la presión política y la percepción pública pueden influir en las decisiones de moderación del contenido. Las acciones de las plataformas en este sentido serían en gran medida indetectables con las herramientas de transparencia disponibles en muchos países, y no está claro si tales prácticas constituirían una infracción de acuerdo con los marcos legales y regulatorios actuales.

Otra posibilidad es exigir que las plataformas de redes sociales publiquen las tarifas publicitarias. Este tipo de disposición podría incorporarse a los estándares exigidos a una biblioteca de anuncios políticos u otro repositorio de anuncios, lo cual permitiría que hubiera transparencia en las tarifas comparativas que los partidos y candidatos pagan para difundir sus mensajes. Un movimiento para crear equidad en la publicidad política probablemente requeriría una mayor presión global de varios países, incluidos grandes mercados como la UE y los EE. UU. para ganar tracción, pero es una vía poco explorada. También es probable que se debata sobre cómo debe concebirse la equidad a la luz de la diferente naturaleza de la publicidad en línea.

b. Obligar a las plataformas a proporcionar espacios publicitarios gratuitos a candidatos y partidos

Las leyes y los reglamentos de algunos países estipulan que los proveedores de medios tradicionales deben brindar, en igual medida, espacio o tiempo de publicidad gratuito a los partidos políticos o candidatos que cumplan con criterios predeterminados. Eso tiene como objetivo proporcionar a las partes contendientes un acceso más equitativo para llevar sus plataformas e ideas al electorado, independientemente de sus recursos financieros. 

El presente estudio no ha identificado ninguna jurisdicción que exija que las plataformas de redes sociales otorguen igual espacio publicitario gratuito a los candidatos o partidos políticos. Sin embargo, el marco búlgaro permite a las plataformas de redes sociales asignar equitativamente el espacio publicitario gratuito a los contendientes electorales y exige que las plataformas revelen cómo lo asignan entre los candidatos y los partidos.51 El enfoque búlgaro podría servir de precursor piloto para los países que contemplan obligar a las plataformas de redes sociales que ofrezcan espacios publicitarios gratuitos para campañas en igualdad de condiciones. Es factible que una disposición a nivel nacional que se base en la legislación nacional existente para extender el precedente de la publicidad gratuita equitativa pueda prevalecer en las principales empresas de redes sociales a fin de proporcionar créditos publicitarios a las partes calificadas, aunque esto aún no se ha puesto a prueba.

 

Respuestas legales y reglamentarias a la desinformación

Las medidas para promover la información democrática son menos frecuentes, pero constituyen una oportunidad de obligar a las plataformas, y posiblemente a los actores nacionales, a difundir de manera proactiva información imparcial de manera que puedan generar resiliencia ante la desinformación política y electoral. Aunque hay pocos ejemplos de la vida real, esta categoría brinda la oportunidad de considerar qué tipos de enfoques legales y regulatorios podrían ser factibles.

"Las soluciones podrían tener como objetivo mejorar el acceso individual a la información en lugar de simplemente proteger contra el daño público". David Kaye, relator especial de las Naciones Unidas sobre la promoción y protección del derecho a la libertad de opinión y expresión

i. Promover la información democrática: medidas dirigidas a actores nacionales
a. Exigir a los partidos y candidatos que emitan correcciones cuando los miembros o simpatizantes del partido compartan información incorrecta. 

El borrador del código de conducta de Sudáfrica sobre Medidas para abordar la desinformación destinada a causar daño durante el período electoral (se puede encontrar una discusión detallada de este código de conducta en la sección de actualidad sobre enfoques del órgano de gestión electoral (EMB) para contrarrestar la desinformación) estipula que la Comisión Electoral puede obligar a los partidos y a los candidatos a corregir la desinformación electoral difundida por los partidos, los candidatos o sus miembros y simpatizantes; "el partido o candidato inscrito actuará de inmediato para tomar todas las medidas razonables en un esfuerzo por corregir la desinformación y remediar cualquier daño público causado, según sea apropiado en las circunstancias y en consulta con la Comisión".52 

El código de conducta de Sudáfrica define la desinformación electoral con especificidad y proporciona un marco para informar y dictaminar sobre las infracciones, lo que hace que estas disposiciones sean implementables. Para que este enfoque tenga efecto y no imponga obligaciones indebidas a los contendientes políticos, es necesario que haya una definición específica sobre qué tipos de desinformación electoral estarían sujetos a corrección y que exista un organismo de monitoreo independiente.

Si se adapta y aplica de manera estricta, un mecanismo para obligar a los contendientes políticos a corregir la información que daña la credibilidad del proceso electoral a través de sus propias redes de simpatizantes tiene el potencial de llegar a las audiencias afectadas a través de los mismos canales donde podrían haber encontrado el contenido problemático. Esto, a su vez, puede amplificar los mensajes a los cuales las autoridades electorales están intentando dar amplia difusión.

ii. Promover la información democrática: medidas dirigidas a las plataformas
a. Exigir que las plataformas ofrezcan a las autoridades electorales espacio publicitario gratuito para la educación de los votantes.

Si bien exigir que los medios de comunicación públicos o privados proporcionen un espacio publicitario gratuito y equitativo a los contendientes políticos tiene precedentes en varios países, otra vía es exigir que se ponga espacio publicitario gratuito a disposición de las autoridades electorales. El hecho de que haya plataformas de redes sociales que ofrezcan espacios publicitarios gratuitos a los órganos de gestión electoral podría ser una disposición útil y ejecutable que podría, por ejemplo, ayudar a impulsar la participación, educar a los votantes en formas que mitiguen el voto inválido o mejorar el acceso de los grupos marginados a la información.

El uso de canales de medios públicos para este propósito es una práctica común. Además, algunos países exigen a los actores privados del sector de los medios de comunicación que ofrezcan espacio libre a las autoridades electorales. En México, la Constitución estipula que durante los períodos electorales, las emisoras de radio y televisión deben ofrecer 48 minutos diarios de espacio publicitario gratuito que se repartirán entre las autoridades electorales, reservando también espacio para los mensajes de los partidos políticos.53 También se proporciona tiempo de emisión en una cantidad más limitada durante los períodos no electorales.54 Fuera de este tiempo asignado, los partidos políticos y los candidatos no están autorizados a comprar o colocar anuncios adicionales en la televisión o la radio.55 La ley electoral venezolana también exige a los proveedores privados de televisión que ofrezcan espacios publicitarios gratuitos al organismo electoral para la educación cívica y la información de los votantes.56 

Obligar a las empresas privadas a servir como canal para la educación de los votantes es una idea interesante. Las principales plataformas, incluidas Facebook, Google, Instagram y Twitter, han optado por proporcionar por su propia voluntad información a los votantes, tales como recordatorios del día de las elecciones e instrucciones sobre cómo votar (consulte la subcategoría sobre coordinación del órgano de gestión electoral (EMB) con las empresas de tecnología y redes sociales). Antes de las elecciones estadounidenses de 2020, Facebook también lanzó voluntariamente una nueva herramienta llamada Alertas de Votación que permitió a las autoridades electorales estatales y locales comunicarse con sus electores mediante notificaciones en Facebook, independientemente de que el usuario de Facebook siguiera o no la página de Facebook de la autoridad electoral. Dada la naturaleza voluntaria de tales medidas, la integración de la información de los votantes en las plataformas no se lleva a cabo en todos los países ni en todas las elecciones. Es menos probable que las plataformas implementen funciones para elecciones locales o municipales, incluso si esas elecciones se llevan a cabo en todo el país, que para elecciones presidenciales o parlamentarias. Considerar que se exija que las plataformas proporcionen espacio gratuito para la educación de los votantes como parte del código legal y regulatorio, particularmente en países donde existe un precedente análogo para los medios tradicionales o públicos, podría ser algo que valga la pena analizar. Además, los requisitos para los proveedores de televisión por Internet en streaming financiados con publicidad, los motores de búsqueda u otros intermediarios de medios también podrían considerarse otro lugar donde exigir la integración de los anuncios. 

 

Respuestas legales y reglamentarias a la desinformación

Una regulación cuidadosa significa poco si no va acompañada de una consideración significativa respecto de cómo se aplicará esa regulación. La falta de realismo en relación con la aplicación amenaza con socavar la autoridad de los organismos reguladores que crean disposiciones y establece precedentes poco realistas sobre lo que se podrá lograr únicamente mediante la regulación.

Las palancas de aplicación cambiarán en función de que las disposiciones estén dirigidas a actores o plataformas nacionales. En el caso de los primeros, los gobiernos y los actores políticos que gobiernan son cada vez más cómplices o culpables de participar en los mismos comportamientos que las acciones reglamentarias mencionadas en este documento buscan frenar. En estos casos, la capacidad de hacer cumplir las disposiciones de manera significativa dependerá de la independencia de los organismos de aplicación del ejecutivo.

La capacidad de un país individual para hacer cumplir las disposiciones dirigidas a actores extranjeros es muy limitada, y es una de las razones por las que los enfoques legales y regulatorios dirigidos a actores extranjeros no se incluyen en esta sección de la guía. 

Las disposiciones dirigidas a las plataformas varían significativamente en cuanto a su aplicabilidad. Es muy poco probable que las disposiciones que requieran modificaciones en la ingeniería de la plataforma o en las prácticas comerciales globales provengan de leyes a nivel nacional aprobadas en otros países que no sean los de los mercados más grandes del mundo. Sin embargo, muchas de las principales plataformas de redes sociales se han adelantado hasta ahora a los legisladores al instituir nuevas disposiciones y políticas para definir y restringir el contenido y los comportamientos problemáticos o para promover la transparencia, la equidad o la información democrática. Sin embargo, estas disposiciones no se han implementado por igual, y la legislación a nivel nacional podría tener un impacto en la presión a las empresas para que extiendan sus herramientas de transparencia existentes al país en cuestión. Sin duda, las plataformas equilibrarán sus intereses comerciales y la dificultad de implementar una medida con el costo del incumplimiento de las disposiciones legales en los países donde operan, pero no tienen presencia legal. Al reconocer que muchos países en el mundo tienen una capacidad limitada para hacer cumplir las obligaciones legales impuestas a las plataformas, las disposiciones legales y reglamentarias podrían servir para hacer que un país sea una prioridad más alta para las empresas a medida que globalizan sus políticas de transparencia publicitaria o promueven la información de los votantes a través de sus productos. 

6.1 Establecer qué entidades estatales tienen autoridad de aplicación

Diferentes instituciones pueden tener el derecho de supervisar y hacer cumplir las leyes que rigen la intersección de las redes sociales y las campañas y, dado que las disposiciones pertinentes a esta discusión pueden estar dispersas en un marco legal en varias leyes diferentes, tal supervisión puede recaer en múltiples organismos o instituciones. A continuación se mencionan algunos tipos comunes de organismos de aplicación.

En muchos países, la responsabilidad de la supervisión y la aplicación puede recaer en uno o más organismos de supervisión independientes. Puede ser una agencia anticorrupción, un organismo de supervisión de las finanzas políticas o un organismo de supervisión de los medios de comunicación, por ejemplo. A medida que Alemania expande su marco legal y reglamentario en torno a las redes sociales y las elecciones, la implementación y la aplicación recaen en una autoridad de medios estatal no gubernamental independiente. Este esfuerzo amplía el mandato del organismo, que tiene experiencia preexistente en derecho de medios, incluidos los estándares publicitarios, el pluralismo de los medios y la accesibilidad. Los analistas de este movimiento para ampliar el alcance del trabajo de las autoridades de medios alemanas sostienen que "es crucial considerar cuidadosamente qué disposiciones, si las hay, podrían o deberían traducirse a otro contexto europeo... si bien los reguladores de medios de Alemania disfrutan de un alto nivel de independencia, no se puede decir lo mismo de otros estados miembros", citando estudios que dicen que más de "la mitad de los estados miembros de la UE carecen de salvaguardias para la independencia política en los procedimientos de nombramiento".57 

La responsabilidad de la supervisión a menudo se repartirá entre múltiples organismos o agencias independientes, lo que requiere la coordinación y el desarrollo de enfoques conjuntos. Por ejemplo, en el Reino Unido se creó un Foro de cooperación para la regulación digital que promueve el desarrollo de esfuerzos regulatorios coordinados en el panorama digital entre la oficina del Comisionado de información del Reino Unido, la Autoridad de competencia y mercados y la oficina de comunicaciones.

Otros países envisten a las autoridades electorales o a los organismos de supervisión electoral con una capacidad de implementación y aplicación de algún tipo. Para las autoridades electorales que tienen mandatos de financiamiento político, financiamiento de campaña o supervisión de medios, la responsabilidad de supervisar las disposiciones relacionadas con las redes sociales en las elecciones podría, en algunos casos, sumarse naturalmente a estas capacidades existentes. Las autoridades electorales pueden estar en la posición de tener un mandato legal para monitorear las violaciones, o pueden haber adoptado esta responsabilidad de forma independiente sin tener la autoridad de aplicación. En estos casos, los marcos legales y regulatorios deberán tener en cuenta los mecanismos de derivación relevantes para garantizar que las violaciones detectadas se puedan compartir con el organismo correspondiente para tomar medidas adicionales. 

En otros casos, la aplicación de la ley recae más directamente en el sistema judicial. En el caso de Francia, los jueces desempeñan un papel directo en la determinación de qué contenido constituye manipulación de la información. Además de ordenar la eliminación del contenido manifiesto, ampliamente difundido y perjudicial, los jueces también pueden ordenar "cualquier medida proporcional y necesaria" para detener la difusión "deliberada, artificial o automática y masiva" de información engañosa en línea. En Argentina, el tribunal electoral es responsable de sancionar las violaciones resultantes de la publicidad que se realiza fuera del período de campaña designado.58 Cualquier modelo que se apoye en el poder judicial para determinar lo que constituye una violación necesita un poder judicial totalmente independiente con capacidad para entender los matices de la manipulación de la información y para revisar y responder a los casos rápidamente.59 

6.2 Crear la capacidad para monitorear las violaciones

Si no se establece una capacidad para realizar un monitoreo, controlar o brindar una supervisión efectiva, no se pueden hacer cumplir las leyes y los reglamentos que rigen el uso de las redes sociales durante las elecciones. En la subsección sobre Monitoreo de redes sociales para el cumplimiento legal y reglamentario de la sección de la guía sobre Métodos de los organismos de gestión electoral para contrarrestar la desinformación, se describen las preguntas y los desafíos clave para definir un enfoque de supervisión. Estas incluyen:

  • ¿Tiene el organismo en cuestión el derecho legal para monitorear las redes sociales?
  • ¿Cuál es el objetivo de la iniciativa de monitoreo?
  • ¿Cuál es el período de tiempo necesario para realizar un monitoreo de las redes sociales?
  • ¿El seguimiento será una operación interna o se hará en asociación con otra entidad?
  • ¿Dispone el organismo en cuestión de recursos humanos y económicos suficientes para llevar a cabo el esfuerzo de monitoreo deseado?
  • ¿Qué herramientas de transparencia publicitaria en redes sociales están disponibles en el país?

6.3 Consideraciones relativas a la evidencia y el descubrimiento

La naturaleza de las redes sociales y el contenido digital plantea nuevas preguntas en la consideración de la evidencia y el proceso de descubrimiento. Por ejemplo, cuando las plataformas notifican a las autoridades nacionales o hacen anuncios públicos de que han detectado acciones maliciosas en sus plataformas, a menudo van acompañadas de acciones para eliminar las cuentas y el contenido en cuestión. Cuando este material se elimina de la plataforma, ya no está disponible para las autoridades que actualmente o en el futuro puedan encargarse de capturar el contenido como evidencia de incumplimientos de la ley nacional. 

Highlight


En los casos en los que se presenta un caso contra un actor por una conducta ilegal en las redes sociales, una solicitud legal para preservar las publicaciones y los datos puede ser un paso que las autoridades o los demandantes deben considerar. Dominion Voting Systems, por ejemplo, ha emprendido esta acción en una serie de casos de difamación contra medios de comunicación y otros por afirmar falsamente que las máquinas de votación de la empresa se utilizaron para amañar las elecciones estadounidenses de 2020. Dominion envió cartas a Facebook, YouTube, Parler y Twitter en las que solicitaba que las empresas conservaran las publicaciones relevantes para su acción legal en curso.

En la actualidad, no parece existir una obligación integral en las principales plataformas de preservar y proporcionar información o evidencia en el caso de una investigación sobre los orígenes o el financiamiento de contenido y acciones que puedan representar violaciones de las leyes locales. Si bien en casos de delitos violentos, trata de personas y otros actos delictivos, las principales plataformas con sede en los Estados Unidos tienen un historial bastante congruente de cumplir con las solicitudes legales de los gobiernos para obtener datos pertinentes; lo mismo no parece ser cierto en el caso del financiamiento político o de violaciones de campaña. Un medio y un precedente para hacer solicitudes legalmente vinculantes de datos de usuario de las plataformas cuando un candidato o un partido están bajo sospecha creíble de violar la ley es una ruta esencial a explorar para su aplicación. 

Por supuesto, las plataformas también desempeñan un papel fundamental para garantizar que los datos de los usuarios recopilados en sus plataformas no se entreguen a los actores gubernamentales con fines ilegítimos. La determinación de lo que constituye y no constituye un propósito legítimo requiere una deliberación cuidadosa y el establecimiento de principios sólidos. También es probable que exista un conflicto frecuente entre lo que las plataformas consideran solicitudes de datos con potencial de abuso y lo que podrían pensar las autoridades nacionales que solicitan esos datos. Particularmente para los países que se han apoyado en gran medida en el uso de su código penal para sancionar el discurso problemático, las plataformas pueden mantener una resistencia legítima al cumplimiento de las solicitudes de datos de los usuarios que tienen un alto potencial de abuso.

6.4 Sanciones y recursos disponibles

Los países han utilizado una variedad de sanciones y recursos para hacer cumplir sus mandatos legales y reglamentarios. La mayoría de estas sanciones tienen precedentes en la ley existente en lo que respecta a violaciones análogas fuera de línea. 

La emisión de multas para el financiamiento político o las violaciones de campañas tiene un precedente bien establecido. En el contexto de violaciones de las reglas de las campañas digitales, las multas también son una sanción común. En la ley argentina, por ejemplo, se estipula que se impondrán multas a las personas físicas o jurídicas que no cumplan con los límites de contenido y publicación de los anuncios, incluidos aquellos transmitidos a través de internet. La ley argentina evalúa la multa en relación con el costo de tiempo, espacio o ancho de banda de internet de la publicidad en el momento de la violación.60 

Las multas también pueden dirigirse a empresas de redes sociales o proveedores de servicios digitales que no cumplan con sus obligaciones. Paraguay, por ejemplo, responsabiliza indirectamente a las empresas de redes sociales y aplica multas por incumplimiento de la veda electoral, publicación ilícita de encuestas de opinión, o por participar en la fijación de precios sesgada.61 No está claro si Paraguay ha impuesto con éxito estas multas a alguna empresa de redes sociales.

Algunos marcos legales y regulatorios conllevan la amenaza de revocar la financiación pública como medio de aplicación. A diferencia de una multa para las personas que infringen la ley, el Código Electoral argentino establece que los partidos políticos que no cumplan con las limitaciones impuestas a la publicidad política perderán el derecho a recibir contribuciones, subsidios y financiamiento público por un período de uno a cuatro años.62 La eficacia de esta sanción depende en gran parte de la medida en que los partidos cuenta con la financiación pública para sus ingresos.

Las disposiciones pueden buscar remediar el daño al exigir a las entidades que violen la ley que realicen correcciones. Como se menciona en la sección sobre la promoción de la información democrática, en la regulación sudafricana se estipula que la comisión electoral puede obligar a los partidos y candidatos a corregir la desinformación electoral compartida por los partidos, los candidatos o sus miembros y simpatizantes. Sin embargo, los mandatos para proporcionar correcciones pueden manipularse para servir intereses partidistas: según la Ley de protección contra las falsedades y la manipulación en línea de Singapur de 2019, que ha sido objeto de fuertes críticas por su uso para silenciar las voces de la oposición, los proveedores de servicios de internet, las plataformas de redes sociales, los motores de búsqueda y los servicios para compartir videos como YouTube deben emitir correcciones o eliminar contenido si el gobierno lo considera falso y cree que la corrección o eliminación es de interés público. La ley especifica que, a una persona que ha comunicado una declaración falsa de un hecho, se le puede exigir que haga una corrección o la elimine, incluso si la persona no tiene ninguna razón para creer que la declaración es falsa.63 Las personas que no cumplen están sujetas a multas hasta $20.000 y encarcelamiento.64

Otra sanción es la prohibición de que un partido político o candidato compita en unas elecciones. La Comisión Electoral Central de Bosnia y Herzegovina multó y prohibió la participación de un partido en las elecciones de 2020 por compartir un video que violó una disposición contra la provocación o la incitación a la violencia o el odio,65 aunque esta decisión fue anulada por los tribunales luego de una apelación. Esta sanción tiene un alto riesgo de manipulación política y, si se considera, debe ir acompañada de un debido proceso que sea suficiente y un derecho de apelación.

En algunos casos, la aplicación ha dado lugar a la anulación de los resultados de las elecciones. El Tribunal Constitucional de Moldavia anuló unas elecciones de alcalde en la ciudad de Chisinau porque ambos competidores estaban haciendo campaña en las redes sociales durante el período de veda electoral. A raíz de esta decisión, que muchos consideraron desproporcionada con respecto al delito, los reguladores moldavos introdujeron una nueva disposición que permite que los materiales de campaña en internet que se colocaron antes del día de las elecciones permanezcan visibles. La anulación de elecciones es un recurso extremo que es altamente vulnerable a la manipulación política y debe considerarse en el contexto de las mejores prácticas internacionales sobre la validación o anulación de unas elecciones.

Muchos países han prohibido o amenazado con prohibir el acceso a una plataforma de redes sociales dentro de su jurisdicción como un medio para exigir el cumplimiento o forzar concesiones de las plataformas de redes sociales globales. El gobierno de la India, por ejemplo, amenazó con prohibir WhatsApp en 2018 tras una serie de linchamientos resultantes de la propagación de rumores virales a través de la aplicación de mensajería. WhatsApp se negó a acceder a las demandas del gobierno sobre disposiciones clave de privacidad, pero modificó las formas en que los mensajes se etiquetan y reenvían en la aplicación en respuesta a las preocupaciones del gobierno. India también prohibió TikTok, WeChat y una variedad de otras aplicaciones chinas en 2020. En 2018, el gobierno de Indonesia prohibió TikTok durante varios días sobre la base de que se estaba utilizando para compartir contenido inapropiado y blasfemia. En respuesta, TikTok accedió rápidamente a las demandas del gobierno y comenzó a censurar dicho contenido. La administración de Trump amenazó con prohibir TikTok en los Estados Unidos por preocupaciones sobre la privacidad de los datos, a menos que la empresa de propiedad china vendiera sus operaciones en Estados Unidos. En 2017, el presidente de Ucrania, Petro Poroshenko, firmó un decreto que bloqueaba el acceso a varias plataformas de redes sociales rusas por motivos de seguridad nacional.

Prohibir el acceso a plataformas enteras como un medio para forzar concesiones a las empresas es un enfoque contundente que solo puede producir resultados en países con mercados masivos de usuarios. Con mucha más frecuencia, los líderes autoritarios han utilizado las prohibiciones en las plataformas de redes sociales como una herramienta para restringir el acceso a la información entre sus poblaciones. 

La regulación de las redes sociales en las campañas, particularmente de una manera destinada a disuadir o mitigar el impacto de la desinformación, está lejos de fusionarse en torno a buenas prácticas establecidas y universalmente aceptadas. A medida que los países toman medidas legales y reglamentarias para abordar la desinformación en nombre de la protección de la democracia, la incertidumbre y la vaguedad de las definiciones de los conceptos clave en este espacio tienen el potencial de dar lugar a implicaciones posteriores para los derechos políticos y civiles. Las preocupaciones sobre la libertad de expresión, por ejemplo, aumentan cuando el contenido se elimina sin ningún proceso de revisión judicial o apelación. Los críticos señalan los peligros de permitir que empresas privadas de redes sociales y plataformas digitales que no rinden cuentas decidan qué contenido cumple o no con la ley. Por ejemplo, si las sanciones son severas, podría incentivar a las empresas a sobrecorregir mediante la eliminación de contenido admisible y del discurso legítimo. La existencia de mecanismos de apelación sólidos es esencial para preservar los derechos.

 

Exponiendo la desinformación a través del monitoreo electoral

Escrito por Julia Brothers, asesora principal de elecciones y procesos políticos del National Democratic Institute

 

Las elecciones democráticas se basan en un proceso competitivo, la fe en las instituciones electorales y la participación informada de todos los ciudadanos. Sin embargo, el despliegue de información falsa, exagerada o contradictoria en el entorno electoral ha sido efectivo para socavar estos principios en todo el mundo. Al evitar que los votantes formen opiniones y las sostengan, la desinformación amplifica la confusión, frena la participación, genera divisiones sociales, favorece o perjudica a ciertos partidos y candidatos y degrada la confianza en las instituciones democráticas. Si bien las campañas de desinformación antidemocráticas no son nuevas, la tecnología de la información moderna y las plataformas a través de las cuales los ciudadanos obtienen sus noticias, incluso en línea y a través de las redes sociales, fomentan la difusión de información a velocidades, distancias y volúmenes sin precedentes en los ciclos electorales anteriores.

Los estándares internacionales para elecciones democráticas aseguran entornos de información abiertos, sólidos y pluralistas que promueven la participación equitativa y plena en las elecciones de ciudadanos y concursantes por igual. Estos estándares están consagrados en instrumentos internacionales y regionales, que reflejan compromisos preexistentes y reconocidos a nivel mundial relacionados con la desinformación e incluyen: 

  • Los derechos a tener opiniones y a buscar y recibir información con el fin de tomar una decisión informada el día de las elecciones: Toda persona tiene derecho a formar, sostener y cambiar opiniones sin interferencia, lo cual es parte integral del ejercicio libre del derecho al voto.1 Los votantes también tienen derecho a buscar, recibir y transmitir información precisa que les permita tomar decisiones informadas sobre su futuro, sin intimidación, violencia o manipulación.2 Además, las instituciones generalmente están obligadas a ser transparentes con respecto a la información electoral para que los votantes puedan estar informados y las fuentes de datos puedan hacerse responsables.3 Estos derechos están consagrados para todos los ciudadanos independientemente de su raza, género, idioma, lugar de origen, opinión política o de otro tipo, religión u otra condición.4 Cada vez más, las organizaciones están trabajando para vincular estos estándares con principios centrados en la desinformación y el ciberespacio. Los esfuerzos de desinformación relacionados con las elecciones subvierten estos derechos, porque están diseñados para sobrecargar el debate político genuino al engañar intencionalmente a los votantes, crear confusión, exacerbar la polarización y socavar la confianza pública en el proceso electoral.
  • El derecho a la igualdad de condiciones: el sufragio universal e igual, además de los derechos de voto, incluye el derecho a buscar ser elegido para un cargo público sin discriminación. Las obligaciones de los gobiernos de garantizar la igualdad de condiciones para los contendientes electorales se derivan de esta norma. El Comité de Derechos Humanos de la ONU proporciona orientación al respecto en su Observación general 25 al Pacto Internacional de Derechos Civiles y Políticos. La norma implica proporcionar seguridad contra ataques difamatorios y otras formas de información falsa con el objetivo de causar daño a la suerte electoral de un candidato o partido. Las obligaciones se extienden a los medios controlados por el gobierno y la norma se aplica a la ética profesional para periodistas y medios privados.5 La verificación de datos, otras formas de verificación y el monitoreo tradicional y de las redes sociales se relacionan con esta norma, así como con los derechos de los votantes a recibir información precisa sobre la cual tomar decisiones electorales informadas. La manipulación del entorno de la información puede socavar la competencia equitativa, en particular para aquellos que se ven afectados de manera desproporcionada por las campañas de desinformación, como las mujeres y las comunidades marginadas, que ya se enfrentan a un campo de juego desigual.
  • Libertad de expresión, prensa y regulación: los compromisos antes mencionados deben equilibrarse con las libertades de todos para opinar y expresarse, incluida la necesidad de respetar y proteger una prensa libre. Un aspecto del abordaje de las campañas de desinformación es desarrollar marcos legales y regulatorios adecuados, incluidas sanciones efectivas. El discurso de odio y la incitación a la violencia de género, racial, étnica, religiosa y de otro tipo se difunden a menudo a través de campañas de desinformación que afectan a candidatos y votantes por igual. Las regulaciones legales en esta área, como la protección de la reputación personal, pueden ser aplicables en el contexto de la desinformación.  Sin embargo, no se debe hacer demasiado énfasis en la regulación, y es importante salvaguardar la libertad de expresión mientras se intenta proteger la integridad del espacio de información en las elecciones y más allá de ellas. El Comité de Derechos Humanos de la ONU proporciona orientación al respecto en la Observación general 34.

Reconociendo estas condiciones democráticas necesarias, la existencia y el impacto de la desinformación deben considerarse en cualquier evaluación integral de un proceso electoral. Incluso si una elección está bien organizada y es transparente, un entorno de información altamente comprometido antes y durante el día de las elecciones puede socavar su credibilidad. Identificar los tipos, volúmenes y patrones de información falsa y desinformación que pueden afectar la integridad electoral es crucial para mitigar su impacto. Los organismos de control políticos deben analizar las deficiencias en el entorno de la información con una comprensión de las normas sociales y las divisiones en el contexto local al determinar la integridad de una elección y crear responsabilidad para el universo de partes interesadas que participan o se benefician de las tácticas de desinformación. 

Las salvaguardas electorales tradicionales, en particular los observadores electorales, están ampliando sus capacidades, actividades, relaciones y esfuerzos de promoción para enfrentar las amenazas de la desinformación a la integridad electoral. Desmentir las noticias falsas a través de redes emergentes de verificadores de datos y reforzar la alfabetización digital y mediática son un papel importante en la construcción de resiliencia y la mejora del entorno de información cerca de las elecciones. Esas acciones, así como los esfuerzos sólidos para informar adecuadamente el debate político y proporcionar datos electorales precisos, pueden inocular contra el desorden de la información. Todos estos esfuerzos pueden complementarse entre sí para salvaguardar los procesos electorales y políticos. 

Exponiendo la desinformación a través del monitoreo electoral

Los programas de monitoreo de elecciones sirven en general para promover la integridad electoral a través de una mayor participación, inclusión, transparencia y rendición de cuentas, fomentando así el empoderamiento de los ciudadanos y la confianza en el proceso democrático.

El desarrollo de las intervenciones de observación electoral correctas para responder a la desinformación no debe hacerse sin antes considerar el contexto de cada entorno electoral.

Design Tip


La naturaleza, las vulnerabilidades, los factores atenuantes y las oportunidades en torno a la información electoral, en Internet y de otro tipo, varían significativamente de un país a otro, y los proyectos exitosos han demostrado la importancia de realizar una evaluación preliminar para identificar estos factores antes de diseñar un programa. En consecuencia, las metodologías y los enfoques de monitoreo deben ser moldeados e impulsados por los objetivos y la capacidad organizativa, no por las herramientas disponibles.

Las decisiones sobre el uso de tecnologías y metodologías deben tomarse a través de un proceso inclusivo, teniendo en cuenta las brechas de accesibilidad y tecnología entre los diferentes grupos de observadores y ciudadanos, incluidos el género, la edad, la geografía y otros aspectos. Además, identificar y exponer las barreras en línea para las mujeres y los grupos marginados en los procesos electorales requiere necesariamente un enfoque inclusivo y sensible al género, y puede requerir que los observadores incorporen y equilibren metodologías especializadas en su esfuerzo general que creen una imagen precisa de la forma en que el panorama electoral afecta a poblaciones específicas. 

Hay varias opciones para abordar las amenazas específicas que la desinformación representa para la integridad electoral en el contexto de un país individual:

  • Observación ciudadana de elecciones para identificar y exponer la desinformación en lo que respecta a la integridad electoral, incluido el seguimiento de los medios tradicionales y en línea en torno a un proceso electoral
  • Observación electoral internacional del entorno de información electoral, incluida la desinformación, a corto y largo plazo por misiones de observación regionales e internacionales dignas de crédito y de conformidad con la Declaración de principios para la observación electoral internacional 
  • Promoción de normas, estándares y políticas para abordar la desinformación en las elecciones, incluidos los esfuerzos de la sociedad civil u otros grupos para abogar por una variedad de respuestas apropiadas de las plataformas de redes sociales y otros actores del sector privado, reformas legales, políticas y asignación de recursos de gobiernos o legislaturas, y apoyo para el desarrollo de normas y estándares de instrumentos regionales e internacionales para combatir la desinformación durante las elecciones.
  • Forjar asociaciones más efectivas entre observadores electorales y otras partes interesadas clave, como grupos de tecnología cívica, verificadores de datos, periodistas, monitores de medios, órganos de gestión electoral, organizaciones de derechos de la mujer y otras OSC que están compuestas de grupos marginados y los representan, etc. 
  • Intercambio de conocimientos y desarrollo de mejores prácticas en torno a la lucha contra la desinformación en las elecciones a través de talleres, intercambios en línea, notas de orientación y otras formas de intercambio de información.

Estas intervenciones se exploran en más detalle a continuación y muestran cómo la observación electoral y el análisis enfocados pueden mejorar la responsabilidad y neutralizar las amenazas de desinformación. Idealmente, el monitoreo de las elecciones se lleva a cabo durante el período preelectoral, el día de las elecciones y los períodos posteriores a las elecciones para evaluar todos los aspectos relevantes del proceso. Muchos de los casos de estudio que se destacan en este capítulo no son proyectos independientes, sino que forman parte de esfuerzos más amplios de monitoreo de elecciones que incluyen el monitoreo en línea como un componente distinto.

Exponiendo la desinformación a través del monitoreo electoral

Los observadores electorales frecuentemente ajustan sus metodologías para enfrentar tácticas cambiantes que socavan procesos electorales creíbles, a menudo en el período preelectoral. Los monitores ciudadanos de elecciones, que a menudo son vistos como voces de confianza y políticamente imparciales, están bien equipados para investigar, exponer y mitigar los efectos de la manipulación de la información en torno a las elecciones. Entienden la lengua vernácula en línea y el significado de la jerga y otros términos que son clave para identificar la desinformación y sus conexiones con el discurso de odio, la incitación y otros medios para avivar las divisiones sociales. Esa comprensión puede ser útil para los observadores electorales internacionales y los investigadores extranjeros. Además, las organizaciones nacionales pueden proporcionar un monitoreo continuo no solo durante las elecciones, sino también durante las votaciones legislativas importantes, los plebiscitos nacionales y el período entre elecciones, cuando la manipulación en línea de las narrativas políticas tiende a afianzarse.

Highlight


Si bien los grupos de verificación de datos y otras iniciativas de integridad de los medios de comunicación desempeñan funciones fundamentales para eliminar los relatos falsos y engañosos, el monitoreo de las redes sociales por parte de los observadores ciudadanos de las elecciones suele tener objetivos y plazos diferentes. El objetivo no es verificar o invalidar rápidamente las historias individuales, sino identificar y evaluar el impacto que las tendencias de la información pueden tener en la integridad electoral, crear responsabilidad en torno a una variedad de actores que participan en el proceso electoral y proporcionar recomendaciones viables.

Por ejemplo, en Georgia, el grupo de observadores electorales ciudadanos de la International Society for Fair Elections And Democracy (ISFED) desarrolló un enfoque múltiple para identificar tácticas de desinformación diseñadas para influir en los votantes y subvertir el discurso basado en hechos antes de las elecciones presidenciales de 2018 y la posterior segunda vuelta. Con una herramienta diseñada por NDI (Fact-a-lyzer) que fue creada específicamente para que los observadores ciudadanos monitoreen plataformas como Facebook y Twitter, la ISFED analizó diversos problemas de integridad electoral en las redes sociales, incluidos el abuso de recursos estatales, el financiamiento de campañas, la difusión estratégica de desinformación y narrativas divisivas y el uso de páginas de campaña oficiales y no oficiales en las elecciones para desacreditar a los candidatos y, en algunos casos, a las organizaciones de la sociedad civil. Algunos de sus hallazgos, incluidas las claras violaciones al financiamiento de campañas, fueron señalados por las instituciones de supervisión del gobierno que posteriormente impusieron multas a los infractores. Además, a través del monitoreo de las redes sociales, la ISFED pudo identificar una serie de páginas de medios falsas y sospechosas que Facebook finalmente eliminó en una operación de alto perfil debido a un comportamiento inauténtico y coordinado. El grupo continuó monitoreando las redes sociales entre las elecciones presidenciales de 2018 y las elecciones parlamentarias de 2020, e identificó una serie de campañas de desinformación respaldadas por el Kremlin.

Las páginas problemáticas destacadas por la ISFED estaban escritas en georgiano, un idioma que no se habla mucho fuera del país y que incluso es menos común entre los moderadores de contenido de las plataformas tecnológicas. La prevalencia de la desinformación en el contenido del idioma local reforzó la importancia del monitoreo ciudadano para apreciar el subtexto lingüístico e interpretar más fácilmente el contenido y el comportamiento de las redes sociales dentro del contexto electoral. El esfuerzo de la ISFED se ha basado en el monitoreo a largo plazo mediante el personal debidamente capacitado y el acceso a herramientas avanzadas de recopilación de datos como Fact-a-lyzer y Crowdtangle de Facebook, que han mejorado su capacidad y habilidad para hacer investigaciones más avanzadas. Su esfuerzo de monitoreo de las redes sociales es continuo a fin de capturar las tendencias entre elecciones e identificar de qué manera algunas narrativas desarrolladas en línea mucho antes de unas elecciones se convierten en un arma para obtener ventajas o desventajas electorales. Un enfoque tan ambicioso requiere recursos a largo plazo y acceso a contenido público masivo.

En Nigeria, los supervisores electorales ampliaron los esfuerzos tradicionales de verificación de datos para hacer investigaciones más matizadas a fin de identificar las tendencias de información subyacentes antes de las elecciones generales de 2019. El NDI se asoció con el Centro para la Democracia y el Desarrollo de África Occidental (CDD de África Occidental), que ya estaba llevando a cabo una sólida campaña de alfabetización mediática y verificación de datos para analizar cuantitativamente el entorno de información en las semanas previas a las elecciones. El NDI contrató a Graphika, una firma de investigación privada que lleva a cabo la recopilación y el análisis de datos en plataformas en línea como Facebook y Twitter, para proporcionar gran parte del apoyo a la investigación. A través de la combinación del análisis de Graphika y la recopilación manual de datos de los verificadores de datos, el CDD de África Occidental pudo resaltar la profundidad y el alcance de ciertas narrativas en torno a las elecciones, particularmente relacionadas con la islamofobia y la influencia extranjera. También descubrió redes coordinadas de noticias falsas e indicios de cuentas automatizadas no auténticas. 

Estos esfuerzos se complementaron con la investigación que el CDD de África Occidental hizo en asociación con la Universidad de Birmingham para analizar el uso de WhatsApp antes de las elecciones. El CDD de África Occidental informó a varias misiones internacionales de observación electoral sobre sus hallazgos, lo que contribuyó con las declaraciones del día de las elecciones y a un análisis más detallado. Al aumentar sus esfuerzos de verificación de datos con un análisis de datos sofisticado, el CDD de África Occidental pudo detectar tendencias generales que impactaban el proceso electoral al mismo tiempo que brindaba actualizaciones sobre el entorno en línea en tiempo real. 

Penplusbytes, una ONG local en Ghana, desarrolló un Centro de seguimiento de redes sociales (SMTC) para las elecciones presidenciales de Ghana de 2012 y lo reactivó para las elecciones presidenciales de 2016 con el objetivo de identificar las malas prácticas electorales a medida que tienen lugar, utilizando dicha información para advertir rápidamente a las instituciones y partes interesadas relevantes. Los equipos de Penplusbytes utilizaron el software de seguimiento de redes sociales Aggie desarrollado por el Georgia Institute of Technology y la United Nations University para monitorear y verificar casos de información falsa en Facebook y Twitter. Pasaron información relevante al Grupo de trabajo de seguridad de elecciones nacionales (National Elections Security Task Force, NESTF), que adoptó medidas en función de sus hallazgos.

En Colombia, el grupo cívico Misión de observación electoral (MOE) ha estado monitoreando los aspectos en línea de los procesos electorales desde el referéndum sobre el acuerdo de paz del país celebrado en 2016. De muchas maneras, el proceso de paz ha ayudado a definir a la sociedad colombiana en los últimos años, ya que lucha por consolidar su progreso de forma democrática, reconciliar a diversos combatientes en la guerra, integrar a los rebeldes nuevamente en la sociedad y, por último, evitar la regresión al conflicto que asoló al país durante décadas. Según el director de comunicaciones del Ministerio de Educación, Fabián Hernández: "Justo en ese momento, el Ministerio de Educación hizo el primer análisis de redes sociales. Nuestro enfoque en ese período era ver de cuántos delitos electorales se hablaba en línea, cuáles eran los argumentos con los que la gente hablaba de un referéndum, [e ¿iba a ser] un respaldo a la paz? No previmos, no imaginamos que la información falsa sería un problema tan serio. Por lo tanto, no era objeto de nuestro estudio, pero teníamos una herramienta para darnos alertas y demás... que el gran riesgo del referéndum era la información falsa, cómo circulaba por WhatsApp y mensajes de texto, y por Instagram, pero también Twitter, mucha información falsa, información engañosa, información exagerada o descontextualizada que terminó siendo falsa".6

Posteriormente, el Ministerio de Educación desarrolló planes de investigación de redes sociales más sofisticados y basados en datos, vínculos con plataformas para la presentación de informes y otras formas avanzadas de coordinación. Durante las elecciones presidenciales de 2018, el Ministerio de Educación trabajó para desarrollar métodos de recopilación de datos en línea y mecanismos para informar a las plataformas y autoridades electorales. Como señaló Hernández: "Después del Brexit, Colombia fue un proyecto piloto muy interesante para el mundo respecto de la forma en que la desinformación podía modificar las elecciones. Y eso hizo que nuestro enfoque para el estudio de las redes sociales en 2018 fuera la caracterización de la desinformación. Es así como llegamos al estudio de quién produce desinformación y cómo la información falsa se vuelve viral".7 Con la ayuda de las plataformas de escucha social, el MOE recopiló datos sobre palabras clave de Facebook, Instagram, Twitter, YouTube, blogs y otros medios, registrando casi 45 millones de piezas de contenido. Este contenido fue analizado con un software de procesamiento de lenguaje natural para contribuir con un informe final que cubre ambas rondas de las elecciones, así como rondas de discusión del Congreso y dentro del partido. 

Las elecciones locales son igualmente vulnerables a la desinformación y las campañas de información falsa pero, a menudo, reciben menos escrutinio y atención de los actores internacionales, los medios de comunicación y los investigadores, lo que eleva aún más la importancia de las organizaciones de vigilancia ciudadana. Como lo señaló Hernández: "En las elecciones locales realizamos el mismo ejercicio de observar las redes sociales, y hoy nuestro análisis se enfoca en: la desinformación, la incitación al odio, la intolerancia o la agresividad; y finalmente la xenofobia, la inmigración y Venezuela. Desde los medios tradicionales se entendió que las personas con menos estudios eran más vulnerables a la manipulación, que son barreras que pone el tipo de educación, por la poca educación que reciben, por eso la desinformación era más fácil".8 

Es más probable que los grupos de observación ciudadana capten las amenazas digitales a nivel local que sus contrapartes internacionales. Tienen una mejor comprensión de lo que se dice y lo que se quiere decir en las redes sociales y una visión de las experiencias particulares de las mujeres, miembros de otros grupos marginados y otras poblaciones en línea a nivel local, regional y nacional. La integración de estas perspectivas es esencial para informar el proceso de monitoreo. Además, las organizaciones nacionales pueden ofrecer monitoreo continuo no solo durante las elecciones, sino también durante las votaciones legislativas importantes, los plebiscitos nacionales como el de Colombia sobre el proceso de paz, y el período entre elecciones, cuando la manipulación de las narrativas políticas en línea tiende a afianzarse. Vincular a observadores tradicionales como el Ministerio de Educación con otros tipos de organizaciones de monitoreo en línea, grupos de derechos digitales, verificadores de datos, la sociedad civil que representa a mujeres y grupos marginados, y tecnólogos cívicos se vuelve fundamental para comprender la imagen completa del panorama de las redes sociales de un país a lo largo del tiempo.

Exponiendo la desinformación a través del monitoreo electoral

Las misiones internacionales de observación electoral se comprometen a evaluar la calidad de un proceso electoral en su totalidad, incluidos los períodos preelectorales, el día de las elecciones y los periodos posteriores a las elecciones. Este compromiso tiene sus raíces en la Declaración de principios para la observación electoral internacional (Declaración de principios o DdP). Por lo tanto, la consideración del entorno de la información, incluidos el papel de la desinformación, el discurso del odio y otras formas de contenido en línea en las que desempeñan un papel importante representa una parte fundamental de cualquier evaluación de la misión. Además, de acuerdo con la DdP, las consideraciones de género deben enfatizarse no solo a nivel de misión individual, sino también a nivel internacional y normativo. En el contexto del entorno de información, esto incluiría una comprensión de las dimensiones de la violencia contra la mujer en la política (VCM-P) y en las elecciones, incluidas sus manifestaciones en línea, como la desinformación con sesgo de género. Esto puede implicar la incorporación de análisis y recomendaciones sobre el entorno de información en las declaraciones previas a las elecciones y el día de las elecciones. Las misiones deben esforzarse por expandir el grupo de informantes e interlocutores clave sobre quienes los observadores a corto y largo plazo recopilan información, tales como expertos en redes sociales, académicos, representantes de la industria tecnológica, activistas por los derechos de la mujer y monitores de medios, tanto en el país como desde el exterior. Las misiones de observación también pueden querer diversificar los perfiles de los analistas y delegados previo a las elecciones y el día de las elecciones para incluir tecnólogos cívicos, expertos en comunicaciones digitales u otras personas con conocimientos particulares de técnicas de manipulación digital enfocadas en el género. Cuando sea necesario, las misiones pueden intentar influir en las empresas de medios sociales si el análisis revela serios desafíos a la integridad electoral, ya sea a través de desinformación, discursos de odio u otras influencias. 

En algunos casos, particularmente para misiones en países con campañas de desinformación aguda en torno a las elecciones, se podría asignar un analista o miembro del equipo central para que se encargue de desarrollar un análisis de las dimensiones de la desinformación en el contexto electoral. Por ejemplo, en Nigeria, la Unión Europea desplegó un analista de medios y comunicaciones digitales para cubrir el espacio en línea para las elecciones presidenciales nigerianas de 2019, y ha desplegado otros equipos de monitoreo de medios en diferentes contextos a nivel mundial. 

Del mismo modo, para sus misiones internacionales de observación electoral de las elecciones presidenciales y parlamentarias de Ucrania de 2019, el NDI contrató a un analista de entorno de información a largo plazo como parte del equipo central de la misión. La misión reconoció el papel que probablemente desempeñaría el entorno de la información, incluida la desinformación en las redes sociales y tradicionales, en esas elecciones de alto perfil. Al igual que otros expertos temáticos de la misión, como los analistas de género y marco legal, el analista del entorno de la información proporcionó un punto focal claro sobre el tema para garantizar que se tomaran en cuenta todos los aspectos de la misión, incluido el desorden de la información como un problema de integridad electoral. 

El analista a largo plazo recopiló datos de interlocutores clave y conjuntos de datos preexistentes y monitoreó 26 canales de Telegram regionales y nacionales, lo que reveló un patrón de publicaciones desproporcionadamente negativas con respecto al proceso electoral y los dos principales candidatos presidenciales. Este y otros análisis del analista a largo plazo contribuyeron sustancialmente a las conclusiones de la misión de observación. En particular, enmarcaron hasta qué punto las campañas en línea extranjeras y nacionales influyeron en el proceso electoral y de qué manera los partidos políticos, los candidatos y las cuentas de apoyo de terceros menos transparentes utilizaron las campañas en línea para dar forma al panorama digital. Esto se basa en la experiencia del NDI de su misión de observación de 2017 en Georgia, durante la cual desplegó el trabajo de un analista de entorno de información a largo plazo por primera vez

Otras organizaciones observadoras internacionales e intergubernamentales, como el Centro Carter, Democracy Reporting International, la Organización de los Estados Americanos (OEA) y la Oficina de instituciones democráticas y derechos humanos (OIDDH) de la OSCE también han estado integrando el monitoreo de las redes sociales en sus misiones de observación más amplias durante los últimos años, y la comunidad internacional de observación continúa trabajando en conjunto para fortalecer la capacidad y armonizar las normas en esta área. En algunos casos, colaboran con organizaciones de la sociedad civil, como Memo 98 de Eslovaquia, que desarrolla programas de seguimiento de medios desde la década de los 90. Es importante señalar el vínculo entre el monitoreo de los medios tradicionales y el monitoreo de las redes sociales, y Memo 98, al igual que muchas organizaciones, ha pasado de examinar los medios tradicionales a las plataformas de redes sociales en los últimos cinco años. Desde sus incursiones iniciales en el análisis del alcance en línea de los medios rusos como RT y Sputnik en 2015, Memo 98 ha ampliado su enfoque hacia las redes sociales, colaborando con la Unión Europea, la OSCE y otras misiones de observación electoral en Europa y otros lugares.  

Los activistas de monitoreo de medios de Memo 98 desplegaron análisis en línea a través de las misiones de monitoreo de la OSCE en Georgia en 2017 y para las elecciones parlamentarias de la Unión Europea. En este último caso, trabajaron para determinar en qué medida los mensajes en Facebook afectaban los temas presentados por los partidos políticos durante las elecciones. Memo 98 no encontró que las partes se atacaran entre sí de manera significativa en las publicaciones; por el contrario, resultaba en la unificación contra el extremismo. Memo 98 también supervisó las elecciones de Bielorrusia en 2020 en colaboración con las ONG bielorrusas Linked Media y el EAST Center. Desarrollaron informes enfocados en las redes sociales y contrastaron cómo los medios tradicionales nacionales sesgados del país dieron lugar a que el presidente Lukashenko recibiera el 97 por ciento de la cobertura, mientras que los candidatos de la oposición pudieron publicar y atraer cierta atención en redes sociales como Facebook.

Al igual que con otros grupos en Europa del Este, Memo 98 está en una posición única para comprender el potencial de las operaciones de influencia extranjera, particularmente las que derivan de Rusia. Como señala su director, Rasto Kuzel:

"Obviamente, no podíamos seguir ignorando [el espacio en línea] después de 2016. Y es por eso que empezamos a trabajar en algún tipo de enfoque metodológico. Vimos que... al comprender los conceptos básicos del análisis de contenido, lo que nos muestran los datos y el panorama general, mostramos algunos de estos infinitivos, pero ¿nos hacemos una idea? Por ejemplo, qué tan grande es este problema en todo el entorno electoral. Quiero decir, ¿cuál es el impacto real de las redes sociales en un país en particular? ¿Y cómo está relacionado con los medios tradicionales y demás?"9.

Equilibrar el impacto de los medios sociales y tradicionales es un desafío para comprender las conversaciones en línea, donde los medios tradicionales también juegan un papel. Mientras el monitoreo de los medios tradicionales se limita a los medios de comunicación, la televisión, la radio y la prensa con licencia oficial, es difícil, sino imposible, observar la totalidad de las redes sociales. Sin embargo, como señala Kuzel, es importante incluirlas en todas las observaciones, y los grupos están trabajando en conjunto para desarrollar nuevas metodologías para el entorno en línea. Con el Consejo de Europa, Kuzel publicó recientemente una guía sobre monitoreo de medios en elecciones que incluye una sección sobre métodos de redes sociales basada en su experiencia. Las nuevas herramientas como Crowdtangle, una aplicación de investigación de redes sociales propiedad de Facebook que recopila datos disponibles al público sobre grupos y páginas en Facebook, Instagram, Twitter y Reddit, son un componente crítico. Como señala Kuzel: "Con Crowdtangle para Facebook e Instagram podemos obtener los datos históricos, lo que marca una gran diferencia. Nos sentimos más cómodos cuando podemos analizar períodos más grandes y más datos y ese no siempre fue el caso"10. Herramientas como Crowdtangle aumentan el campo de visión para los observadores, pero ocultan comentarios y otra información privada sobre los usuarios. Los observadores y otros investigadores deben conocer los puntos ciegos de cualquier herramienta (por ejemplo, grupos privados de Facebook) que no están cubiertos por la plataforma. 

Exponiendo la desinformación a través del monitoreo electoral

Las iniciativas de monitoreo y reforma electoral presentan una serie de oportunidades para la promoción a nivel local, nacional e internacional. Los observadores electorales están en una posición sólida para dar recomendaciones claras y viables a través de declaraciones de observación, así como proyectos de reforma electoral a largo plazo para mejorar la transparencia y promover un entorno de información electoral saludable. Las declaraciones de observación de elecciones de los observadores electorales internacionales pueden llamar la atención internacional a desafíos particulares, y las recomendaciones contenidas en esas declaraciones a menudo sirven como puntos de referencia para que los actores democráticos persigan avances y generen responsabilidad por sus objetivos relevantes. Por ejemplo, las misiones internacionales de observación de elecciones en Ucrania señalaron las deficiencias continuas de la industria tecnológica en la transparencia de la publicidad política en línea y limitaciones en su capacidad para gestionar la desinformación electoral a nivel local. Las organizaciones internacionales que observan las elecciones también pueden llamar la atención a cuestiones normativas que deben abordar las empresas de tecnología y pueden ayudar a atraer la atención de las organizaciones intergubernamentales y otros sectores en relación con esas cuestiones. 

Mientras tanto, los observadores electorales ciudadanos ya desempeñan un papel eficaz al destacar las deficiencias en las regulaciones y la aplicación en sus propios países, y abogar por reformas. En medio de los continuos intentos de grupos políticos y actores extranjeros de socavar el entorno electoral en Georgia, la ISFED se coordinó con otras 48 organizaciones líderes de la sociedad civil y los medios de comunicación de Georgia para presionar con éxito a Facebook a fin de que aumente las medidas de transparencia y rendición de cuentas antes de las elecciones parlamentarias de 2020. Los grupos de observadores ciudadanos de Sri Lanka trabajaron juntos para presionar al gobierno con el objetivo de que proporcionara mecanismos más sólidos de supervisión financiera de las campañas para los anuncios políticos en línea. 

Apoyar los esfuerzos de reforma electoral y el diálogo entre los organismos electorales (EMB, por sus siglas en inglés) y los observadores para ampliar la disponibilidad de información electoral y fomentar la transparencia de los datos políticos, como los resultados de las votaciones (desde la mesa de votación hasta el nivel nacional), los registros de votantes y las cifras de población relacionadas, los procesos de adquisiciones, la adjudicación de quejas y los anuncios políticos en las redes sociales, puede ser fundamental para abordar la desinformación y la información falsa. Los datos transparentes y accesibles pueden inocular a los EMB de las teorías de la conspiración o la información falsa al mismo tiempo que aumentan la capacidad de los ciudadanos para verificar la información que puedan recibir de terceros. La participación constructiva en este frente puede ayudar a generar confianza pública en instituciones electorales que, de otro modo, serían vulnerables y alentar a los OE a desarrollar sus propias estrategias para mitigar y responder a los intentos de desinformación de socavar su propia credibilidad.

Exponiendo la desinformación a través del monitoreo electoral

La desinformación puede manifestarse de maneras complejas y, para abordarla, puede ser necesaria una variedad de actores. Los grupos de observadores que carecen del tiempo, los recursos o las habilidades para lanzar sus propios esfuerzos de monitoreo de redes sociales también pueden colaborar, de manera formal o informal, con grupos de monitoreo de medios, académicos, defensores de la tecnología, asociaciones de periodistas, organizaciones de derechos de la mujer, organizaciones que se componen de grupos marginados y que los representan, organizaciones de prevención de conflictos u otros actores que posiblemente ya estén evaluando problemas de desinformación. Dichas asociaciones pueden garantizar que los observadores electorales consideren debidamente la calidad del espacio de información electoral en su análisis electoral general sin hacer ellos mismos la recopilación directa de los datos.

Los observadores también pueden considerar alianzas con grupos de monitoreo no tradicionales, como verificadores de datos y otras organizaciones de investigación con experiencia en redes sociales y monitoreo en línea más amplio. Un informe corredactado por el Open Society European Policy Institute y Democracy Reporting International destaca de qué manera grupos que van desde proyectos académicos (como el Proyecto de propaganda computacional del Oxford Internet Institute y la Sala de democracia digital de la Fundación Getúlio Vargas de Brasil) y grupos de expertos (como el Digital Forensic Research Lab de Atlantic Council), a organizaciones de verificación de datos (como debunk.eu) y del sector privado (como Bakamo.Social) han contribuido con el monitoreo de las elecciones de diversas formas.11 La colaboración de múltiples partes interesadas constituye una base potencial para el desarrollo de la observación y el monitoreo de las elecciones de la próxima generación, lo que les permite a los observadores electorales incorporar los hallazgos de socios confiables en las evaluaciones electorales en lugar de duplicar su trabajo, ampliando así la posible influencia para la promoción en torno a normas y estándares. Este puede ser un enfoque particularmente útil para los observadores electorales internacionales, que son forasteros por definición y que hacen análisis en un período de tiempo relativamente corto.  

Design Tip


Los grupos también pueden aprovechar las asociaciones para convocar mesas redondas de múltiples partes interesadas sobre la lucha contra la desinformación, o para ampliar el orden del día de los foros preexistentes para el intercambio de información en torno a las elecciones con el fin de debatir también cómo los partidos, los medios de comunicación, los organismos electorales (EMB), los observadores y otros pueden ayudarse mutuamente a difundir la información al público en general y a generar la responsabilidad de mantener la integridad de la información.

Las relaciones con organismos electorales creíbles son particularmente importantes tanto para abordar la desinformación a través de la educación de los votantes como para alentar a los OE a mejorar sus habilidades para responder rápidamente a la desinformación electoral. Por ejemplo, el NDI coorganizó un evento con la comisión electoral de México (INE) que se centró en responder a las amenazas de desinformación en las elecciones del 1 de julio de 2018 en México. Esto reunió a una mezcla diversa de partes interesadas electorales, incluidos representantes de las principales plataformas tecnológicas, académicos, supervisores electorales y otros activistas cívicos, además de los administradores electorales. Para facilitar una mayor colaboración entre las partes electorales interesadas, el NDI organizó talleres y reuniones de coordinación periódicos entre grupos de tecnología cívica, verificadores de datos y grupos de observadores electorales ciudadanos para colaborar en la lucha contra la desinformación electoral. Este enfoque fue particularmente útil para fusionar la experiencia en tecnología cívica de México con la lente de análisis electoral que los grupos de observadores podrían proporcionar. 

Siguiendo un modelo similar, la Fundación Taiwán para la Democracia (Taiwan Foundation for Democracy, TFD), bajo el mecanismo del Marco Global de Cooperación y Formación (Global Cooperation and Training Framework, GCTF), organizó una conferencia en septiembre de 2019 titulada "Defender la democracia mediante la promoción de la alfabetización mediática II".12 Su propósito era examinar las diferentes formas en que la desinformación influye en las elecciones en todo el mundo, la implementación de la educación en alfabetización mediática en los planes de estudio, de qué manera han evolucionado las iniciativas del gobierno y la sociedad civil para combatir la desinformación y los desafíos que enfrentan. La conferencia reconoció el hecho de que Taiwán y otros países de la región de Asia y el Pacífico tuvieron elecciones presidenciales y generales en 2020.  

NDI se asoció con la TFD para el evento del GCTF e identificó una oportunidad para combinar la conferencia con un evento de capacitación más práctico para grupos cívicos de toda la región. Después del GCTF, el NDI organizó y dirigió un taller de un día denominado "Defender la integridad electoral contra la desinformación", al que asistieron 13 participantes de la sociedad civil financiados por el NDI, en su mayoría representantes de grupos de observadores electorales ciudadanos y organizaciones de verificación de datos en países asiáticos con elecciones próximas, e invitados del movimiento de tecnología cívica de Taiwán. Con base en la información presentada durante el GCTF, en el taller se exploró el monitoreo de las redes sociales en mayor profundidad. Además, se compartieron estrategias y herramientas para evaluar los entornos de información, navegar las plataformas de redes sociales, recopilar y analizar datos de las redes sociales, desarrollar enfoques para contrarrestar el discurso antidemocrático y responsabilizar a las diversas partes interesadas. Este taller brindó a los grupos de observadores ciudadanos y verificadores de datos del mismo país la oportunidad de trabajar juntos en enfoques de apoyo mutuo, promoción y coordinación previos a sus respectivas elecciones. 

Se han desplegado esfuerzos relacionados para desarrollar un mejor consenso en un universo más amplio de actores para los observadores internacionales. Por ejemplo, el Centro Carter desarrolló una asociación con la organización de periodismo de base Hacks Hackers para llevar a cabo una serie de talleres entre grupos de observadores electorales internacionales, otros profesionales de asistencia electoral, redes internacionales de verificación de datos, académicos y tecnólogos con el objetivo de fortalecer las intervenciones y las mejores prácticas para verificar las elecciones ante la desinformación e información falsa en las redes sociales. 

Exponiendo la desinformación a través del monitoreo electoral

Además de forjar nuevas asociaciones para enfrentar el problema de la desinformación en las elecciones, las redes electorales preexistentes, como la Red Global de Supervisores Electorales Nacionales (GNDEM, por sus siglas en inglés) o la Declaración de Principios para la comunidad de Observación Electoral Internacional pueden promover el tema de la desinformación, generar consenso en torno a la definición de las dificultades que plantea a la integridad electoral y desarrollar métodos óptimos para contrarrestarla. 

A medida que más organizaciones de monitoreo electoral comienzan a incorporar el monitoreo de la desinformación en sus esfuerzos de observación más amplios, surgen abundantes oportunidades de aprendizaje entre pares y una mejora de las metodologías de monitoreo. En septiembre de 2019, en Belgrado (Serbia), el NDI organizó una academia intensiva para observadores ciudadanos de 20 organizaciones diferentes de todo el mundo sobre la detección, exposición y lucha contra la desinformación maliciosa. Los participantes de la academia aprendieron cómo la desinformación afecta la integridad electoral, socava los principios democráticos y debilita la confianza de los ciudadanos en las elecciones. Los participantes compartieron estrategias y métodos para monitorear la desinformación en sus propios contextos. Además, realizaron ejercicios sobre la evaluación de entornos de información en sus países y practicaron el uso de diversas herramientas para rastrear y analizar la desinformación en línea. La estructura de la academia alentó a los participantes a compartir las experiencias de sus organizaciones y destacó las lecciones aprendidas al trabajar con diversas herramientas de monitoreo de redes sociales. Por ejemplo, ISFED y CDD-West Africa facilitaron discusiones y presentaron los métodos y herramientas que sus organizaciones usaban para monitorear la desinformación en sus respectivos contextos.  

 

 

Los participantes también exploraron métodos para abogar por una mayor transparencia en las plataformas en línea y promover el discurso político basado en hechos. Esto incluyó trabajar juntos para identificar formas de responsabilizar a las instituciones, construir redes de defensa y crear mensajes eficaces para frustrar las narrativas tóxicas, arraigadas en la experiencia local de cada grupo. 

Las iniciativas de intercambio de conocimientos han dado lugar a documentos y recursos de orientación concretos. Durante una serie de reuniones y consultas de redacción en la primavera de 2019, un pequeño grupo de trabajo que representa una combinación de observadores electorales internacionales, incluidos el NDI, supervisores de elecciones ciudadanas, académicos, grupos de verificación de datos y tecnólogos cívicos, desarrolló una guía para el monitoreo de redes sociales por parte de la sociedad civil, encabezada por Democracy Reporting International (DRI). Esta guía incluye secciones sobre metodología, consideraciones legales y herramientas para el monitoreo de redes sociales en elecciones por parte de grupos cívicos, con la finalidad de crear estándares colectivos y métodos óptimos para grupos que trabajan en ese espacio.

Se están realizando iniciativas similares en la comunidad internacional de observación de elecciones como parte de la aplicación continua de la Declaración de Principios. Un grupo de trabajo que actúa de conformidad con la Declaración de Principios está creando consenso en torno a un marco para observar y evaluar campañas y recomendaciones en línea con base en estándares internacionales y métodos óptimos. Como se mencionó en la sección anterior sobre observación internacional de elecciones, muchas organizaciones participantes ya han comenzado a incorporar este trabajo en sus misiones de observación. El grupo de trabajo presenta la oportunidad de identificar un conjunto de enfoques, arraigados en estándares internacionales (libertad de expresión, transparencia, derecho a la participación política, derecho a la privacidad, igualdad y no discriminación, recurso efectivo) y los respectivos mandatos de los patrocinadores de la Declaración de Principios para evaluar las campañas en línea y buscar un acuerdo sobre un conjunto común de guías para la observación de las campañas en línea por parte de las misiones internacionales de observación de elecciones. Estos principios rectores serán revisados y respaldados en la reunión anual de implementación de la Declaración de Principios en Bruselas en la primavera de 2021.

Exponiendo la desinformación a través del monitoreo electoral

Desafortunadamente, con los avances tecnológicos, las actividades de desinformación digital y la propaganda computacional presentan dificultades nuevas y singulares para la observación electoral. Identificar redes y conexiones en torno a la creación, difusión y amplificación de la desinformación y los discursos de odio en las elecciones es particularmente complicado. Las fuentes en línea carecen de transparencia, y el contenido a menudo se difunde a través de medios de comunicación falsos, sitios web falsos o cuentas de redes sociales animadas por "granjas" de usuarios contratados e impulsadas por cuentas bot automatizadas. 

Esto se ve agravado por el hecho de que la popularidad de ciertas plataformas de redes sociales y aplicaciones de mensajería varía drásticamente según el país y la plataforma, al igual que el acceso a los datos subyacentes, mientras que las técnicas y el contenido de desinformación no dejan de evolucionar. La creciente popularidad de los servicios de mensajería cerrada presenta serias consideraciones éticas para los observadores electorales que monitorean su influencia. Además, la atención, el compromiso en la práctica y la implementación de nuevas medidas de transparencia y moderación del contenido que brindan las plataformas en línea siguen siendo desparejas en los diferentes países. Por lo tanto, las herramientas y metodologías de monitoreo que pueden ser eficaces en un contexto podrían ser irrelevantes en otro. 

La incorporación de las redes sociales y otras formas de observación en línea a las evaluaciones electorales se encuentra en una fase experimental, y los supervisores aún enfrentan dificultades incipientes e identifican situaciones a partir de las cuales aprender. Algunas de ellas son nuevos factores técnicos y políticos que pueden complicar las observaciones, que podrían requerir metodologías flexibles para desarrollar una evaluación electoral más inclusiva y completa. 

Observación de los servicios de mensajería cerrada

En muchos países, las campañas, la educación de los votantes y el discurso político general en torno a las elecciones se están trasladando a servicios de mensajería cerrada como WhatsApp y Telegram. Estas redes crean grandes dificultades en términos de qué es aceptable monitorear y cómo llevar a cabo el monitoreo. Incluso los canales privados de las redes públicas (como los grupos de Facebook que son cerrados) crean serias consideraciones éticas para cualquier posible estudio de la desinformación. Los investigadores pueden considerar declarar que se unen a grupos cerrados, como hizo el grupo de investigación de CDD-West Africa en su estudio. Sin embargo, eso tiene el potencial de cambiar la naturaleza de la conversación dentro de tales grupos. Otra solución es invitar a los usuarios que ya están en grupos cerrados a enviar ejemplos de contenido problemático, aunque este enfoque introduce un sesgo de selección y proporciona un panorama sumamente limitado de la parte cerrada del entorno virtual. Algunos activistas cívicos (con el uso de tácticas que CEPPS no avala) han expuesto a organizaciones cerradas insidiosas, tales como grupos de odio, mediante suplantación de identidad o cuentas inventadas. Este enfoque infringe los términos de servicio de las plataformas y presenta serias cuestiones éticas para los investigadores. Los observadores deben lidiar con estos problemas al identificar una forma apropiada de monitorear las plataformas cerradas, además de otras dificultades metodológicas, particularmente porque los observadores desempeñan un papel diferente al de los investigadores académicos tradicionales. Michael Baldassaro, líder de amenazas digitales del Centro Carter, señala: "Necesitamos alguna consideración que tenga en cuenta la ley, y consideraciones éticas que sean diferentes de los estándares académicas. No me siento cómodo con entrar en un grupo de WhatsApp y decir que estoy allí como investigador. Por lo tanto, necesitamos desarrollar modalidades para lo que es apropiado monitorear… ¿y cómo lo hacemos?".13

Exposición de barreras digitales al proceso electoral para mujeres y grupos marginados

El desorden de la información a menudo afecta de manera desproporcionada a las mujeres y a las poblaciones marginadas como participantes y como votantes, lo que frecuentemente desfavorece aún más a las candidatas mujeres y fomenta espacios en línea inseguros donde las mujeres y los grupos marginados son disuadidos de participar en el discurso político o se ven obligados a abandonarlo por completo. Además, muchos sistemas de moderación de contenido, ya sea impulsados por el aprendizaje automático y la inteligencia artificial o por el monitoreo directo de actores humanos, ignoran el factor género y están poco versados en el contexto local, incluidos los patrones y dimensiones de las normas socioculturales y las vulnerabilidades de las poblaciones marginadas. 

Sin embargo, las organizaciones nacionales e internacionales encuestadas en esta investigación señalaron que esta era un área de preocupación, pero no una a la cual generalmente destinaran recursos específicos para evaluar. En algunos casos, los métodos, las unidades de análisis y las herramientas para monitorear el discurso de odio o la violencia contra las mujeres en el ámbito digital pueden diferir de la metodología más amplia de monitoreo de redes sociales. Por ejemplo, el control de la incitación al odio puede ser impulsado por léxicos de lenguaje peligroso, como se explora en la metodología desarrollada por el NDI y sus socios y expuesta en Tweets that Chill: Examining Online Violence Against Women in Politics (Tuits que hielan la sangre: examen de la violencia en línea contra las mujeres en la política), que parten del examen de contenido y palabras clave. Los supervisores electorales podrían necesitar equilibrar múltiples enfoques para obtener una imagen real del panorama de la información electoral y cómo afecta a grupos particulares. Los grupos de observadores deben contratar a expertos en género para examinar estos temas a fin de comprender mejor cómo funcionan las normas de género existentes en el contexto de desinformación local, al igual que coordinarse con grupos enfocados en el impacto de la desinformación en las mujeres y los grupos marginados en las elecciones y otros contextos políticos críticos. Los grupos de observadores nacionales e internacionales deben revisar sus propios prejuicios implícitos y culturas de masculinidad que puedan obstaculizar la observación electoral inclusiva, en particular porque el espacio virtual presenta nuevas amenazas para las mujeres y las personas marginadas, y puede reforzar normas regresivas. 

Hernández, Director de comunicaciones del Ministerio de Educación, señaló que en misiones anteriores no se habían centrado en esto de manera sistemática, pero estaban interesados en desarrollar esta capacidad en el futuro, y señaló a grupos como Chicas Poderosas, que habían integrado con éxito el monitoreo del discurso de odio en elecciones recientes en Brasil, Colombia y México. En Colombia, Chicas Poderosas desarrolló talleres para capacitar a investigadores y activistas locales en el seguimiento del discurso político de odio en grupos de mensajería cerrada antes de las elecciones presidenciales de 2018.14 Metodologías como estas para estudiar el contenido, las redes y el impacto de la desinformación y el discurso de odio dirigido a mujeres y grupos marginados deben integrarse de manera más amplia y sistemática en los proyectos de monitoreo de elecciones en el futuro. 

Explorar las intervenciones a través de las plataformas de redes sociales

Las empresas de redes sociales y de otras tecnologías responden cada vez más a las amenazas que se producen en sus plataformas. En algunos casos, esto ha significado brindar más transparencia respecto de los anuncios políticos que aparecen en sus plataformas, más información sobre moderadores de grupos o páginas, mayor capacidad de respuesta a contenido marcado, y políticas específicas relacionadas con la administración de contenido que pueda socavar la integridad electoral. Sin embargo, el cómo y el dónde se aplican estas iniciativas varía drásticamente de un país a otro y carece del nivel de granularidad necesario para llevar a cabo un análisis sólido. Además, muchas plataformas carecen de representantes y moderación de contenido en contextos más pequeños y en países que están fuera de sus principales mercados. Puede ser difícil para los observadores obtener información sobre si las plataformas responderán, y cuándo y cómo responderán a unas elecciones en particular. Esto disminuye la capacidad de los observadores de desarrollar estrategias de observación profundas que involucren a esas plataformas. Los grupos de monitoreo deben abogar por una mayor transparencia de las plataformas y trabajar para mantener líneas abiertas de comunicación con estas empresas, particularmente en torno a las elecciones, para incrementar la responsabilidad corporativa de proteger el entorno electoral virtual.   

Desarrollo de metodologías apropiadas y específicas al contexto

Las variaciones en el cómo y el dónde los ciudadanos consumen la información electoral y la naturaleza dinámica de las amenazas digitales en torno a las elecciones implican que no existe una metodología de monitoreo que sirva para todos los casos. Los grupos nacionales e internacionales deben considerar formas innovadoras de asociarse entre sí, al igual que con verificadores de hechos y defensores de la inclusión política de las poblaciones marginadas, a fin de lograr comprender mejor los contextos. El monitoreo de las redes sociales puede parecer abrumadora en escala y alcance para los grupos de observadores electorales, con cantidades casi ilimitadas de páginas, perfiles, canales y volúmenes de datos para recopilar y analizar potencialmente. Para llevar a cabo la gestión, los observadores deben desarrollar objetivos que sean claros, realistas, de alcance limitado y que se deriven de una evaluación preliminar del entorno de información. Las metodologías posteriores deben buscar alcanzar esos objetivos. Solo después de aclarar las áreas discretas de observación, los grupos deben comenzar a identificar herramientas pertinentes que se adapten a las necesidades del proyecto y a los recursos técnicos y humanos de la organización. Además, los grupos deben ser transparentes respecto de los límites de sus datos y reflexivos al sacar conclusiones.  

Los observadores deben considerar diferentes enfoques potenciales para comprender el entorno electoral virtual. La era de la información presenta nuevas oportunidades de desarrollar investigaciones para comprender cómo fluyen las conversaciones en línea, así como nuevos problemas para la integridad electoral, ya que las tendencias de los discursos se ocultan de la vista en formas que no eran posibles cuando la mayoría de las conversaciones se llevaban a cabo en los medios tradicionales. Este es un momento dinámico e importante para que todos los observadores consideren las implicaciones de su trabajo en el espacio virtual, incluidos los ejemplos y métodos analizados y presentados aquí. Continuar con el debate y el intercambio de conocimientos, tanto en línea como fuera de ese ámbito, constituirán un elemento clave para contrarrestar la desinformación mediante el monitoreo de elecciones. La capacidad de interactuar con socios no tradicionales, como plataformas tecnológicas, verificadores de hechos y otros en las elecciones, también es crucial. Con estas consideraciones analizadas aquí, los observadores estarán más preparados para abordar el entorno virtual e integrarlo en su planificación y en las recomendaciones para las elecciones en el futuro.

Desarrollo de normas y estándares sobre desinformación

Escrito por Daniel Arnaudo, Asesor de Estrategias de Información del National Democratic Institute

 

Los marcos normativos para el espacio de la información se han desarrollado a lo largo de muchos años, a través de colaboraciones entre grupos de la sociedad civil, empresas del sector privado, el gobierno y otras partes interesadas. Sin embargo, las normas y estándares específicos para trabajar en temas de desinformación o redes sociales se encuentran en etapas iniciales: ya sea revisando las iniciativas existentes para abordar las nuevas amenazas en línea, por ejemplo, a través de la moderación de contenido, la gobernanza corporativa, la agenda digital y el espacio de ciberseguridad o creando nuevas iniciativas dedicadas específicamente a la desinformación y los problemas relacionados con las redes sociales. 

Esta sección examinará cómo están evolucionando los diferentes códigos y principios en este espacio y cómo pueden potencialmente vincularse con las mejores prácticas existentes a nivel internacional, así como las formas en que los programas pueden diseñarse para vincularse con estos marcos emergentes. Algunos códigos funcionan organizativamente, por ejemplo, cómo deben comportarse las partes, las entidades del sector público o privado para desalentar el uso y la promoción de la desinformación, la propaganda computacional y otras formas dañinas de contenido, al tiempo que fomentan la apertura, la libertad de expresión, la transparencia y otros principios positivos relacionados con la integridad del espacio de información. Otros trabajan en términos de códigos de práctica individuales, como para encargados del monitoreo de medios de comunicación, verificadores de datos e investigadores en el espacio. En esta sección, se considerarán los esfuerzos tanto organizacionales como individuales.

Una forma de entender estos marcos normativos para el espacio de la información es como una forma de negociación. Por ejemplo, la negociación entre empresas de tecnología y otros grupos (como gobiernos, anunciantes, medios de comunicación y profesionales de la comunicación) en un acuerdo sobre normas y estándares compartidos en organizaciones no gubernamentales, medios de comunicación y la sociedad civil que brinden supervisión y, en cierta medida, tengan poderes de aplicación de estas reglas. Diferentes partes interesadas celebran diferentes formas de acuerdo con los sectores de tecnología de la información y las comunicaciones en función del tema acordado, los principios involucrados, los medios de supervisión y salvaguardas y, en última instancia, las consecuencias de cualquier derogación o divergencia de los términos. Estos estándares también se enfocan en los diferentes vectores de desorden de la información, contenido, fuentes y usuarios. Por ejemplo, los estándares normativos de moderación de contenido como los Principios de Santa Clara, los principios de verificación de datos que se centran tanto en las fuentes como en el contenido de la International Fact-Checking Network del Poynter Institute o estándares como el Código sobre Desinformación de la UE que intentan abordar los tres: el contenido mediante el fomento de una mejor moderación, las fuentes mediante el fomento de los esfuerzos para identificarlos y los usuarios mediante estándares de alfabetización mediática e información. 

Otros actores, como los partidos, los formuladores de políticas y el sector público, pueden trabajar para garantizar que se cumplan las normas relacionadas con las operaciones en línea, con diversos grados de éxito. En última instancia, estos marcos normativos dependen de los acuerdos entre las partes para cumplirlos, pero la sociedad dispone de otras formas de supervisión y ejecución. Además, la integración de enfoques inclusivos en cuestiones de género para el desarrollo de normas y estándares y el reflejo de cómo trabajar para promover la igualdad de género y la inclusión social en general y trabajar para contrarrestar la desinformación puede y debe reforzarse mutuamente. Muchos de los marcos se dirigen a las partes interesadas corporativas y al sector de la tecnología en particular, como los Principios de Santa Clara sobre la responsabilidad y transparencia en la moderación de contenidos, Ranking Digital Rights, la Global Network Initiative, y los Códigos de prácticas sobre desinformación y discurso de odio de la Unión Europea, mientras que otros se involucran con una gama más amplia de grupos, incluidos los actores de la sociedad civil, el gobierno, los medios de comunicación y los sectores de las comunicaciones. Otros marcos intentan comprometerse con los propios partidos para crear códigos de conducta en línea para candidatos y campañas, ya sea a través de acuerdos informales o códigos de conducta más explícitos. Por último, se pueden utilizar marcos normativos para garantizar que los actores que trabajan en campos relacionados con cuestiones de desinformación promuevan la integridad de la información, como los periodistas y los verificadores de datos.

Esta sección cubrirá estas categorías de intervenciones normativas que abordan el contenido, los actores (como las plataformas) y los destinatarios de la desinformación, el discurso de odio, la propaganda computacional y otras formas dañinas de contenido, que incluyen: 

Todos estos marcos tienen elementos que impactan en el espacio de la información, particularmente en torno a la libertad de expresión, la privacidad y los conflictos inherentes en la creación de espacios abiertos para la conversación en línea, al mismo tiempo que garantizan la inclusión y las sanciones por contenido de odio u otro contenido problemático. También están evolucionando y adaptándose a los nuevos desafíos de una sociedad cada vez más en línea y en la red que se enfrenta a la desinformación, el discurso del odio y otros contenidos dañinos. Esta guía ahora revisará información y análisis más detallados de estos enfoques y modelos potenciales, así como organizaciones asociadas, entidades de financiamiento y mecanismos organizacionales.

Desarrollo de normas y estándares sobre desinformación

Se han desarrollado muchos marcos normativos para gobernar el espacio en línea, abordando cuestiones relacionadas con conceptos tradicionales de derechos humanos, como la libertad de expresión, la privacidad y la buena gobernanza. Algunos de estos se conectan con la construcción de estándares normativos para el espacio en línea en torno a la desinformación para ayudar a promover la integridad de la información, pero abordan diferentes aspectos de internet, la tecnología y la gobernanza de la red. La Global Network Initiative (GNI) es un ejemplo más antiguo, que se formó en 2008 después de dos años de desarrollo, en un esfuerzo por alentar a las empresas de tecnología a respetar la libertad de expresión y los derechos de privacidad de los usuarios. Los componentes se vinculan con los principios de integridad de la información, primero asegurando que la esfera pública esté abierta a la libertad de expresión, segundo asegurando que los datos de los usuarios estén protegidos y no sean mal utilizados por actores malintencionados potencialmente para atacarlos con desinformación, propaganda computacional u otras formas de contenido nocivo.

Highlight


Los Principios de la GNIcentrados en conceptos como la libertad de expresión, la privacidad, la gobernanza, la responsabilidad y la transparencia, proporcionan un marco para que las empresas apliquen los principios de derechos humanos a sus prácticas, mientras que las Pautas de aplicación sirven como un mecanismo para que se apliquen en respuesta a las demandas de censura y vigilancia de los gobiernos.

La GNI también sirve como un mecanismo de acción colectiva entre las organizaciones de la sociedad civil y otras partes interesadas en la promoción de una regulación mejor informada en torno a las tecnologías de la información y la comunicación (ICT, por sus siglas en inglés), incluidas las redes sociales, para promover los principios de libertad de expresión y privacidad. Esto incluye redes de asesoramiento, como Christchurch Call Network y Freedom Online Coalition, así como la participación en organismos internacionales multisectoriales, centrados en temas relacionados con el extremismo en línea y los derechos digitales, como los patrocinados por las Naciones Unidas y el Consejo de Europa.

RegiónAntecedentes
Global

La Global Network Initiative es una coalición internacional que busca aprovechar la colaboración con las empresas de tecnología para respaldar los Principios de la GNI ("los Principios") y las Pautas de Implementación, que proporcionan un marco en evolución para la toma de decisiones empresariales responsable en apoyo de la libertad de expresión y los derechos de privacidad. A medida que se expande la participación de nuestra empresa, los Principios se están afianzando como el estándar global para los derechos humanos en el sector de las tecnologías de la información y comunicación. La GNI también apoya colectivamente a los gobiernos y las instituciones internacionales por leyes y políticas que promuevan y protejan la libertad de expresión y la privacidad, por ejemplo, a través de instrumentos como el Pacto internacional de derechos civiles y políticos y, posteriormente, los Principios rectores de las Naciones Unidas sobre las empresas y los derechos humanos. Ha evaluado empresas como Facebook, Google, LinkedIn y Microsoft.

Principios de la GNI: 

  • Libertad de expresión
  • Privacidad
  • Toma de decisiones responsable de la empresa
  • Colaboración de múltiples partes interesadas
  • Gobernanza, responsabilidad y transparencia

En octubre de 2008, representantes de empresas de tecnología, la sociedad civil, inversores socialmente responsables y el mundo académico lanzaron la Global Network Initiative. Después de dos años de discusiones, lanzaron un conjunto de principios enfocados principalmente en cómo las empresas que administran tecnologías de internet podrían garantizar la libertad de expresión y la privacidad en sus redes. También establecieron pautas para la implementación de estos principios. Entre las empresas de tecnología con activos relacionados con la desinformación, las redes sociales y el espacio de información general se encuentran Facebook, Google y Microsoft. Los representantes de la sociedad civil incluyen Center for Democracy and Technology, Internews y Human Rights Watch, así como representantes del Sur Global, como la Fundación Karisma de Colombia y el Center for Internet and Society en India.

Cada dos años, la GNI publica una evaluación de las empresas involucradas en la iniciativa, midiendo su cumplimiento de los principios y su éxito en la implementación de aspectos de los mismos. La última versión se publicó en abril de 2020 y abarca 2018 y 2019. Los principios relacionados con la libertad de expresión están relacionados con cuestiones de desinformación, pero se centran más en las empresas que permiten la libertad de expresión en lugar de prevenir los daños potenciales que provienen de formas maliciosas de contenido, como la desinformación y el discurso de odio.

Estos estándares y la GNI han fomentado una mayor interacción entre las empresas de tecnología y los representantes del ámbito académico, los medios de comunicación y la sociedad civil, y una mayor consulta sobre temas relacionados con la integridad de la información, en particular la censura y la moderación de contenido. Por ejemplo, una ley de noticias falsas en Brasil requeriría la "trazabilidad" de los usuarios, o el registro con documentos gubernamentales dentro de Facebook y otras redes sociales que deseen operar en el país, para que puedan ser identificados para la aplicación de una sanción en el caso de que estén difundiendo desinformación. Esto entraría en conflicto con las disposiciones de privacidad de la GNI que garantizan que los usuarios tengan acceso anónimo a las redes. La GNI emitió una declaración en la que menciona estos problemas y se ha manifestado en contra de la ley propuesta. Esto muestra de qué manera se puede utilizar este marco para la promoción conjunta a través de un esfuerzo de múltiples partes interesadas, aunque su eficacia es menos clara.  No obstante, la GNI ha ayudado a formar una base para otros esfuerzos que se han desarrollado desde entonces, incluidos los Principios de Santa Clara sobre la moderación de contenido y los Códigos de la UE sobre desinformación y discurso de odio, que se han centrado más específicamente en cuestiones de redes sociales.

Otros grupos se han enfocado en desarrollar estándares que vinculen los derechos humanos y otras normas en línea con los principios democráticos. La Carta de Democracia Digital del Luminate Group, por ejemplo, creó una lista de derechos y responsabilidades para el entorno y la política de los medios digitales. La Carta de Democracia Digital (DDC, por sus siglas en inglés) "busca construir sociedades más fuertes a través de una agenda de reformas: eliminar, reducir, señalar, auditar, privacidad, competir, proteger, educar e informar". De manera similar, el Instituto Nacional Demócrata, apoyado en parte por los socios de CEPPS, ha desarrollado los Principios democráticos para el espacio de la información, que apuntan en parte a abordar los problemas de derechos digitales y a contrarrestar el discurso nocivo en línea a través de estándares democráticos para políticas de plataforma, moderación de contenido y productos.

RegiónAntecedentes
Global

Principios de Manila sobre responsabilidad de intermediarios 

  • Definir varios principios que deben seguir las empresas intermediarias cuando operan en entornos democráticos y autoritarios, incluidos los siguientes: Los intermediarios deben estar protegidos de toda responsabilidad por el contenido de terceros; no se debe exigir la restricción del contenido sin la orden de una autoridad judicial; las solicitudes de restricciones de contenido deben ser claras, inequívocas y seguir el debido proceso; las leyes y las órdenes y prácticas de restricción de contenido deben cumplir las pruebas de necesidad y proporcionalidad.
  • Las leyes y las políticas y prácticas de restricción de contenido deben respetar el debido proceso; la transparencia y la responsabilidad deben integrarse en las leyes y las políticas y prácticas de restricción de contenido.

Los Principios de Manila sobre la responsabilidad de los intermediarios fueron desarrollados en 2014 por un grupo de organizaciones y expertos enfocados en políticas y leyes tecnológicas de todo el mundo. Los redactores de los principios incluyen a la Electronic Frontier Foundation, el Center for Internet and Society de India, KICTANET (Kenia), Derechos Digitales (Chile) y Open Net (Corea del Sur) que representan una amplia gama de regiones y perspectivas tecnológicas. Se relacionan con cuestiones de responsabilidad por el contenido en las redes que han surgido en los EE. UU. y Europa en torno a la sección 230 de la Ley de decencia en las comunicaciones de 1996 o la Ley de aplicación de la red de Alemania (NetzDG) de 2017. 

Principios de Manila sobre la responsabilidad de los intermediarios

1 Los intermediarios deben estar protegidos de la responsabilidad por el contenido de terceros.

2 No se debe exigir la restricción del contenido sin la orden de una autoridad judicial.

3 Las solicitudes de restricciones de contenido deben ser claras, inequívocas y seguir el debido proceso.

4 Las leyes y las órdenes y prácticas de restricción de contenido deben cumplir las pruebas de necesidad y proporcionalidad.

5 Las leyes y las políticas y prácticas de restricción de contenido deben respetar el debido proceso.

6 La transparencia y la responsabilidad deben integrarse en las leyes y las políticas y prácticas de restricción de contenido.

Acordaron estándares básicos que sostienen que los intermediarios como Facebook, Google y Twitter, que alojan contenido o lo administran de alguna manera, deben cumplir los estándares democráticos básicos, mientras que los gobiernos también deben respetar ciertas normas con respecto a las regulaciones y otras formas de control de contenido y las redes. Su manifiesto expresaba:

Toda comunicación a través de internet es facilitada por intermediarios, como proveedores de acceso a internet, redes sociales y motores de búsqueda. Las políticas que rigen la responsabilidad legal de los intermediarios por el contenido de estas comunicaciones tienen un impacto en los derechos de los usuarios, incluida la libertad de expresión, la libertad de asociación y el derecho a la privacidad. Con el objetivo de proteger la libertad de expresión y crear un entorno propicio para la innovación, que mantenga un equilibrio de las necesidades de los gobiernos y otras partes interesadas, grupos de la sociedad civil de todo el mundo se han unido para proponer este marco de salvaguardas y mejores prácticas de referencia. Estas salvaguardas y prácticas se basan en instrumentos internacionales de derechos humanos y otros marcos legales internacionales.

Sus principios se detallan a continuación, y sostienen que los intermediarios deben tener mecanismos legales que los protejan de la responsabilidad por el contenido que alojan en sus servidores. Este principio sirve para mantener una conversación abierta y sistemas de moderación manejables. En segundo lugar, en este sentido, los principios afirman que el contenido no debe restringirse fácilmente sin órdenes judiciales, que deben ser claras y seguir el debido proceso. En tercer lugar, estas órdenes y prácticas relacionadas deben cumplir las pruebas de necesidad y proporcionalidad, o deben ser razonablemente necesarias y proporcionales a la gravedad del delito o error. Por último, la transparencia y la responsabilidad por estas leyes deben integrarse en cualquiera de estos sistemas legales para que todos puedan ver cómo operan y se están aplicando. 

Estos sistemas y principios han proporcionado una forma para que los firmantes y otras organizaciones de la sociedad civil evalúen cómo los países están administrando los sistemas en línea y cómo las plataformas pueden administrar su contenido y aplicar las normas democráticas a sus propias prácticas. Varias organizaciones se han adherido, desde ONG y organizaciones de medios de comunicación, grupos de derechos humanos y políticos, hasta tecnólogos cívicos. Esta diversidad técnica y geográfica le da a estos principios el respaldo y los vínculos con los creadores de contenido, los encargados de formular políticas, los proveedores y los administradores de infraestructura de todo el mundo. Proporcionan un medio práctico para que las organizaciones trabajen en conjunto para monitorear y administrar estas políticas y sistemas relacionados con el espacio de información y, en ciertos casos, presionar por cambios en ellos.

"Estos principios se desarrollaron tras una conferencia en la Universidad de Santa Clara en 2018. En 2018, celebramos en Santa Clara la primera conferencia de su tipo sobre moderación de contenido a escala. La mayoría [de las empresas] no habían revelado lo que estaban haciendo. Sus políticas tenían que ver con la moderación del contenido y cómo las estaban aplicando. Así que coorganizamos la conferencia de un día y antes de esta conferencia un pequeño subgrupo de académicos y activistas organizados por la Electronic Frontier Foundation se reunieron por separado y tuvieron una conversación completa, y fue a partir de ese tipo de reunión paralela que surgieron los principios de Santa Clara". — Irina Racu, directora del Programa de Ética en Internet del Centro de Ética Aplicada de Santa Clara1

RegiónAntecedentes
Global

Los Principios de Santa Clara sobre transparencia y responsabilidad en la moderación de contenido cubren varios aspectos de la moderación de contenido, fueron desarrollados por juristas y tecnólogos en su mayoría de los Estados Unidos y están dirigidos a empresas de redes sociales con una vasta base de usuarios. Los principios incluyen lo siguiente:

  • Las empresas deben publicar la cantidad de posteos eliminados y cuentas suspendidas de forma permanente o temporal debido a incumplimientos de sus pautas de contenido.
  • Las empresas deben notificar a cada usuario cuyo contenido sea eliminado o cuya cuenta sea suspendida sobre el motivo de la eliminación o suspensión.
  • Las empresas deben brindar una oportunidad significativa para apelar oportunamente cualquier eliminación de contenido o suspensión de cuenta.

Los Principios de Santa Clara sobre transparencia y responsabilidad en la moderación de contenido se desarrollaron como un medio para evaluar de qué manera las empresas están trabajando para desarrollar políticas y sistemas que rijan los mecanismos que realizan un seguimiento y organizan el contenido en ellos. Por lo general, se centran en garantizar que las empresas tengan políticas que publiquen la cantidad de posteos eliminados y cuentas prohibidas, notifiquen a los usuarios cuando se haga y proporcionen sistemas de apelación. Irina Racu, directora del Programa de Ética en Internet del Centro de Ética Aplicada de Santa Clara, fue una de las fundadoras del proyecto y es miembro permanente. Ella describe cómo comenzó:

"Una vez redactados los principios, varias empresas firmaron en apoyo a ellos, incluidos los gigantes de las redes sociales, como Facebook, Instagram, Reddit y Twitter".

Los principios se organizan en torno a tres temas generales: Números, notificación y apelación. Bajo números, las plataformas acuerdan que las empresas deben realizar un seguimiento e informar al público la cantidad de publicaciones denunciadas y cuentas suspendidas, bloqueadas o marcadas en un informe regular que sea legible por máquina. En segundo lugar, en términos de la notificación, los usuarios y otras personas que se ven afectados por estas políticas deben ser notificados de estas eliminaciones u otras formas de moderación de contenido de manera abierta y transparente. Estas reglas deben ser publicadas y entendidas públicamente por todos los usuarios, independientemente de sus antecedentes. Si los gobiernos están involucrados, digamos para solicitar una eliminación, los usuarios también deben ser informados, pero en general, aquellos que informan y administran estos sistemas deben mantener su anonimato. En tercer lugar, deberían existir procesos de apelación para estas decisiones. Las apelaciones deben ser revisadas y administradas por humanos, no por máquinas, lo que sugiere mecanismos que grupos como la junta de supervisión de Facebook intentarán construir. Sin embargo, los principios sostienen que estas prácticas deben integrarse en toda la moderación de contenido, no solo en los sistemas de alto nivel. 

Estos principios se han aplicado de diversas formas para llamar la atención sobre cómo las empresas han desarrollado sistemas de moderación de contenido. Una aplicación notable han sido los informes "Who Has Your Back?" (¿Quién defiende tus datos?) de la Electronic Frontier Foundation. Estos informes, que se publican anualmente, califican a las empresas según su adherencia a los Principios de Santa Clara, mientras que también las califican directamente en otras métricas, como la transparencia y la notificación a los usuarios. En su informe, EFF señala que 12 de las 16 empresas calificadas en 2019 avalaron los principios, lo que sugiere que existe cierta aceptación del concepto. Empresas como Reddit cumplen todos los principios, mientras que otras como Facebook o Twitter logran hacerlo con solo dos o tres. Con muchas empresas de redes sociales que aún no cumplen los principios y con la entrada en el mercado de nuevos actores internacionales o de otro tipo, seguirá siendo un esfuerzo desafiante aplicarlos a nivel mundial.

Desarrollo de normas y estándares sobre desinformación

Como lo demuestran estos ejemplos preexistentes, el sector privado es uno de los componentes centrales del ecosistema de información y tiene algunas pautas y normas internas que regulan su funcionamiento. Sin embargo, existen marcos normativos importantes que han inducido y alentado el cumplimiento de los marcos democráticos y de derechos humanos globales, y específicamente un código centrado en la desinformación, el discurso de odio y cuestiones relacionadas.

Las empresas que gestionan grandes plataformas en el ecosistema de información, como Facebook, Google y Twitter, tienen una responsabilidad especial en la gestión y el tratamiento de internet. Existen ciertos marcos normativos, particularmente dentro de la Unión Europea, que los gobiernos y la sociedad civil han desarrollado para monitorear, interactuar con y potencialmente sancionar a las empresas de tecnología. Su eficacia se basa en una serie de factores, incluidos los mecanismos de aplicación y supervisión, además de las amenazas más generales de los medios de comunicación nocivos o el cumplimiento general de las normas mundiales de derechos humanos. 

La Unión Europea es un factor importante por ser un organismo transnacional que tiene el poder de definir las condiciones para operar en su mercado. Esto genera un mayor incentivo para que las empresas se involucren en marcos de cooperación con otros sectores públicos y privados, así como con actores de la sociedad civil, en la negociación de sus derechos para operar en el continente. Existe la amenaza implícita de regulación, por ejemplo, el Reglamento general de protección de datos proporciona una protección de datos sólida que incluye no solo a los ciudadanos europeos sino también a los extranjeros que operan en el país o participan en sistemas con sede en él. Este poder implícito para regular, en última instancia, proporciona una cantidad significativa de presión normativa y regulatoria sobre las empresas para que cumplan las regulaciones si quieren participar en el mercado común europeo.  

Este sistema crea poderosos incentivos y mecanismos para alinearse con la legislación nacional y las normas transnacionales. Estos códigos crean algunos de los sistemas normativos más poderosos de aplicación en torno a contenido, actores y temas de desinformación en cualquier parte del mundo, pero se han visto desafiados por dificultades en la supervisión y aplicación, al tiempo que muchos de los principios no se permitirían en los EE. UU., particularmente en lo que respecta a posibles infracciones a la primera enmienda. La armonización de estos enfoques a nivel internacional representa un desafío clave en los próximos años, ya que varios países imponen sus propias reglas en las redes, plataformas y sistemas, influyendo y contradiciéndose entre sí.

 

RegiónAntecedentes
Unión Europea

La Unión Europea elaboró un Código de Prácticas sobre Desinformación, que se basa en las conclusiones de su Grupo de alto nivel de trabajo sobre el tema. Esto incluyó recomendaciones para las empresas que operan en la UE, sugerencias para desarrollar programas de alfabetización mediática para miembros que responden a los problemas y para desarrollar tecnología que respalde el código.

Los cinco pilares centrales del código son:

  • mejorar la transparencia de las noticias en línea, lo que implica un intercambio de datos sobre los sistemas adecuado y respetuoso de la privacidad que permita su circulación en línea;
  • promover la capacitación en medios de comunicación e información a fin de contrarrestar la desinformación y ayudar a los usuarios a navegar en el entorno de los medios digitales;
  • desarrollar herramientas para empoderar a los usuarios y periodistas a fin de hacer frente a la desinformación y fomentar una interacción positiva con las tecnologías de la información en rápida evolución;
  • salvaguardar la diversidad y la sustentabilidad del ecosistema de los medios informativos europeos; y
  • promover la investigación continua sobre el impacto de la desinformación en Europa para evaluar las medidas tomadas por diferentes actores y ajustar constantemente las respuestas necesarias.

El Código de Prácticas sobre Desinformación de la Unión Europea es una de las iniciativas más multinacionales y con buenos recursos en la práctica actualmente, ya que cuenta con el apoyo de todo el bloque y de sus gobiernos miembros detrás de su marco. El Código fue desarrollado por un grupo de trabajo sobre desinformación requerido por la Comisión Europea y contiene recomendaciones para empresas y otras organizaciones que quieran operar en la Unión Europea. Además del Código, la UE proporciona a los gobiernos miembros y a los países que desean comerciar y trabajar con el bloque pautas sobre cómo organizar sus empresas en línea y planificar las respuestas a la desinformación a través de la formación digital, la verificación de datos, los medios de comunicación y el apoyo a la sociedad civil, entre otras intervenciones.

El Código fue formulado e informado principalmente por el Grupo europeo de expertos de alto nivel sobre noticias falsas y desinformación en marzo de 2018.  El grupo, integrado por representantes del ámbito académico, la sociedad civil, los medios de comunicación y los sectores tecnológicos, elaboró un informe que incluyó cinco recomendaciones centrales que luego se convirtieron en los cinco pilares bajo los cuales se organiza el Código. Ellas son:

  1. mejorar la transparencia de las noticias en línea, lo que implica un intercambio de datos sobre los sistemas adecuado y respetuoso de la privacidad que permita su circulación en línea;
  2. promover la capacitación en medios de comunicación e información a fin de contrarrestar la desinformación y ayudar a los usuarios a navegar en el entorno de los medios digitales;
  3. desarrollar herramientas para empoderar a los usuarios y periodistas a fin de hacer frente a la desinformación y fomentar una interacción positiva con las tecnologías de la información en rápida evolución;
  4. salvaguardar la diversidad y la sustentabilidad del ecosistema de los medios informativos europeos; y
  5. promover la investigación continua sobre el impacto de la desinformación en Europa para evaluar las medidas tomadas por diferentes actores y ajustar constantemente las respuestas necesarias.

Estos principios se integraron en el Código, publicado en octubre de 2018, aproximadamente seis meses después de la publicación del informe del grupo de expertos. La Unión Europea invitó a las empresas de tecnología a suscribir el Código y muchas participaron, junto con otras partes interesadas de la sociedad civil y las instituciones de la UE que trabajaron para implementar elementos de estos principios. Entre los firmantes se encuentran Facebook, Google, Microsoft, Mozilla, Twitter, así como la Asociación Europea de Agencias de Comunicación y diversas agencias de comunicación y publicidad. Estos grupos se comprometieron no solo con los principios, sino también con una serie de informes anuales sobre su avance en la aplicación, ya sea como profesionales de la comunicación, empresas de publicidad o de tecnología.

Como participantes en la iniciativa, las empresas acuerdan un conjunto de estándares voluntarios destinados a combatir la propagación de engaños y mentiras dañinos en línea y envían informes anuales sobre sus políticas, productos y otras iniciativas para cumplir sus pautas. La iniciativa ha tenido un éxito modesto al involucrar plataformas en el diálogo con la UE en torno a estos temas y abordarlos con los gobiernos miembros, otros actores del sector privado y los ciudadanos.

Los informes anuales de estas empresas y la evaluación general de la implementación del Código de Prácticas sobre Desinformación hacen una revisión de los avances que ha tenido el código en su primer año de existencia, de octubre de 2018 a 2019. Los informes concluyen que, si bien el Código ha avanzado en general en la incorporación de ciertos aspectos de sus cinco principios centrales a los firmantes del sector privado, se ha visto limitado por su "naturaleza autorregulada, la falta de uniformidad en la implementación y la falta de claridad en torno a su alcance y algunos de los conceptos clave". 

Una evaluación de septiembre de 2020 consideró que el código había logrado un progreso modesto pero había resultado insuficiente de diversas maneras, y proporcionó recomendaciones para mejorar. Señala que "[l]a información y las conclusiones que se exponen en esta evaluación respaldarán las reflexiones de la Comisión sobre las iniciativas políticas pertinentes, incluida la Acción para la democracia europea, así como también la Ley de servicios digitales, que tendrán como objetivo fijar normas generales aplicables a todos servicios de la sociedad de la información". Esto ayuda a describir de qué manera el Código sobre Desinformación encaja dentro de un programa más amplio de iniciativas europeas, vinculándose con códigos similares sobre la moderación del discurso de odio, los esfuerzos relacionados para garantizar la privacidad del usuario, la protección de los derechos de autor y la ciberseguridad, y mayores esfuerzos para promover los principios democráticos en el espacio en línea.

Otras organizaciones han realizado evaluaciones independientes que ofrecen su propia perspectiva sobre el proyecto de la Comisión Europea. El proyecto encargó a una empresa consultora, Valdani, Vicari y Asociados (VVA), que también revisara el proyecto, y determinó lo siguiente: 

  • "El Código de Prácticas no debe abandonarse. Ha establecido un marco común para abordar la desinformación; sus objetivos y actividades son de gran relevancia y ha producido resultados positivos. Constituye un primer paso crucial en la lucha contra la desinformación y muestra el liderazgo europeo en un tema de carácter internacional.
  • Algunos inconvenientes se relacionaron con su naturaleza autorreguladora, la falta de uniformidad en la implementación y la falta de claridad en torno a su alcance y algunos de los conceptos clave.
  • La implementación del Código debe continuar y su efectividad podría fortalecerse acordando terminología y definiciones".

El fondo Carnegie Endowment for International Peace (Fondo Carnegie Endowment para la paz internacional) completó una evaluación en un período similar después de finalizar su primer año de implementación, publicada en marzo de 2020. El autor descubrió que la UE efectivamente había avanzado en áreas como la capacitación en medios de comunicación e información, donde varios firmantes tecnológicos han creado programas para usuarios sobre estos conceptos, como Facebook, Google y Twitter.

El marco normativo del Código de Prácticas sobre Desinformación de la UE sigue ejemplos similares relacionados que describen y desarrollan un componente de la posición de la Unión Europea, específicamente el Código de Conducta de la UE, para combatir el discurso ilegal de odio en línea de 2016. Este Código de Conducta de la UE de 2016 se vincula con la anterior "Decisión marco 2008/913/JAI, del 28 de noviembre de 2008 que lucha contra determinadas formas y expresiones de racismo y xenofobia mediante el derecho penal y las leyes nacionales que lo transponen, lo que implica toda conducta que incite públicamente a la violencia o al odio contra un grupo de personas o un miembro de tal grupo definido en referencia a su raza, color, religión, ascendencia u origen nacional o étnico". Alternativamente, organizaciones como el Centro para la Democracia y la Tecnología han criticado el enfoque de la UE y el potencial de uso indebido y abuso, particularmente en lo que respecta al código sobre incitación al odio o a la violencia.

En general, los informes de la Comisión Europea y Carnegie señalaron que aún queda mucho por hacer y que el Código sobre Desinformación se beneficiaría con una terminología y una estructura mejor compartidas. Con ese fin, la UE adoptó recientemente su Plan de acción para la democracia. La lucha contra la desinformación es uno de sus pilares centrales, con el esfuerzo por mejorar las herramientas existentes de la UE e imponer costos a los infractores, especialmente en la interferencia electoral, pasar del Código de buenas prácticas a un marco normativo de obligaciones y responsabilidad de las plataformas en línea de conformidad con la Ley de servicios digitales, y establecer un marco para monitorear la implementación del código de prácticas. 

Como puede verse, si bien las empresas han firmado los Códigos sobre Desinformación y Discurso de Odio de la UE, y los gobiernos miembros se han comprometido a seguir sus principios, la supervisión y el cumplimiento son mecanismos separados y más difíciles de aplicar.  No obstante, con el impulso de otros países, en otras regiones, estos códigos o tipos de acuerdos similares podrían proporcionar un marco para la colaboración en torno a diversos temas relacionados con la desinformación, el discurso de odio, el extremismo violento en línea y una serie de otras formas dañinas de contenido.

RegiónAntecedentes
Global

Marcos normativos de Ranking Digital Rights

Ranking Digital Rights (RDR, por sus siglas en inglés) clasifica las plataformas digitales y empresas de telecomunicaciones más poderosas del mundo en cuanto a compromisos y políticas relevantes, según estándares internacionales de derechos humanos.

Los principios de RDR se centran en tres pilares centrales: gobernanza, libertad de expresión y privacidad.

Durante muchos años, tecnólogos, académicos y otros representantes de la sociedad civil han trabajado juntos para impulsar al sector privado a abordar los problemas de derechos digitales. Un ejemplo es Ranking Digital Rights, una iniciativa patrocinada por la New America Foundation que se enfoca en crear un marco concreto para involucrar a las empresas en temas normativos relacionados con el espacio de información. A partir de 2015, Ranking Digital Rights ha publicado un "Índice de responsabilidad corporativa" que clasifica a las empresas de tecnología, telecomunicaciones e internet según sus compromisos con los derechos humanos. Este marco tiene sus raíces en principios internacionales de derechos humanos, como la Declaración Universal de los Derechos Humanos (DUDH) y los Principios rectores de las Naciones Unidas sobre las empresas y los derechos humanos

Los indicadores cubren principios relacionados con la gobernanza, la libertad de expresión y la privacidad y otorgan a las empresas una puntuación basada en su cumplimiento de varios aspectos del Índice. Entre las empresas clasificadas por el Índice se encuentran los principales actores en redes sociales, búsqueda y otros temas relacionados con el espacio de información, incluidos Facebook, Google, Microsoft y Twitter. Su capacidad de respuesta a estos principios proporciona indicaciones de cómo las iniciativas inspiradas o análogas a Ranking Digital Rights pueden abordar los problemas de las redes sociales, el discurso del odio y la desinformación, al tiempo que se vinculan a iniciativas más antiguas en torno a la responsabilidad corporativa que las precedieron, como la Global Network Initiative. 

Rebecca MacKinnon, ex periodista y académica en derechos digitales, miembro de la junta del Comité para la Protección de los Periodistas y miembro fundador de la Global Network Initiative, creó el proyecto Ranking Digital Rights (RDR) en 2013 basado en parte en su libro Consent of the Network. Nathalie Marechal, analista sénior de políticas del proyecto, detalla cómo el libro fue "una de las primeras investigaciones que se centraron en el papel que desempeñan el sector privado y las empresas de tecnología específicamente en las violaciones de derechos humanos cuando actúan como agentes de los gobiernos como resultado de demandas gubernamentales de datos o demandas de censura, y como resultado de empresas que persiguen sus propios intereses comerciales. El libro finalizó con un llamado a la acción para presionar a las empresas a favor de la transparencia y una mayor responsabilidad por su papel en permitir o perpetrar violaciones de derechos humanos".

Los principios de RDR se centran en tres pilares centrales: Gobernanza, libertad de expresión y privacidad. A partir de estos principios centrales, el proyecto desarrolló indicadores que sirven para medir y evaluar el cumplimiento de una empresa de estos principios básicos. Estos principios fueron desarrollados para aplicarse no solo a lo que ellos llaman empresas de "ecosistemas móviles y de internet", sino también a empresas de telecomunicaciones, como Verizon o T-Mobile. Divide sus encuestas en estas dos categorías y asigna a las empresas puntajes de 100 en función de su cumplimiento y adhesión a los indicadores de los principios. Estos puntajes se tabulan y combinan en un puntaje final que se analiza en Índices, respaldados por datos y publicados semestralmente desde 2015 hasta 2019, con una nueva edición prevista para 2021. 

Los índices son algo dinámicos en la medida que evolucionan con base en nuevas tecnologías o desarrollos en el campo, así como también nuevos estudios, lo que ha cambiado las categorías que definen la metodología, los indicadores y las empresas revisadas. Por ejemplo, el ecosistema móvil y de internet se conoció simplemente como de internet en 2015 y se renombró como de internet y móvil en 2017. El proyecto RDR publica la metodología abiertamente y permite que otros la adapten bajo la licencia Creative Commons para producir sus propias calificaciones, por ejemplo, para empresas locales o nacionales. Como resultado, el sistema RDR se ha replicado en contextos como India, el Medio Oriente y África

Esto forma parte de un proceso que la organización ha desarrollado para mantener los principios relevantes y al mismo tiempo lo suficientemente estable como para proporcionar datos sobre cómo las empresas están mejorando o empeorando en términos del índice. Esto ha ayudado a desarrollar y expandir el índice para centrarse en 24 empresas, incluidas empresas de telecomunicaciones, como AT&T y Telefónica, así como también plataformas de redes sociales y empresas de tecnología, como Facebook, Google, Microsoft y Twitter. Este resumen ofrece una visión general del sistema RDR y las áreas y los indicadores que cubre. Se trata de cuestiones relacionadas con el espacio de la información de diversas formas e incluye a las principales empresas de tecnología con alcance sobre redes sociales globales a gran escala, como Facebook, Google, Microsoft y Twitter. Dentro de este sistema, también consideran tenencias que estas empresas controlan, como WhatsApp (Facebook) o Skype (Microsoft). Estas empresas generalmente obtienen puntajes similares en los indicadores, con puntajes generales de 62 (Microsoft), 61 (Google), 57 (Facebook) y 55 (Twitter). Por el contrario, las empresas de telecomunicaciones chinas y rusas obtienen puntajes mucho más bajos, como el gigante tecnológico chino Tencent (sede de WeChat, QQ y QZone) con 26, el motor de búsqueda y servicios tecnológicos Goliat Baidu con 23, o la empresa rusa Yandex con 32. Esto ciertamente sirve para contrastar los enfoques de las empresas en esferas de influencia tanto autoritarias como democráticas, y el contraste por motivos de derechos humanos que puede ser útil enfatizar, especialmente en lo que respecta a la integridad de la información y los problemas de desinformación cada vez más prevalentes. 

Indicadores de gobernanza de RDR

G1. Compromiso político 

G2. Supervisión de la gobernanza y la gestión

G3. Implementación interna

G4. Evaluación del impacto

G5. Participación de las partes interesadas 

G6. Reparación

Bajo la gobernanza, los principios buscan formas en que una empresa de tecnología se gobierne a sí misma y a sus productos. Esto se conecta con la forma en que administran sus plataformas, el tipo de supervisión que tienen y, en particular, cómo evalúan el impacto que estas plataformas están teniendo. Como señalan en su Informe del Índice de 2019: "El indicador G4 evalúa si las empresas realizan evaluaciones de riesgo para analizar y abordar el posible impacto perjudicial de sus operaciones comerciales en los derechos humanos de los usuarios. Esperamos que las empresas lleven a cabo la debida diligencia creíble e integral para evaluar y gestionar los riesgos relacionados con la forma en que sus productos o servicios pueden afectar la libertad de expresión y la privacidad de los usuarios". Esto se está convirtiendo cada vez más en un componente clave de las políticas de las empresas sobre cuestiones de desinformación y sobre cómo pueden gobernarse a sí mismas de manera eficaz con respecto a las preocupaciones de derechos humanos en torno a la libertad de expresión y las cuestiones de privacidad en particular. 


El Índice también señala que ninguna empresa, incluidas plataformas como Facebook, Google y Twitter, está realizando evaluaciones sobre el impacto de la inteligencia artificial o las formas de "identificar y gestionar los posibles efectos adversos de la aplicación de las normas sobre la libertad de expresión y los derechos de privacidad de los usuarios", ni evaluaciones de riesgo de las implicaciones para los derechos humanos del diseño e implementación de sus términos de servicio o sistemas de publicidad dirigida. Estas políticas públicas internas de las empresas están teniendo un gran impacto en el entorno de la información y RDR proporciona un medio para evaluarlas.

Indicadores de libertad de expresión de RDR

F1. Acceso a los términos de servicio 

F2. Cambios en los términos de servicio

F3. Proceso para el cumplimiento de los términos de servicio

F4. Datos sobre el cumplimiento de los términos de servicio

F5. Proceso para responder a solicitudes de terceros de restricción de contenido o de cuenta

F6. Datos sobre solicitudes gubernamentales de restricción de contenido o de cuenta

F7. Datos sobre solicitudes privadas de restricción de contenido o de cuenta

F8. Notificación al usuario sobre restricción de contenido o de cuenta

F9. Gestión de redes (empresas de telecomunicaciones)

F10. Apagado de red (empresas de telecomunicaciones)

F11. Política de identidad


Los indicadores de libertad de expresión se relacionan más específicamente con la gobernanza de los contenidos en las plataformas en línea que se están evaluando. Los términos de servicio ayudan a definir la forma en que las empresas determinan los derechos de los usuarios en los procesos de acceso, quejas, suspensión y eliminación.


RDR evalúa cómo han puesto a disposición de los usuarios la información sobre estos términos y sus cambios y, en segundo lugar, proporciona información disponible públicamente sobre el proceso mediante el cual se realizan las eliminaciones o restricciones de contenido, así como también datos generales sobre los tipos de eliminaciones que existen. Esto también se relaciona con las formas en que los gobiernos realizan solicitudes de eliminación y señala que Facebook, Google y Twitter han estado poniendo a disposición más datos sobre las eliminaciones a través de informes de transparencia, a excepción de los datos relacionados con las solicitudes del gobierno, que se han vuelto más limitados. Facebook y Twitter han estado publicando menos datos relacionados con las solicitudes de datos del gobierno, particularmente en el caso de solicitudes en plataformas cerradas, como Facebook Messenger, WhatsApp y la plataforma de video Periscope de Twitter.


También analiza las políticas de la empresa en torno a la identidad, si las empresas requieren que los usuarios proporcionen una identificación emitida por el gobierno o alguna otra forma de identificación que pueda estar vinculada a su identidad en el mundo real. Esto podría permitir una mejor identificación de las fuentes de desinformación y discurso de odio, u otros usuarios nefastos, pero también crea posibles vías para dirigirse a usuarios vulnerables por parte de gobiernos, trolls y otros. Señalan que Google, Instagram, WhatsApp y Twitter permiten usuarios anónimos en sus plataformas, pero que Facebook requiere identificación, algo que puede crear problemas conflictivos, especialmente para los usuarios vulnerables.

Indicadores de privacidad de RDR

P1. Acceso a las políticas de privacidad

P2. Cambios en las políticas de privacidad

P3. Recopilación de información del usuario

P4. Intercambio de información del usuario

P5. El propósito de recopilar e intercambiar información del usuario

P6. Retención de la información del usuario

P7. Control de los usuarios sobre su propia información de usuario

P8. Acceso de los usuarios a su propia información de usuario

P9. Recopilación de información del usuario por parte de terceros (empresas de internet)

P10. Proceso para responder a solicitudes de información de usuario por parte de terceros

P11. Datos sobre solicitudes de información del usuario por parte de terceros

P12. Notificación al usuario sobre solicitudes de información del usuario por parte de terceros

P13. Supervisión de la seguridad

P14. Abordaje de las vulnerabilidades de seguridad

P15. Filtraciones de datos

P16. Cifrado de la comunicación del usuario y contenido privado (empresas de internet, software y dispositivos)

P17. Seguridad de cuenta (empresas de internet, software y dispositivos)

P18. Informar y educar a los usuarios sobre riesgos potenciales

Por último, en términos de problemas de privacidad, RDR cubre las diferentes políticas relacionadas con los datos del usuario y la información sobre cómo se manejan, cómo se garantiza su seguridad, cómo se abordan las vulnerabilidades y cómo se abordan la supervisión y notificación sobre filtraciones. Si bien estos problemas pueden parecer tangenciales a las campañas de desinformación, en realidad pueden tener un impacto importante, ya que los datos que se toman de estas empresas a menudo pueden usarse en campañas de desinformación. Los usuarios que acceden al contenido a través de sistemas de seguridad débiles pueden ser espiados por gobiernos y otros actores nefastos, y los objetivos de campañas de desinformación o ciberataques pueden desconocer que incluso ellos son susceptibles de ataque sin los sistemas adecuados para monitorear que su acceso sea seguro o para ser notificados en casos de filtración. También examinan si las empresas informan a los usuarios sobre posibles "riesgos cibernéticos", que ellos definen como "[s]ituaciones en las que la seguridad, la privacidad u otros derechos relacionados de un usuario pueden verse amenazados por un actor malintencionado (incluidos, entre otros, delincuentes, informantes o naciones estado) que puede obtener acceso no autorizado a los datos del usuario mediante piratería, phishing (suplantación de identidad) u otras técnicas engañosas". Esto podría incluir riesgos de campañas de acoso o desinformación en línea específicas, en particular para usuarios vulnerables o marginados.

Como componente de su revisión continua de las prácticas y políticas tecnológicas, RDR está evolucionando para examinar cuestiones relacionadas con el uso ético de datos y algoritmos privados para proporcionar contenido. El Índice 2020 incluirá consideraciones de estos temas basadas en su revisión. Ya se ha revisado durante un período de varios años para cubrir los sistemas de información en evolución, como los teléfonos móviles, las redes sociales y otras tecnologías. 

Como señala Marechal: "Mantuvimos la metodología estable entre 2017 y 2018 y para 2019 hubo un par de ajustes e incorporamos empresas cada año, pero en general la mantuvimos comparable durante esos tres ciclos de investigación y hubo un progreso medible para la mayoría de las empresas en todos los años a mediados de 2018. Comenzamos un proyecto para revisar y expandir la metodología de RDR y ese fue un proyecto que dirigí, para dar cuenta de los daños a los derechos humanos asociados con dos temas interrelacionados, modelos de negocio basados en publicidad dirigida y el uso de algoritmos. El uso de lo que nuestro patrocinador llamó inteligencia artificial (IA) y nosotros llamamos sistemas algorítmicos en productos orientados al consumidor, centrándose específicamente en su uso para la moderación y gobernanza del contenido". También han traducido la metodología a otros idiomas, incluidos árabe, francés y español. Esto proporciona un fundamento adicional para internacionalizar y localizar el marco para varios contextos a nivel mundial. 

RegiónAntecedentes
GlobalEl Global Internet Forum to Counter Terrorism (GIFCT) fomenta la colaboración y el intercambio de información entre la industria de la tecnología, el gobierno, la sociedad civil y el mundo académico para contrarrestar la actividad terrorista y extremista violenta en línea.

Durante mucho tiempo, las organizaciones terroristas y los actores individuales han llevado a cabo ataques contra civiles e infraestructura crítica para infundir miedo, caos y reducir la cohesión geopolítica e interna de las sociedades. Desde la introducción de internet y, más especialmente, las redes sociales, las organizaciones terroristas han utilizado la web para radicalizar a personas, ganar seguidores, el know-how técnico sobre la construcción de bombas y artefactos explosivos improvisados, y difundir desinformación y propaganda a la población. Lo que es particularmente digno de mención en los últimos años es el poder y el uso de las plataformas de redes sociales por parte de organizaciones terroristas. El tiroteo de Christchurch, Nueva Zelanda, en 2019, en el que el video del tirador se publicó inicialmente en Twitch pero se volvió a compartir en YouTube, Facebook y Twitter, representa un excelente ejemplo del uso de la tecnología e internet por parte de los terroristas para difundir sus relatos y desinformación.  

En respuesta al aumento de la actividad terrorista en el entorno de la información, el Global Internet Forum for Counter-Terrorism (GIFCT) fue establecido formalmente en 2017 por 4 empresas principales: Twitter, Microsoft, Facebook y YouTube, así como también varios firmantes más pequeños que aumentaron su alcance en todas las plataformas. El GIFCT ha sido diseñado para fomentar la colaboración y el intercambio de información entre socios de la industria con el fin de frustrar la capacidad de los actores terroristas de utilizar el entorno de información para manipular, radicalizar y atacar a las poblaciones objetivo. Las cuatro empresas que integraron el foro se turnaron para presidir los trabajos del GIFCT. Siguiendo el llamado de Christchurch para fortalecer la respuesta coordinada al terrorismo en el ciberespacio a través de un proceso con múltiples partes interesadas, el GIFCT se ha convertido en su propia organización sin fines de lucro y actualmente está dirigida por su primer director ejecutivo inaugural, Nicholas Rassmussen, ex director del National Countertorrism Center (Centro Nacional contra el Terrorismo). Los objetivos del GIFCT son:

  • Mejorar la capacidad de una amplia gama de empresas de tecnología, en forma independiente y colectivamente, para prevenir y responder al abuso de sus plataformas digitales por parte de terroristas y extremistas violentos.
  • Permitir la participación de múltiples partes interesadas en torno al uso indebido de internet por terroristas y extremistas violentos y alentar a las partes interesadas a cumplir compromisos clave consistentes con la misión del GIFCT.
  • Alentar a quienes se dedican al diálogo civil en línea y potenciar los esfuerzos para dirigir alternativas positivas a los mensajes de terroristas y extremistas violentos.
  • Avanzar en un amplio conocimiento de las operaciones terroristas y extremistas violentas y su evolución, incluida la intersección de las actividades en línea y por otros medios.

Un aspecto central del GIFCT es el intercambio de conocimientos y la cooperación, no solo con las principales plataformas tecnológicas sino también con las más pequeñas. En consecuencia, el GIFCT está trabajando con Tech Against Terrorism, una asociación público-privada lanzada por la Dirección Ejecutiva del Comité contra el Terrorismo de la ONU (UN CTED, por sus siglas en inglés). Los objetivos de este esfuerzo son proporcionar recursos y orientación para aumentar el intercambio de conocimientos dentro de la industria tecnológica; fomentar el aprendizaje y el apoyo de pares entre los miembros; fomentar la colaboración y el intercambio de información entre el sector tecnológico, el gobierno, la sociedad civil y el mundo académico; y promover una mayor comprensión sobre las formas en que los terroristas vulneran la seguridad de internet para lograr sus objetivos.

Acuerdo "Paris Call" para la confianza y la seguridad en el ciberespacio

Con el aumento de las campañas de desinformación y los ciberataques en el ciberespacio, y la comprensión compartida de la necesidad de una mayor colaboración y cooperación para fomentar la innovación tecnológica y al mismo tiempo prevenir ataques en el ciberespacio, un grupo de 78 países, 29 autoridades públicas, 349 organizaciones y 648 empresas se han unido para alinearse en torno a un conjunto de nueve principios para crear un ciberespacio abierto, seguro y pacífico. El acuerdo "Paris Call" ratifica a estos países en el compromiso con el derecho internacional humanitario y el derecho internacional consuetudinario que proporciona las mismas protecciones para los ciudadanos en línea que la forma en que estas leyes se aplican fuera de línea. Al crear esta convocatoria, los gobiernos, la sociedad civil y la industria, incluidas las empresas de redes sociales, se comprometen a brindar seguridad, estabilidad y protección en el ciberespacio, así como también una mayor confianza y transparencia para los ciudadanos. La convocatoria ha creado un proceso de foro de múltiples partes interesadas para que las organizaciones y los países se reúnan a fin de aumentar el intercambio de información y la colaboración. Los participantes del acuerdo Paris Call han firmado los siguientes nueve principios:

  1. Prevenir y recuperarse de actividades cibernéticas maliciosas que amenacen o causen daños significativos, indiscriminados o sistémicos a las personas y la infraestructura crítica.
  2. Impedir actividades que dañen de forma intencional y sustancial la disponibilidad general o la integridad del núcleo público de internet.
  3. Fortalecer nuestra capacidad para prevenir la injerencia maligna de actores extranjeros con el objetivo de socavar los procesos electorales a través de actividades cibernéticas maliciosas.
  4. Evitar el robo de propiedad intelectual mediante tecnologías de la información y comunicación, incluidos secretos comerciales u otra información comercial confidencial, con la intención de brindar ventajas competitivas a las empresas o al sector comercial.
  5. Desarrollar formas de prevenir la proliferación de software y prácticas maliciosas destinadas a causar daño.
  6. Fortalecer la seguridad de los procesos, productos y servicios digitales, a lo largo de su ciclo de vida y cadena de suministro.
  7. Apoyar los esfuerzos para fortalecer la higiene cibernética avanzada para todos los actores.
  8. Adoptar medidas para evitar que agentes no estatales, incluido el sector privado, recurran a la piratería para fines propios o los de otros agentes no estatales.
  9. Promover la aceptación e implementación generalizadas de las normas internacionales de comportamiento responsable, así como las medidas de fomento de la confianza en el ciberespacio.

Estos principios han sido firmados por estados como Colombia, Corea del Sur y el Reino Unido, aunque no los Estados Unidos inicialmente; organizaciones de la sociedad civil como IRI, IFES y NDI; sectores privados como telecomunicaciones (BT), redes sociales (Facebook) y tecnologías de la información (Cisco, Microsoft); así como una serie de otras empresas. La Convocatoria proporciona un marco para los estándares normativos relacionados con la ciberseguridad y la desinformación en todos los sectores, particularmente bajo el tercer principio centrado en desarrollar la capacidad para resistir la influencia maliciosa en las elecciones.

Desarrollo de normas y estándares sobre desinformación

Los partidos son un componente crítico de los sistemas políticos, y su respeto por los marcos normativos es una parte desafiante pero central de la susceptibilidad de cualquier sistema político a la desinformación y otras formas negativas de contenido. Cuando los candidatos y los partidos respetan los estándares normativos, por ejemplo, para abstenerse del uso de métodos de propaganda computacional y la promoción de relatos falsos, esto puede tener un efecto positivo en la integridad de la información en los sistemas políticos. Cuando los partidos, en particular los principales actores de los sistemas políticos, se abstienen de respaldar estos estándares o trabajan activamente para adoptar y adaptar este tipo de métodos engañosos, como campañas de desinformación y propaganda computacional, esto puede tener un efecto increíblemente perjudicial en el tipo de contenido que se promociona y el potencial de relatos falsos, conspiraciones y discursos que inducen al odio y a la violencia para impregnar y dominar las campañas. Vale la pena examinar ejemplos de partes que trabajan juntas para crear estándares positivos para el entorno de información, así como también intervenciones para fomentar este tipo de entorno.

En el primer sistema, las partes pueden desarrollar sus propios códigos, ya sea de manera individual o colectiva. Uno de los mejores ejemplos de esto son los partidos políticos alemanes durante la temporada de campaña parlamentaria de 2017. Aparte del partido de derecha Alianza por Alemania (Afd), todos los partidos acordaron no utilizar propaganda computacional, no difundir ni respaldar relatos falsos y otras tácticas. Alemania tiene un marco regulatorio en el espacio de las redes sociales, vinculado con las regulaciones de la UE como el Reglamento general de protección de datos, que proporciona privacidad de datos útil para los ciudadanos europeos, así como también para aquellos que simplemente acceden a las redes europeas. 

En otros casos, la sociedad civil puede trabajar en conjunto para inducir a los partidos a desarrollar y cumplir códigos de práctica sobre desinformación, incitación al odio y otras cuestiones relacionadas con la integridad de la información. En Brasil, varios grupos de la sociedad civil se unieron en las elecciones de 2018 para desarrollar un código público de normas a ser cumplido por los partidos y candidatos.  La campaña NãoValeTudo intentó alentar a los políticos a adoptar el lema "No todo es aceptable" (Não Vale Tudo), que incluía no promover contenido falso, no involucrarse en redes falsas o la automatización de cuentas con fines falsos, y otras normas para garantizar que las campañas actuaran de manera justa y en línea con principios que alentarían una conversación abierta y justa sobre políticas y sociedad. Esto fue creado por un consorcio de grupos, que incluyen grupos de verificación de datos como Aos Fatos, organizaciones de derechos digitales como Internet Lab y el Instituto de Tecnología y Equidad, y la asociación nacional de profesionales de la comunicación (Associação Brasileira das Agéncias de Comunicaçao – ABRACOM). 

PaísAntecedentes
Brasil#NãoValeTudo (No todo es aceptable) es un código de ética a seguir para políticos, grupos cívicos y partidos que se desarrolló durante el ciclo electoral brasileño de 2018. El código se centra en los principios en torno al no uso de técnicas de propaganda computacional como las redes de bots o trolls, la no promoción de afirmaciones falsas, la transparencia en el uso de campañas y el no abuso de los datos privados de los usuarios, y la promoción de un espacio de información libre y abierta. Los políticos y los partidos pudieron manifestar su apoyo a través de publicaciones en las redes sociales que etiquetaran la frase, que fue apoyada por una amplia coalición de organizaciones de la sociedad civil (CSO, por sus siglas en inglés).

El grupo declaró lo siguiente:

"Nos preocupan los ejemplos recientes, ya que indican que actividades como la recopilación y el uso indebido de datos personales para orientar la publicidad, el uso de robots y perfiles falsos para simular movimientos políticos, y las posiciones y los métodos de difusión de información falsa pueden tener efectos significativos en los derechos de acceso a la información, la libertad de expresión y asociación, y la privacidad de todos y cada uno de nosotros. La protección de tales derechos nos parece una premisa para que la tecnología sea una palanca de discusión política y no una amenaza a la autonomía de los ciudadanos para debatir sobre su futuro".

Highlight


NãoValeTudo esbozó principios a los que podrían adherirse las campañas, los políticos y otras organizaciones, entre ellos:

Tenemos que saber cómo estamos utilizando la tecnología en la política y asumir la responsabilidad colectiva de las consecuencias de estos usos.

No toleramos la elaboración y difusión de noticias falsas. Quien las crea, promueve la mentira y manipula a los ciudadanos en torno a intereses privados y deshonestos.

Creemos que debe ser de conocimiento público la información detallada sobre el uso de las tecnologías con fines electorales, como los programas informáticos, las aplicaciones, la infraestructura tecnológica, los servicios de análisis de datos, los profesionales y las empresas que participan en la construcción y el asesoramiento de nuestra campaña.

Rechazamos la manipulación de la percepción pública de la discusión política realizada a partir de la creación y el uso de perfiles falsos.

Sin embargo, el uso de bots, puede ser beneficioso para la construcción de debates políticos, pero el uso de estas herramientas debe ser siempre ostensiblemente informado porque los robots que suplantan a los humanos pueden ser un gran obstáculo para un debate transparente, abierto, colectivo, plural y constructivo.

Defendemos la libertad de expresión y de crítica de los ciudadanos en el período electoral.

Creemos que los datos son valiosos e importantes en las campañas para mejorar el diálogo entre los candidatos y los ciudadanos, pero que su uso debe realizarse con responsabilidad.

 

El grupo recibió algunos apoyos, sobre todo de la candidata presidencial Marina Silva, exministra de Medio Ambiente durante el gobierno del expresidente Lula da Silva, y una candidata de nivel relativamente alto, que difundió en las redes sociales su adhesión, alentando a otros a unirse. Si bien otros candidatos locales también los respaldaron, no recibieron el apoyo de otros en la carrera presidencial, incluido el eventual ganador, Jair Bolsonaro. No obstante, crearon una plataforma para la discusión de temas de desinformación y la aceptación de ciertas tácticas en línea en la esfera virtual a través del hashtag #NãoValeTudo y otros métodos, al mismo tiempo que aumentaron la conciencia general sobre estas amenazas y destacaron el nivel de renuencia de muchas campañas y muchos políticos a adoptar dichos métodos. Esta metodología podría ser replicada por otros grupos de la sociedad civil para desarrollar estándares para los partidos, llamar la atención de quienes infringen las reglas y generar conciencia entre el público en general. 

En una tercera forma, las coaliciones internacionales han trabajado juntas para crear marcos normativos.  De cara a las elecciones argentinas de 2019, en colaboración con el Consejo Argentino para las Relaciones Internacionales (CARI) y organizado por la Cámara Nacional Electoral (CNE), el Woodrow Wilson International Center for Scholars, la Fundación Annenberg e IDEA Internacional desarrollaron un Compromiso Ético Digital "con el objetivo de evitar la difusión de noticias falsas y otros mecanismos de desinformación que puedan afectar negativamente a las elecciones". Organizado por la CNE; los partidos; los representantes de Google, Facebook, Twitter y WhatsApp; las organizaciones de medios de comunicación y los profesionales de internet y tecnología firmaron este Compromiso. Los partidos y otras organizaciones ayudarían tanto a implementarlo como a supervisarlo.  Estos enfoques muestran enfoques prácticos, a menudo multisectoriales, y colaboración entre los sectores público, privado y político, además de la sociedad civil, sobre estos temas, con esfuerzos similares por parte de los órganos de gestión electoral en Indonesia y Sudáfrica, como se explica en la sección Organismos de gestión electoral.

De manera similar, los códigos anteriores se han centrado en el discurso de odio o peligroso además de otros compromisos relacionados con las elecciones, como aceptar un resultado. Un ejemplo en Nigeria antes de sus elecciones de 2015 es la manera en que los candidatos presidenciales se comprometieron a evitar el discurso violento o incitador en el llamado "Abuja  Accord" (Acuerdo de Abuja), desarrollado con el apoyo de la comunidad internacional y el ex secretario general de la ONU, Kofi Annan. Esto representó un esfuerzo particular para proteger los derechos de los grupos marginados a participar en el proceso electoral y "abstenerse de campañas que involucren perfiles de provocación religiosa, discriminación étnica o tribal tanto por parte de nosotros mismos como de todos los agentes que actúan en nuestro nombre". "En un esfuerzo más centrado en la integridad de la información en sí, la Comisión Transatlántico de Integridad Electoral, conformada por un "grupo bipartidista de líderes políticos, tecnológicos, empresariales y medios de comunicación", desarrolló el Compromiso por la Integridad Electoral para que lo firmen candidatos de cualquier país. Sus principios se resumen en el recuadro destacado a la derecha.

Highlight


 El Compromiso por la Integridad Electoral

Comprometerse a no crear, utilizar ni difundir datos o materiales falsificados, fabricados, doxeados o robados con fines de desinformación o propaganda.

Evitar la difusión, los audios/vídeos manipulados o las imágenes que suplantan a otros candidatos, incluidos los vídeos ultrafalsos.

Hacer transparente el uso de redes de bots para difundir mensajes; evitar el uso de estas redes para atacar a los oponentes o utilizar a terceros o representantes para llevar a cabo tales acciones.

Adoptar medidas activas para mantener la ciberseguridad y formar al personal de la campaña en la alfabetización mediática y la concientización sobre los riesgos para reconocer y prevenir los ataques.

Comprometerse con la transparencia sobre las fuentes de financiación de las campañas.

 

El compromiso ha ganado más de 170 firmantes en Europa, Canadá y Estados Unidos, y también tiene el potencial de expandirse a otros contextos. Una comisión nombrada en honor al fallecido Kofi Annan, ex jefe de la ONU, también respaldó el compromiso, sugiriendo que podría trasladarse a otros contextos: "Respaldamos el llamado de la Comisión Transnacional de Integridad Electoral para que los candidatos, partidos y grupos políticos firmen compromisos para rechazar las prácticas engañosas de las campañas digitales. Dichas prácticas incluyen el uso de datos o materiales robados, el uso de imágenes manipuladas con inteligencia artificial como los shallow fakes, deepfakes y deepnudes, la producción, el uso o la difusión de materiales falsificados o fabricados y la confabulación con gobiernos extranjeros y sus agentes para manipular las elecciones".  No obstante, con cualquiera de estos compromisos persisten desafíos de cumplimiento y amplia aceptación entre los candidatos políticos, especialmente en entornos polarizados o profundamente controvertidos. El desarrollo de estándares en esta área sigue siendo un desafío, pero también un mecanismo potencialmente crítico para generar confianza en candidatos, partidos y sistemas políticos democráticos en general.

Desarrollo de normas y estándares sobre desinformación

País Antecedentes
Global La International Fact-Checking Network (Red internacional de verificación de datos) del Poynter Institute ha desarrollado un Código de Principios para que los verificadores de datos lo sigan en todo el mundo, que incluye estándares en torno a la metodología de la práctica. Los grupos son examinados para garantizar que sigan los estándares y aquellos que cumplen los requisitos son admitidos en la red. La red se ha convertido en la base de la iniciativa de verificación de datos de Facebook, entre otras que han proliferado a nivel mundial en contextos que van desde la UE y los EE. UU. hasta países del sur global.

 

La verificación de datos y otras formas de investigación se describen generalmente en nuestra sección sobre sociedad civil, pero el concepto deriva de los marcos normativos clave en la investigación y los mecanismos éticos para generar confianza en las industrias, las comunidades y la sociedad en su conjunto. La Red Internacional de Verificación de Datos (IFCN, por sus siglas en inglés) del Poynter Center es una red de periódicos, televisión, grupos de medios de comunicación y organizaciones de la sociedad civil que cuentan con la certificación de la IFCN para revisar contenido de maneras que se ajusten a las mejores prácticas internacionales. Básicamente, se trata de garantizar que el proceso y los estándares para la verificación de datos sigan pautas honestas e imparciales y certifiquen que las organizaciones y su personal comprenden y cumplen estas normas. Los estándares de la IFCN se vinculan con estándares periodísticos anteriores para obtener, desarrollar y publicar historias, como el Journalist’s Creed (El credo del periodista) o estándares nacionales de las asociaciones de periodismo. 

Se han desarrollado otros estándares específicamente para periodistas, como The Trust Project, financiado por Craig Newmark Philanthropies. The Trust Project diseñó un sistema de indicadores sobre organizaciones de noticias y periodistas con el fin de garantizar información confiable para el público y fomentar la confianza en el periodismo. Estos indicadores han sido creados para establecer normas que las organizaciones de medios de comunicación y las redes sociales pueden seguir para mantener un estándar de información divulgada. Este grupo se ha asociado con Google, Facebook y Ring para "utilizar los indicadores de confianza en la pantalla y tras bastidores", según su sitio web, y ha recibido el respaldo de más de 200 organizaciones de noticias, como la BBC, El País y el South China Morning Post. Este proyecto también ha sido traducido y replicado en contextos como Brasil, e invita a periodistas y organizaciones de todo el mundo a unirse.

En un proyecto similar, Reporters Without Borders, la Global Editors Network, European Broadcasting Union y Agence France Presse han formado una Journalism Trust Initiative (Iniciativa de Periodismo de Confianza, JTI) similar para crear estándares similares para la ética y la confianza del periodismo. La iniciativa "es un proceso colaborativo de establecimiento de estándares de acuerdo con las pautas del CEN, el Comité Europeo de Normalización", según la explicación de su historia y el proceso en el sitio web del JTI. También financiado por Newmark, a través de un proceso plurianual de múltiples partes interesadas para desarrollar y validar estándares a partir de 2018, la JTI busca crear normas entre los periodistas, promoviendo el cumplimiento dentro de la comunidad de redacción de noticias, particularmente para combatir la desconfianza en el periodismo y la desinformación.

Estándares de la Fact-Checking Network de Poynter International
  • Compromiso con el apartidismo y la equidad
  • Compromiso con la transparencia de las fuentes
  • Compromiso con la transparencia de la financiación y la organización
  • Compromiso con la transparencia de la metodología
  • Compromiso con las correcciones abiertas y honestas

Los estándares de la IFCN comienzan con el apartidismo y la equidad, algo que a menudo es difícil de garantizar en situaciones étnicamente diversas, polarizadas o politizadas. Los grupos de verificación de datos deben comprometerse a seguir el mismo proceso para cualquier verificación de datos que realicen, y sin sesgos hacia el contenido en términos de fuente, tema o autor. Esto asegura que los verificadores de datos sean justos y neutrales. También deben ser transparentes y mostrar sus fuentes y cómo llegaron a su respuesta, y esto debe replicarse y documentarse con el mayor detalle posible. Estos grupos también deben ser transparentes acerca de sus fuentes de financiamiento y cómo están organizados e implementan su trabajo. El personal debe comprender esta transparencia y trabajar para emprender su actividad de esta manera. La metodología que utilizan también debe ser presentada y practicada de manera abierta para que cualquiera pueda comprender o incluso replicar lo que el grupo está publicando. Esto produce una comprensión de un sistema justo y equilibrado para revisar y publicar juicios sobre el contenido. Por último, cuando el grupo se equivoca de forma evidente en algo, debe estar de acuerdo en realizar correcciones rápidas y entendibles.

Los grupos toman cursos y superan pruebas que muestran que sus sistemas y personal conocen los estándares y los implementan en su práctica. Los grupos también publican sus estándares, metodologías e información organizativa y de financiamiento públicamente. El director de la IFCN, Baybars Orsek, describió el proceso:

"Esas organizaciones pasan por un proceso de solicitud minucioso y riguroso en el que participan evaluadores externos y nuestro Consejo Asesor y, en casos positivos, terminan siendo verificadas, y las plataformas, particularmente empresas de redes sociales como Facebook y otras, a menudo utilizan nuestra certificación como un criterio necesario, pero no suficiente para trabajar con verificadores de datos en este momento".

Las organizaciones verificadas que superan estas pruebas se unen a la red, se vinculan con organizaciones asociadas, participan en capacitaciones, colaboran en proyectos y trabajan con otros clientes como verificadores de datos confiables, en particular empresas de redes sociales como Facebook que han contratado verificadores de datos de la red en contextos de todo el mundo. Este concepto se cubre con más detalle en la sección temática de Compromiso específico de la plataforma para la integridad de la información, pero en general, los grupos que trabajan con Facebook tienen sus verificaciones de datos integradas directamente en la aplicación de Facebook, lo que permite que la aplicación muestre las verificaciones de datos junto al contenido. Si bien esta metodología aún está en desarrollo y la eficacia de las verificaciones de datos sigue siendo difícil de confirmar, proporciona un sistema mucho más visible, dinámico y poderoso para aplicarlas. Los grupos que quieran unirse a la red pueden solicitarlo y esto puede ayudar a garantizar que, cuando se inicie un proyecto, tengan una comprensión adecuada y completa del estado del campo y de las mejores prácticas en términos de trabajo de verificación de datos. 

Algunas organizaciones han intentado ampliar los marcos normativos más allá de los periodistas y los verificadores de datos a la sociedad civil en general, con distintos grados de éxito. La Certified Content Coalition (Coalición de contenido certificado) tenía el objetivo de estandarizar los requisitos para un contenido preciso al reunir a varias organizaciones en apoyo de iniciativas para nuevas normas y estándares. Estos grupos consisten en una cohorte de investigación de periodistas, estudiantes, académicos, legisladores, tecnólogos y no especialistas interesados en la misión del programa. El objetivo de la Certified Content Coalition es crear una comprensión generalizada de la información que se difunde al público de una manera que los grupos acuerden en conjunto, permitiendo así un mayor sentido de credibilidad. Finalmente se estancó y su fundador Scott Yates señaló lo siguiente: "Los anunciantes dijeron que querían apoyarlo, pero al final parece que la gente de publicidad estaba más interesada en la percepción de hacer algo que en hacerlo realmente. (En retrospectiva, no es sorprendente)". Este resultado potencialmente resalta los límites de este tipo de iniciativas. 

La Pro-Truth Pledge en general es una organización educativa apartidista sin fines de lucro enfocada en la toma de decisiones basada en hechos científicos. El compromiso es para que políticos y ciudadanos firmen para comprometerse con sistemas políticos veraces a promover hechos y la participación ciudadana. Si bien tiene un alcance potencial mucho más amplio, su aplicación y la medición de su efecto es mucho más desafiante. Sin embargo, al igual que con otras normas, tiene el potencial de aumentar la conciencia pública sobre los problemas de integridad de la información, fomentar la conversación y aumentar potencialmente la confianza en la buena información y el pensamiento crítico sobre la mala.

 

Ayudar a los partidos a proteger la integridad de la información política

Redactado por Bret Barrowman, especialista sénior en investigación y evaluación, evidencia y práctica de aprendizaje del Instituto Republicano Internacional, y Amy Studdart, asesora sénior en democracia digital del Instituto Republicano Internacional

Marco conceptual

Incluso en entornos de partidos políticos competitivos y relativamente democráticos, dos dilemas relacionados dificultan la lucha contra la desinformación. Primero, los partidos competitivos enfrentan una "tragedia de los bienes comunes" con respecto a la desinformación, en la que un ambiente de información saludable conduce a los mejores resultados sociales, pero también incentiva a los actores individuales a obtener una ventaja electoral marginal enturbiando las aguas. En segundo lugar, los partidos no son unitarios, sino conjuntos de distintos candidatos, miembros, simpatizantes o grupos de interés asociados, cada uno con sus propios intereses o incentivos. En este caso, incluso cuando las organizaciones partidarias están comprometidas con la integridad de la información, se enfrentan al dilema "mandante-agente" al monitorear y sancionar a los copartidarios. Estos dilemas relacionados generan un incentivo para que los partidos políticos y los candidatos eviten participar o implementar respuestas programáticas. Los patrocinadores de la democracia, los derechos humanos y la gobernanza (DDG) y sus socios implementadores pueden mitigar estos dilemas mediante el uso de redes y poder de convocatoria para ayudar a las partidos a mantener compromisos con la integridad de la información, dentro y entre los partidos.

Respuestas programáticas

Los profesionales de DDG han implementado una amplia gama de enfoques programáticos para reducir tanto el impacto como el uso de la desinformación y las tácticas de los partidos políticos relacionadas durante las elecciones. Estos enfoques se resumen en la tabla siguiente, de acuerdo con las "funciones centrales del partido", las funciones que los partidos realizan en un sistema de partidos democráticos de tipo ideal, sobre las cuales se espera que opere el enfoque del programa. Esta tipología tiene como objetivo proporcionar a los profesionales de DDG una herramienta a través de la cual analizar los sistemas partidarios y los enfoques programáticos, con el objetivo de diseñar programas que se adapten a los desafíos de los socios de los partidos políticos.

Enfoques del programaFunciones principales de los partidos
 Articulación de intereses (expresión de los intereses de la ciudadanía a través de campañas electorales o implementación de políticas)Agregación de intereses (agrupación de muchos intereses ciudadanos dispares, y ocasionalmente en conflicto, en un paquete o una plataforma de políticas de marca única)Movilización (activar a ciudadanos, generalmente simpatizantes de los partidos, para que se comprometan políticamente, incluidos la asistencia a mítines o eventos, la realización de acciones discretas como firmar peticiones o contactar representantes, y especialmente votar).Persuasión (intento de los partidos o candidatos de cambiar las opiniones de los votantes indecisos o los partidarios de la oposición sobre candidatos o cuestiones políticas).
Programas de alfabetización en medios digitales*** 
Programas sobre inteligencia artificial y desinformación  **
Programas para espacios en línea cerrados y aplicaciones de mensajería ** 
Programas sobre recolección de datos, tecnología publicitaria y microfocalización ***
Programas de contenido y tácticas de desinformación**  
Programas de investigación sobre vulnerabilidad y resiliencia a la desinformación**  
Programas para comprender la propagación de la desinformación en línea  **
Programas que combaten el discurso de odio, la incitación y la polarización ** 
Recomendaciones de políticas y reforma/Compartir y escalar las buenas prácticas en respuestas programáticas****

 

Recomendaciones

  • Al implementar estos enfoques programáticos, considere los incentivos políticos además de las soluciones técnicas.
  • Las intervenciones programáticas deben tener en cuenta los intereses divergentes dentro de los partidos (los partidos están compuestos por oficiales, funcionarios electos, grupos de interés, miembros formales, partidarios y votantes), cada uno de los cuales puede tener incentivos únicos para propagar o aprovechar la desinformación. 
  • El problema de la acción colectiva de la desinformación dificulta las interacciones puntuales con socios individuales; considere implementar programas técnicos con interacción regular y continua entre todas las partes relevantes para aumentar la confianza de que los competidores no están "jugando sucio!.
  • De manera relacionada, utilice el poder de convocatoria de los donantes o de las organizaciones implementadoras para traer actores relevantes a la mesa. 
  • Contemple la posibilidad de pactos o promesas, especialmente en períodos preelectorales, en los que todos los partidos principales se comprometen a mitigar la desinformación. Es importante destacar que el acuerdo en sí es palabrería, pero preste especial atención al diseño de las instituciones, tanto dentro del pacto como externamente, para monitorear el cumplimiento.
  • Existe evidencia limitada sobre la efectividad de los enfoques de programas comunes de lucha contra la desinformación con un enfoque en los partidos políticos y la competencia política, incluida la alfabetización mediática, la verificación de datos y el etiquetado de contenido. El hecho de que haya evidencia limitada no implica necesariamente que estos programas no funcionen, solo que los financiadores de DDG y los socios implementadores deben invertir en la evaluación rigurosa de estos programas para determinar su impacto en resultados clave como el conocimiento político, las actitudes y creencias, la polarización, la propensión a participar en el discurso del odio o el acoso, y comportamientos políticos como votar, e identificar qué elementos de diseño distinguen los programas efectivos de los ineficaces. 
  • Las respuestas del programa de DDG han tendido a retrasar el uso de tecnologías sofisticadas por parte de los partidos políticos como la recolección de datos, la microfocalización, los ultrafalsos y el contenido generado por IA. Los financiadores y los socios implementadores deben considerar el uso de fondos de innovación para generar conceptos de respuestas con el objetivo de mitigar los efectos potencialmente dañinos de estas herramientas y evaluar rigurosamente el impacto. 

Ayudar a los partidos a proteger la integridad de la información política

Definición de partidos políticos

Los partidos políticos son grupos organizados de personas con ideas o intereses políticos similares que intentan hacer políticas eligiendo candidatos para ocupar cargos.1 Esta función electoral (promover candidatos para cargos públicos y obtener votos para esos candidatos) distingue a los partidos políticos de otras organizaciones, incluidas las organizaciones de la sociedad civil (CSO) o los grupos de interés. Este rol electoral crea incentivos únicos para los actores de los partidos políticos con respecto a la desinformación y las respuestas programáticas. 

Partidos políticos, información y democracia: una visión general para desarrollar el análisis del contexto, las declaraciones del problema y las teorías del cambio

 

Cómo los partidos conectan a los ciudadanos con sus representantes

La capacidad de los sistemas de los partidos para conformar constructivamente a la competencia electoral depende del intercambio de información de alta calidad. Conceptualmente, los partidos conectan a los ciudadanos con los funcionarios electos a través de un mecanismo de mercado. En los sistemas democráticos multipartidistas, los partidos políticos agrupan muchos intereses dispares y ocasionalmente conflictivos en un solo paquete con sello propio ( agregación de intereses ) que, a su vez, "venden" a los votantes durante las elecciones ( articulación de intereses ). 2 Sin embargo, es importante destacar que este proceso representa un modelo ideal de competencia democrática entre partidos políticos programáticos con el que los politólogos esperan producir los mejores resultados democráticos para los ciudadanos, incluidos bienes y servicios públicos de alta calidad y altos niveles de responsabilidad. Sin embargo, ningún partido o sistema de partidos se acerca a este modelo en la práctica, y muchos ni siquiera están a la altura. 

De hecho, en muchos casos, los partidos no logran agregar o articular de manera efectiva las preferencias de los ciudadanos. La desinformación –que crea comunidades epistémicas, fracturadas y aisladas– claramente dificulta los procesos de agregación y articulación de intereses, aunque en última instancia no está claro si la desinformación es una causa o una consecuencia. Para que estos procesos funcionen con eficacia, los partidos políticos y los funcionarios electos deben contar con una buena información sobre las preferencias de sus electores, y los votantes deben tener buena información sobre el desempeño de sus representantes. Las distinciones de los partidos facilitan esta responsabilidad al proporcionar un criterio para los votantes; los ciudadanos pueden juzgar a sus representantes en función de lo que promete la marca de su partido. Estos procesos son particularmente importantes para la inclusión política. La información clara sobre las preferencias de los electores y el desempeño de los representantes mejora la probabilidad de que los intereses de los grupos marginados se escuchen y perciban como legítimos y, como tal, proporciona un incentivo electoral para que los líderes políticos aborden esos intereses.  Esta transmisión de información entre las élites y los votantes es una condición necesaria (pero no suficiente) para que funcionen los sistemas de los partidos democráticos. Sin buena información, los partidos y los funcionarios electos no pueden determinar las preferencias de los electores, y los votantes no pueden asociar el desempeño o los resultados de las políticas con una marca de partido para responsabilizar a los funcionarios electos. Además, la desinformación puede influir en qué voces que se escuchan y qué intereses son legítimos. De esta manera, las élites políticas pueden tener un incentivo para utilizar la desinformación con el objetivo de marginar aún más a los grupos subrepresentados.

Exclusión y atribución: por qué es difícil para los ciudadanos responsabilizar a los representantes por las políticas públicas sin partidos que funcionen y sin buena información.

Sin embargo, este problema del intercambio de buena información se ve agravado por la naturaleza de las políticas públicas. En términos económicos, los bienes y servicios públicos son no excluibles; es difícil evitar que los ciudadanos individuales los disfruten si se proporcionan. Por ejemplo, un buen establecimiento de defensa nacional protege a todos los ciudadanos, incluso a aquellos que no han pagado sus impuestos; no es práctico ni rentable para un estado negar la defensa nacional a ciudadanos específicos.  Los bienes privados (dinero a cambio de un voto, por ejemplo) se pueden entregar directamente a personas específicas, que saben exactamente quién los proporcionó. 

Las políticas públicas, en cambio, adolecen de un problema de atribución. Dado que estos bienes se proporcionan colectivamente, los ciudadanos pueden estar menos seguros de qué funcionarios o partidos específicos son responsables de ellos (y, a la inversa, quién es responsable de las consecuencias no deseadas o de la falta total de política). Además, las políticas públicas son complicadas. Ambas políticas, y sus resultados observables para los ciudadanos, son el producto de interacciones complejas de intereses, contexto, procesos de formulación de políticas e implementación. Además, los resultados observables, como una buena economía o una población saludable, pueden retrasar significativamente las políticas que son más directamente responsables de ellos. Como tal, los ciudadanos pueden tener dificultades para atribuir los resultados de las políticas a representantes específicos.3 Los partidos políticos pueden ayudar a simplificar cuestiones políticas complejas para los votantes, con lo que una vez más se asume que hay un intercambio de buena información entre las élites y los votantes.

La tragedia de los bienes comunes de la información: contabilización de los incentivos en la lucha contra los programas de desinformación

Estos conceptos interrelacionados: las funciones de agregación y articulación de intereses de los partidos, el papel de la información en la competencia política democrática y la atribución de los problemas de las políticas públicas tienen implicaciones importantes para el diseño e implementación de programas de lucha contra la desinformación. Al igual que la defensa nacional o una infraestructura de transporte interina, un entorno de información saludable beneficia a todos y no es práctico excluir de ese beneficio a personas o grupos individuales. Para las partes, esta naturaleza del entorno de información crea una acción colectiva o un problema de "aprovechamiento gratuito".4 Si bien los mejores resultados colectivos ocurren cuando todos los actores se abstienen de participar en la desinformación, cada individuo tiene un incentivo para "aprovecharse", para disfrutar de un entorno de información saludable mientras obtiene una ventaja competitiva marginal al enturbiar las aguas. En este sentido, el problema de la desinformación para los partidos políticos es una tragedia de los bienes comunes 5, en el que pequeñas transgresiones por parte de múltiples actores terminan estropeando el entorno de la información. 6 Esto puede ocurrir incluso en circunstancias ideales: entornos relativamente abiertos con elecciones competitivas. Se agrava en sistemas autoritarios o semiautoritarios en los que el titular ejerce un control significativo sobre el entorno de la información a través de la represión o el control de los medios de comunicación, o donde los partidos marginales o los políticos tienen un incentivo para proliferar contenido provocativo con el objetivo de aumentar la atención o la visibilidad.7 Este control del entorno de la información impide una competencia electoral significativa entre los partidos, lo que reduce aún más cualquier incentivo para cooperar con la integridad de la información. Si bien esta situación puede crear incentivos para que los partidos de oposición contrarresten la desinformación, especialmente si ven beneficios de las percepciones públicas de honestidad, también puede conducir a círculos viciosos de degradación del entorno de información cuando hay alteraciones de poder. 

Al igual que otros bienes y servicios públicos, un buen entorno de información beneficia a todos. Los ciudadanos obtienen información precisa sobre el desempeño de sus representantes y pueden recompensarlos o sancionarlos en consecuencia. Los partidos obtienen buena información sobre lo que quieren sus ciudadanos. Un buen entorno de información depende de que cada actor se comprometa con este resultado. De hecho, los partidos tienen un incentivo electoral para enturbiar las aguas: permitir que los demás partidos competitivos sean honestos mientras tergiversan cuestiones de política pública. Una vez más, este dilema dificulta la lucha contra la desinformación incluso en el mejor de los casos. Cuando los partidos y los sistemas de partidos no alcanzan este tipo ideal, el dilema será más difícil de resolver. 

Highlight


Problema mandante-agente: un problema de la organización en el que un actor (el mandante) tiene autoridad para establecer objetivos colectivos y debe asegurarse de que uno o más actores (los agentes) se comporten de manera que avancen esos objetivos, a pesar de que los agentes controlan la información sobre su propio rendimiento. Para ilustrar el problema mandante-agente en los mensajes de campaña, consulte Enos, Ryan D. y Eitan D. Hersh. “Party Activists as Campaign Advertisers: The Ground Campaign as a Principal-Agent Problem.”

American Political Science Review 109, nº 2 (mayo de 2015): 252-78. https://doi.org/10.1017/S0003055415000064.

El problema mandante-agente de los partidos políticos: Mantener los compromisos de lucha contra la desinformación dentro de los partidos

Por otra parte, los partidos políticos no son unitarios; son coaliciones de candidatos, distritos electorales y grupos de interés variados (que a menudo que compiten entre sí). Como tales, todos los partidos políticos enfrentan el desafío adicional de hacer que los candidatos y miembros sean responsables respecto de los objetivos y la plataforma organizativa de los partidos.  En el contexto de la desinformación, incluso los partidos reformistas o de inclinación democrática, o los partidos que piensan que pueden ganar votos al oponerse a la desinformación, enfrentan un problema de los mandantes-agentes. Por un lado, los líderes de los partidos pueden simplemente desconocer los intentos de los afiliados de generar o aprovechar la desinformación. Por otro lado, este problema crea una negación plausible: las élites pueden alentar tácitamente a los partidarios a involucrarse en la desinformación para ayudar a las perspectivas electorales de los partidos, mientras que el liderazgo señala un compromiso con la integridad de la información. Además, los miembros individuales del partido a menudo explotan el género u otras divisiones basadas en la identidad de los "competidores" dentro de su propio partido para obtener una ventaja competitiva, que puede incluir el uso de discursos de odio, desinformación u otras formas dañinas de contenido promocionado en la esfera pública. Si no se reconoce esta dinámica, la programación de DDG puede ayudar a legitimar las tácticas de campaña que socavan la responsabilidad democrática. En resumen, los profesionales de DDG no deben asumir que los partidos políticos son unitarios, y las soluciones técnicas deben incluir métodos para ayudar a los actores de los partidos políticos a garantizar que todos los candidatos y simpatizantes mantengan compromisos con la integridad de la información. Si bien estos modelos ayudan a ilustrar incentivos importantes a los que los diseñadores de programas deberían ser sensibles, es importante señalar que no excluyen las soluciones técnicas. Más allá de brindar aliento, apoyo y capacitación a los líderes del partido para establecer el tono y las expectativas, el establecimiento de una infraestructura para la comunicación y la coordinación dentro del partido hará que los miembros y los candidatos sean responsables. La sección "Respuestas del Programa de DDG a la desinformación con socios de partidos políticos" que se encuentra a continuación proporciona ideas concretas para que los programas apoyen los esfuerzos de los partidos con el fin de proteger la integridad de la información.

Funciones, incentivos para el abuso y diseño de programas de los partidos

En términos concretos, los partidos políticos desempeñan cuatro funciones basadas en la información en los sistemas democráticos multipartidistas: la agregación de intereses, la articulación de intereses, la movilización ciudadana y la persuasión. Los resultados colectivos democráticos son más probables cuando los partidos realizan estas funciones basándose en buena información. Sin embargo, dentro de cada función, los partidos o candidatos individuales tienen incentivos para manipular la información y obtener una ventaja electoral.

Agregación de intereses se refiere a la capacidad de los partidos para solicitar información sobre los intereses y preferencias de los ciudadanos. Los partidos deben tener información confiable sobre los intereses y preferencias de los votantes para desarrollar políticas receptivas y competir en las elecciones.  También pueden tener un incentivo para caracterizar erróneamente el sentimiento público, tanto ante sus oponentes como ante el público. Por ejemplo, para priorizar una política ampliamente impopular pero importante para un electorado específico clave, un partido o candidato puede tener un incentivo para caracterizar erróneamente un estudio de opinión pública o para amplificar artificialmente el apoyo a una política en las redes sociales usando redes de bots. 

Articulación de intereses se refiere a la capacidad de las partes para promover ideas, plataformas y políticas, tanto en la campaña como en el proceso de formulación de políticas. La articulación de intereses requiere que los partidos políticos se involucren en una comunicación masiva y selectiva sobre los temas con los votantes. Esta función también puede requerir que los partidos y candidatos persuadan (ver más abajo) a los ciudadanos de sus puntos de vista, particularmente para convencer a los votantes de que las políticas específicas satisfarán los intereses de esos votantes. Una vez más, hay un beneficio social en la información "verdadera" sobre las políticas y las posturas: los ciudadanos pueden emitir su voto por los partidos que mejor representan sus preferencias. Sin embargo, para obtener una ventaja electoral, los partidos o candidatos individuales pueden tener interés en tergiversar sus posturas en cuanto a las políticas o las posibles consecuencias de las políticas que prefieren al inventar estudios de investigación o usar como chivo expiatorio a los grupos vulnerables. 

Movilización se refiere a la capacidad de los partidos para activar a los ciudadanos para el compromiso político, incluida la asistencia a mítines o eventos, llevar a cabo acciones discretas como la firma de peticiones o el contacto con representantes y especialmente la votación. Para producir los resultados más democráticos, la movilización debe basarse en buena información. Los partidos deben proporcionar a los posibles votantes información precisa sobre las políticas y el proceso electoral, en particular dónde y cómo votar.  Sin embargo, los partidos y candidatos individuales pueden obtener una ventaja electoral si involucran tácticas de movilización más nefastas. La movilización puede implicar coerción: el uso de desinformación para "asustar" a los votantes sobre las consecuencias de las políticas de los oponentes, para activar a los votantes exacerbando los prejuicios o divisiones políticas, o para desmovilizar a los candidatos o simpatizantes de la oposición mediante el acoso o generando apatía. 

Persuasiónse refiere al intento de los partidos o candidatos de cambiar las opiniones de los votantes sobre los candidatos o cuestiones políticas. A diferencia de la movilización, que a menudo se centra en partidarios conocidos del partido o votantes apáticos, la persuasión suele estar dirigida a partidarios moderados, "indecisos" o débiles de los partidos opuestos. 

Highlight


Agentes clave: Trolls, bots, sitios web de noticias falsas, teóricos de la conspiración, políticos, medios de comunicación partidistas, medios de comunicación convencionales y gobiernos extranjeros9

Mensajes clave10: provocar ofensas, polarización afectiva, racismo/sexismo/misoginia, "demostración social" (exageración artificial de los indicadores de que una creencia está muy generalizada), acoso, disuasión (uso del acoso o la intimidación para disuadir a un actor de llevar a cabo una acción, como presentarse a un cargo o defender una política), entretenimiento, teorías de la conspiración, fomentar el miedo o la ansiedad de un grupo interno preferido, falacias lógicas, tergiversaciones de la política pública, declaraciones falsas en cuanto a los hechos

Intérpretes clave: Ciudadanos, miembros y simpatizantes del partido, funcionarios electos, miembros de los medios de comunicación

Key Resource


Notas sobre las fuentes de desinformación:

El marco del desorden informativo sugiere identificar las tácticas de desinformación y las posibles respuestas pensando sistemáticamente en el agente, el mensaje y el intérprete de la información. Muchos programas de DDG, especialmente los financiados por donantes del Gobierno de los Estados Unidos, se centran en el desarrollo de la capacidad de resistencia dentro de un país objetivo frente a las campañas de desinformación extranjeras, especialmente por parte de los gobiernos (o los partidarios del gobierno) de China, Rusia e Irán. Sin embargo, es importante tener en cuenta, especialmente entre los partidos políticos, que los agentes (o autores) de las campañas de desinformación también pueden ser actores nacionales que buscan afectar al comportamiento de su oposición o sus partidarios políticos. Incluso en el caso de las campañas dirigidas al extranjero, los intérpretes (o los objetivos) no se seleccionan de forma amplia o arbitraria. Más bien, las campañas extranjeras buscan exacerbar las divisiones sociales y políticas existentes, con el objetivo de erosionar la confianza en las instituciones en general. Además, las campañas extranjeras suelen contar con partidarios voluntarios o involuntarios en los países objetivo.  Por lo tanto, tanto en las campañas de desinformación nacionales como en las extranjeras, los grupos históricamente marginados, como las mujeres, las minorías étnicas, religiosas o lingüísticas, las personas con discapacidades y las personas LGBTI, suelen ser objeto de estos esfuerzos y resultar perjudicados de manera desproporcionada.8

Trascendencia

Estos conceptos interrelacionados, los problemas de exclusión y atribución de las políticas públicas, el concepto del espacio de información como una tragedia de los bienes comunes y el papel de la información en las funciones de agregación, articulación y movilización de intereses de los partidos políticos tienen varias implicaciones concretas para los profesionales en cuanto a diseñar e implementar programas de lucha contra la desinformación:

  1. Los mejores resultados democráticos colectivos requieren un entorno de información saludable.
  2. Cada actor individual (un partido o un candidato) puede percibir un incentivo para permitir que otros se comporten con honestidad mientras intentan obtener una ventaja competitiva a través de la desinformación.
  3. Por ello, los partidos políticos tienen un incentivo tanto para perpetuar como para mitigar la desinformación. La determinación de perpetuar o mitigar dependerá del contexto; en resumen, los partidos quieren que los votantes tengan información veraz sobre las cosas que los ayudan e información falsa sobre las que los perjudican. Justo lo contrario ocurre con sus oponentes políticos. 
  4. Los trastornos de la información son el resultado de que muchos actores perciben esta estructura de incentivos y saben que su competencia está actuando de acuerdo con ellos. Los partidos podrían estar dispuestos a comprometerse con la integridad de la información si pudieran confiar en que sus competidores harían lo mismo simultáneamente. Sin embargo, si no están seguros de que sus oponentes harán lo mismo, incluso los partidos honestos o con inclinaciones democráticas, pueden no querer o no poder renunciar al uso de la desinformación si esto significa perder las elecciones y la oportunidad de implementar su agenda
  5. Cuando los partidos políticos ESTÁN comprometidos con la integridad de la información, no son unitarios y enfrentan el desafío adicional de hacer que los candidatos, miembros y simpatizantes se responsabilicen por los compromisos de los partidos. Esta falta de voluntad o incapacidad para monitorear y sancionar a los copartidarios agrava el dilema del punto cuatro anterior.  
  6. Considere estos incentivos políticos antes de diseñar e implementar soluciones técnicas. Marcos como pensar y trabajar políticamente y el análisis de la economía política aplicada pueden ayudar a los profesionales a comprender mejor los incentivos políticos únicos que enfrentan los posibles socios y beneficiarios. Las soluciones políticas clave pueden incluir el monitoreo interno y externo y la coordinación entre las partes relevantes para comprometerse a mitigar la desinformación. 

Una nota sobre soluciones técnicas: en algunos casos, particularmente con partidos democráticos o reformistas, los partidos pueden expresar su voluntad de tomar medidas concretas para mitigar la desinformación. En un grupo más pequeño de casos, todos los partidos competitivos importantes podrían estar dispuestos a dar estos pasos.  Incluso estos mejores escenarios en los que los partidos están involucrados en la creación de soluciones dan lugar a problemas relacionados con las soluciones técnicas, incluidas las limitaciones de recursos y la capacidad técnica. Sin embargo, las soluciones técnicas son necesariamente secundarias a las soluciones políticas más fundamentales. 

Ayudar a los partidos a proteger la integridad de la información política

En los últimos años, los profesionales de DDG han implementado una amplia gama de enfoques programáticos para reducir tanto el impacto como el uso de la desinformación y las tácticas relacionadas durante las elecciones. La mayoría de los enfoques programáticos de DDG analizan el ecosistema de información general, que tiene impactos incidentales en el comportamiento de los partidos políticos y la repercusión de la desinformación como táctica de campaña. Sin embargo, en los últimos años se ha observado un número creciente de intervenciones dirigidas específicamente a los partidos políticos. Estos enfoques programáticos operan sobre una amplia variedad de teorías de cambios, con varios supuestos implícitos o explícitos sobre estructuras de incentivos para partidos políticos, votantes y otros actores de información electoral. Teniendo en cuenta las funciones relevantes de los partidos políticos y los beneficios potenciales para los agentes de desinformación, incluidos los actores nacionales, la siguiente sección describe los enfoques programáticos generales que se han aplicado para ayudar a los socios de los partidos políticos a desarrollar resiliencia a la desinformación. En general, los programas de DDG tienden a operar desde una lógica coherente similar: si los socios o sus votantes pueden identificar la desinformación y tienen la capacidad técnica para disuadirla o responder a ella, mejorarán el ambiente de la información, lo que conducirá a una mayor capacidad de respuesta y responsabilidad. 

Highlight


Un enfoque prometedor de la alfabetización mediática, por ejemplo, fue la asociación con instituciones educativas estatales para aplicar la alfabetización mediática a escala. La campaña IREX Learn2Discern implementó cursos de alfabetización mediática en centros comunitarios, escuelas y bibliotecas. Evaluaciones rigurosas del programa Learn2Discern en Ucrania han revelado que tanto los jóvenes como los adultos eran significativamente más capaces de identificar las noticias falsas de las verdaderasy que los vídeos cortos de alfabetización mediática y las etiquetas de las fuentes mitigaron el impacto del contenido propagandístico ruso

Programas de alfabetización en medios digitales

La definición de la Comisión Conjunta de Investigación de la Unión Europea sobre alfabetización digital e informacional a través de su Marco de Competencia Digital es clave para comprender los efectos de los programas de alfabetización digital. Su definición de competencia digital es un diagrama de Venn de alfabetizaciones que se entrecruzan, incluidos los medios, la información, internet y las TIC, que aborda diferentes aspectos de la competencia digital, desde el uso de internet y la comprensión de la información en abstracto, hasta el uso de las TIC en términos de hardware y software y los medios de comunicación en diferentes formas. Todas estas alfabetizaciones son importantes para comprender de qué manera los programas pueden abordar la vulnerabilidad y la resiliencia a la desinformación. 

Un enfoque de la desinformación relacionada con las elecciones es aumentar la conciencia pública sobre el qué, dónde, por qué y cómo de la desinformación. Las campañas de educación varían en alcance, tanto a quiénes llegan como respecto de los temas que tratan, y pueden ser dirigidas por varios actores diferentes, incluidas CSO, escuelas, instituciones religiosas, empresas de tecnología y gobiernos. La teoría del cambio es que, si el electorado es consciente de la presencia de desinformación y de las formas en que opera, entonces será más crítico con la información que encuentre y que esto tendrá menos influencia en sus puntos de vista políticos. En términos generales, este enfoque es uno de los más propensos a tener ramificaciones positivas fuera de la integridad electoral y puede, cuando se implementa a gran escala, reducir el impacto de la información falsa sobre la salud y la susceptibilidad al ciberdelito. 

En este sentido, los programas de alfabetización mediática pueden operar en las funciones de "agregación de intereses" y "movilización" de los partidos políticos al mitigar el impacto de la desinformación en la polarización, especialmente entre partidarios fuertes.

Programas de inteligencia artificial y desinformación

Este enfoque de programa incluye asistencia a los socios de los partidos políticos para responder al uso de una variedad de aplicaciones de inteligencia artificial (IA), incluida la amplificación artificial automatizada, los ultrafalsos y la manipulación y modificación de audio y videos. Estos enfoques abarcan en medida creciente el uso de grandes redes de cuentas automatizadas con contenido informado de manera más inteligente, moldeado por las respuestas de los usuarios, los datos personales y otras métricas.

Los esfuerzos para combatir la desinformación se han centrado, en el momento de la redacción, en gran medida en la creación de contenido engañoso dirigido por humanos; la falsa amplificación usando cuentas falsas, seguidores pagados y bots automatizados; y la promoción pagada de contenido engañoso dirigido a los usuarios con base en su probable susceptibilidad a una narrativa determinada. Este enfoque ha reflejado la amplia accesibilidad y escalabilidad de las tecnologías que sustentan la desinformación: bots, granjas de contenido, seguidores falsos y anuncios con microfocalización que han cambiado radicalmente la forma en que se crea y distribuye la información electoral y política. Para los partidos políticos, estas tecnologías facilitan la naturaleza social de sus funciones centrales, particularmente al señalar artificialmente la "prueba social": que una política o un candidato propuesto tiene más apoyo del que tiene. Estas tecnologías también juegan con algoritmos de recomendaciones y tendencias, lo que aumenta la exposición a la información (o desinformación) que de otra manera no habría estado ampliamente disponible.11 La amplificación artificial, por lo tanto, ayuda a los partidos y candidatos a manipular las creencias de los ciudadanos, en lugar de responder directamente a los intereses de los constituyentes. Si bien no esperamos que haya cambios importantes en los vectores de desinformación relacionada con las elecciones, la comunidad de DDG está cada vez más preocupada por la mayor automatización de la creación y distribución de contenido y la facilidad de acceso a la manipulación con "ultrafalsos", en los que se crea un video o audio de una persona que dice o hace algo que nunca dijo o hizo.  

Se han desarrollado enfoques tecnológicos para identificar áreas donde la imagen y el audio fueron alterados. Esto se hace mediante la detección de anomalías en la pixelación o en las ondas de audio. En la actualidad, no se despliegan de forma sistemática. Dado que los ultrafalsos y el contenido generado por IA aún no desempeñan un papel importante en las campañas ni en la integridad de las elecciones, los estudios de caso de intervenciones programáticas de DDG han sido limitados. 

Si bien las respuestas programáticas de DDG han sido limitadas, las organizaciones de investigación han establecido repositorios de conocimiento sobre problemas de propaganda computacional. Por ejemplo, el Oxford Internet Institute, a través del Programa sobre la propaganda computacional, desarrolló ComProp Navigator, una colección curada de recursos para que las organizaciones de la sociedad civil tenga en cuenta al responder a problemas de desinformación.

Programas para espacios en línea cerrados y aplicaciones de mensajería

Los programas que luchan contra la desinformación en aplicaciones "cerradas" (o privadas) y redes cifradas deben tener en cuenta la dificultad para acceder a los datos del usuario y las consideraciones de privacidad en la recopilación de estos datos.  

Las campañas de desinformación se están moviendo rápidamente desde la esfera relativamente pública de las redes sociales en línea y las plataformas de contenido como Facebook, YouTube y Twitter, a las plataformas de mensajería privadas como WhatsApp, Line, Telegram y SMS. Varias de esas plataformas están cifradas, por lo que es un desafío rastrear y prevenir la propagación de contenido falso y la amplificación. En varios casos, los partidos políticos han explotado la mensajería privada para apuntar a simpatizantes que luego reenvían mensajes engañosos a otros simpatizantes, dando pocas oportunidades para que los actores independientes o de la oposición contrarresten o corrijan los mensajes. 

Han surgido varios enfoques programáticos para combatir este desafío. En Taiwán, un grupo de la sociedad civil creó una iniciativa llamada "CoFacts" para abordar la propagación a gran escala de desinformación política en LINE. Los mensajes se pueden reenviar al bot de CoFacts para que un equipo de voluntarios los verifique; el bot de CoFacts también se puede agregar a grupos privados y automáticamente comparte correcciones si se comparte un fragmento de contenido falso verificado en el grupo. Esto preserva la privacidad del grupo en general, al tiempo que permite el monitoreo y la lucha contra la información falsa. 

En varios países con elecciones polémicas o situaciones políticas, Facebook (la empresa matriz de WhatsApp) ha limitado el tamaño de los grupos de WhatsApp y la cantidad de veces que se puede reenviar un mensaje, lo que reduce la facilidad y el potencial de viralidad en la plataforma. Otro enfoque consiste en inundar los servicios de mensajería privada o cifrada con información precisa. Por ejemplo, el gobierno taiwanés ha puesto a disposición varios cómics y comediantes para crear contenido basado en hechos y fácil de reenviar diseñado para la viralidad.

Programas sobre recolección de datos, tecnología publicitaria y microfocalización

Los programas que contrarrestan el uso de datos privados de usuarios en campañas de desinformación dirigidas están en sus inicios al momento de escribir este artículo. Sin embargo, estos enfoques son cada vez más importantes, ya que estos datos de usuario se pueden utilizar para informar sobre sistemas automatizados y compra de anuncios en campañas políticas. Los programas incluyen esfuerzos para aplicar ingeniería inversa a estos sistemas con el objetivo de dar luz a su ubicuidad y efecto. 

La recolección de datos, la tecnología publicitaria y la microfocalización ocupan un lugar destacado en las funciones de movilización y persuasión de las partes. Las herramientas publicitarias permiten a los partidos políticos adaptar los mensajes a grupos pequeños según las características demográficas, de actitud, de comportamiento y geográficas obtenidas de una variedad de fuentes, incluido el comportamiento en línea. Esta capacidad de adaptar los mensajes políticos a distritos electorales cada vez más pequeños tiene importantes implicaciones para los resultados democráticos. Los partidos y candidatos individuales utilizan esta tecnología porque ayuda a optimizar sus mensajes. Socialmente, sin embargo, la adopción de esta tecnología tiene dos consecuencias importantes. 

En primer lugar, socava la función de agregación de intereses de los partidos políticos. Hay que recordar que los resultados democráticos son más probables cuando los partidos agrupan de manera efectiva intereses y políticas dispares bajo una marca para la "venta" a una amplia franja de votantes. Las comunicaciones con microfocalización facilitadas por la tecnología publicitaria permiten a los partidos individuales o candidatos adaptar los mensajes directamente a grupos pequeños. Este enfoque puede producir ganancias a corto plazo en la efectividad de la movilización a expensas de la negociación de prioridades políticas comunes y la construcción de consenso en torno a problemas. En segundo lugar, la adopción de esta tecnología también facilita la focalización más precisa de la desinformación, el discurso de odio, el acoso y otras tácticas nefastas que los partidos o candidatos podrían emplear para activar a sus propios partidarios o reprimir el compromiso de los partidarios de sus oponentes políticos. En tercer lugar, la microfocalización "oculta" eficazmente el contenido de los medios de comunicación, los verificadores de datos o las partes contrarias que, de otro modo, podrían responder o debatir la información en cuestión.12

Los programas de DDG para fomentar las mejores prácticas y desalentar los abusos de la tecnología publicitaria han tendido a retrasarse en la adopción de estos métodos. Un ejemplo, sin embargo, es el Instituto de Información Masiva en Ucrania, que monitorea las plataformas de redes sociales durante las elecciones. Su director ejecutivo señaló en 2019 que Facebook no fue particularmente eficaz para abordar la publicidad política abusiva, especialmente el contenido "nativo" o "patrocinado": publicidad política disfrazada para parecer noticias. En este caso, la base de datos de publicidad política de Facebook no fue útil para los monitores de terceros porque el contenido publicitario era muy difícil de detectar.13 Este desafío es un ejemplo de cómo las innovaciones en la tecnología publicitaria pueden socavar los resultados democráticos, especialmente cuando proporcionan beneficios electorales a partidos o candidatos individuales; si los mensajes políticos se disfrazan para que parezcan información fáctica o noticias al dirigirse precisamente a las actitudes, gustos o comportamientos de los consumidores, es más probable que los productores manipulen las preferencias de los ciudadanos que respondan a ellas.

Programas de contenido y tácticas de desinformación

Los programas que examinan el contenido y las tácticas de desinformación adoptan una amplia variedad de formas, ya sea simplemente recopilando y analizando la información o buscando infiltrarse en grupos de desinformación para estudiar sus métodos. Estos enfoques también desempeñan una importante función de responsabilidad en relación con los partidos políticos. Centrarse en el contenido de la desinformación puede ayudar a los ciudadanos y las CSO a aclarar cuestiones políticas complejas, lo que reduce el espacio para que los partidos y candidatos enturbien el agua. Según este enfoque, los periodistas independientes, voluntarios o CSO deben comprobar la veracidad del contenido, emitir correcciones y, en algunos casos, trabajar con empresas de redes sociales para marcar el contenido engañoso, limitar su difusión y publicar la corrección de los verificadores de datos junto con una publicación. Algunas de estas iniciativas están dirigidas explícitamente al contenido de los partidos políticos o candidatos, mientras que otras observan el ecosistema de información más amplio y las historias de verificación de datos en función de su probable impacto, difusión o un área de interés específica.

Los programas para desarrollar medios de verificación de datos rara vez se hacen en asociación directa con actores de partidos políticos, dado que el enfoque requiere neutralidad política para ser efectivo. Sin embargo, hipotéticamente, estos programas cumplen una importante función de responsabilidad al actuar sobre los incentivos de los actores políticos. Una teoría de cambio subyacente a estos enfoques es que, si los actores políticos, especialmente los funcionarios electos, saben que las declaraciones falsas serán identificadas y corregidas en un foro público, es menos probable que se involucren en este comportamiento desde el principio. Además, los medios de verificación de datos pueden proporcionar información precisa a los votantes, quienes luego pueden castigar de manera más efectiva a los suministradores de desinformación en las urnas. En Ucrania, por ejemplo, un programa financiado por la Embajada Británica e implementado por CASE Ukraine desarrolló un conjunto de herramientas de tecnología de la información (TI) para permitir que los ciudadanos analizaran los presupuestos estatales, en teoría para desarrollar un pensamiento crítico para contrarrestar la retórica populista de los políticos sobre cuestiones económicas complejas.14 De manera similar, el apoyo al "periodismo explicativo" con base en medios como Vox.com en los Estados Unidos ha surgido como un enfoque para los intentos de los contrapartes de confundir a los ciudadanos sobre cuestiones políticas complejas. VoxUkraine, por ejemplo, con el apoyo de varios donantes internacionales y socios implementadores, ofrece verificación de datos, explicaciones y artículos analíticos, especialmente sobre cuestiones de reforma económica en Ucrania.15

Los enfoques del programa también se han basado en la cultura pop, utilizando la sátira y el humor para fomentar el pensamiento crítico en torno a la desinformación en temas complejos. Por ejemplo, Toronto TV, con el apoyo de National Endowment for Democracy, Internews y Pact, e inspirada en las versiones satíricas estadounidenses de noticias y eventos actuales de Jon Stewart, John Oliver, Hassan Minhaj y otros, utiliza plataformas de redes sociales y segmentos de videos cortos para desafiar las narrativas de desinformación propagadas por políticos prominentes.

Varias de las intervenciones dirigidas a este tema se han centrado en contrarrestar la desinformación antes de los ciclos electorales y comprender el papel de las redes sociales en la difusión de información durante las campañas políticas modernas, como la mesa redonda de IDEA Internacional sobre la "Protección de las elecciones tunecinas", celebrada en 2019. Del mismo modo, el Manual de la campaña de ciberseguridad del Belfer Center, desarrollado en asociación con NDI e IRI, proporciona un contexto y una guía clara para las campañas que enfrentan una variedad de problemas de ciberseguridad, incluida la desinformación y la piratería. En términos de actividades más concretas, los profesionales de DDG están incorporando el monitoreo de los medios a los programas existentes, incluida la observación de las elecciones. Incorporar el monitoreo de los medios a los modelos y actividades de programas existentes es un enfoque prometedor que podría permitir que los programas de DDG contrarresten la desinformación a gran escala. Sin embargo, un posible inconveniente de este enfoque es que centra la intervención en los ciclos electorales, mientras que, tanto el contenido como las tácticas, trascienden los ciclos electorales y operan durante largos períodos de tiempo.16 Teniendo esto presente, los diseñadores de programas y los financiadores deben considerar el apoyo a los esfuerzos que unen las elecciones y, a menudo, ir más allá de la vida útil de un programa estándar de DDG.

En última instancia, los efectos en el mundo real del conocimiento del contenido y los programas de verificación de datos no son claros. La investigación académica sugiere que, si bien la verificación de datos puede cambiar las actitudes individuales en circunstancias muy específicas, también tiene el potencial de causar retrocesos o recortes: una mayor creencia en el material que se verificó en principio.17 Además, parece haber relativamente poca investigación sobre si la verificación de datos disuade la proliferación de desinformación entre las élites políticas. Como anécdota, la verificación de datos puede llevar a los políticos a intentar desacreditar la fuente, en lugar de modificar su comportamiento.18 En última instancia, la rendición de cuentas respecto de cualquier efecto disuasorio de los enfoques de programas de verificación de datos requerirá que los donantes y los implementadores evalúen el impacto de estos programas de manera más rigurosa.

En cualquier caso, la existencia de verificación de datos, medios de verificación o creación de conciencia por sí sola probablemente no sea suficiente para cambiar el comportamiento de los actores políticos con respecto a declaraciones falsas o desinformación. En Ucrania, por ejemplo, la investigación sugiere que las audiencias de los principales medios de verificación de datos estaban limitadas geográficamente. Las audiencias principales tendían a ser más jóvenes, más urbanas, contar con conexión a internet, y ser educadas y ricas, y ya estaban inclinadas a monitorear y sancionar la desinformación por sí mismas.20 Por lo tanto, los programas de verificación y la comprobación de datos deben prestar mucha atención a la ampliación deliberada de las audiencias para incluir poblaciones que de otro modo podrían carecer de la oportunidad o los recursos para acceder a información de alta calidad. Estos programas también deben considerar los esfuerzos para que los mismos funcionarios electos sean conscientes de sus mecanismos de monitoreo y alcance de la audiencia. Si los candidatos o funcionarios electos confían en que los productos de estos medios no son accesibles o utilizados por sus distritos electorales específicos, estos programas serán menos efectivos para cumplir una función de responsabilidad. 

Highlight


La investigación del CEPPS identificó docenas de programas que apoyan a los puntos de verificación de datos en todos los países. Para ver ejemplos concretos, consulte el repositorio de programas y la International Fact-Checking Network del Poynter Institute.

Programas de investigación sobre vulnerabilidad y resiliencia a la desinformación

Estos programas se enfocan en objetivos de desinformación al examinar aspectos de sus antecedentes, los tipos de desinformación a los que responden y otros factores demográficos para comprender cómo son susceptibles o pueden resistir el contenido falso. Para los programas de investigación con socios de partidos políticos, generalmente operan a partir de una teoría del cambio que plantea la hipótesis de que, si existe una mayor conciencia de las vulnerabilidades de la organización a la desinformación, los funcionarios de los partidos políticos estarán motivados para mejorar la resiliencia de su partido. Dos ejemplos destacados de programas de DDG que tienen como objetivo proporcionar investigación sobre vulnerabilidad y resiliencia a los formuladores de políticas, incluidos los funcionarios electos y los partidos políticos, son el Proyecto Beacon de IRI y la Iniciativa INFO/tegrity del NDI.

El Proyecto Beacon de IRI apoya la investigación original sobre la vulnerabilidad y la resiliencia a la desinformación con investigación de la opinión pública, piezas analíticas, monitoreo narrativo y monitoreo de redes sociales y de la corriente principal a través de la experiencia interna y en colaboración con socios locales en Europa. Estos productos de investigación se comparten entre amplias coaliciones de partes interesadas y se aplican en respuestas programáticas a las narrativas de desinformación y a través del compromiso con los formuladores de políticas a nivel local, nacional y de la Unión Europea. De manera similar, la Iniciativa INFO/tegrity del NDI encarga una investigación original sobre las vulnerabilidades a la desinformación, que a su vez fortalece la programación para generar resiliencia, en asociación con partidos políticos, plataformas de redes sociales y empresas de tecnología. Por último, los profesionales de DDG están trabajando cada vez más con socios académicos para producir investigaciones sobre desinformación con el objetivo de mejorar los enfoques programáticos y aumentar la resiliencia. Por ejemplo, el proyecto Defending Digital Democracy en el Belfer Center de la Universidad de Harvard conecta la investigación académica sobre amenazas de desinformación y vulnerabilidad a gobiernos, CSO, empresas de tecnología y organizaciones políticas.

Programas para comprender la propagación de la desinformación en línea

Los investigadores y programadores buscan comprender las raíces de las campañas de desinformación en línea mediante el estudio de conjuntos de datos de contenido de redes sociales para entender la viralidad de ciertos tipos de contenido, comunidades y roles de usuarios individuales.

La desinformación es una táctica de campaña barata y eficaz que, por lo general, pasa desapercibida, lo que hace que el costo para la reputación del uso de la desinformación por parte de los partidos políticos sea efectivamente nulo. Recientemente han surgido varios programas que realizan un seguimiento del uso de granjas de contenido, amplificación falsa, compra de seguidores/me gusta, ejércitos de trolls y otras tácticas por parte de actores políticos. Este enfoque programático ha sido apoyado por la creciente accesibilidad de las habilidades de investigación forense digital, el aumento de la concienciación entre los actores locales sobre el papel que la desinformación puede desempeñar en las campañas políticas y, debido a las preocupaciones sobre la desinformación extranjera maligna durante las elecciones, la inversión hecha en tecnologías de archivo de contenido, mapeo y gráficos de redes sociales y plataformas de monitoreo de medios. Además, se centra en el componente de comportamiento de la desinformación: no intenta evaluar la veracidad del contenido que se produce o amplifica.

La teoría implícita del cambio detrás de este trabajo es que exponer el uso de la desinformación por parte de los partidos políticos durante las campañas tendrá algún costo reputacional, lo que reducirá su capacidad para desplegar tácticas de desinformación con impunidad y provocará daños en las perspectivas electorales de quienes lo hacen. 

Dado que este enfoque es independiente del contenido, es el que más se presta a cambios en las reglas electorales. Al exponer las tácticas que utilizan las campañas políticas que son más dañinas para la integridad democrática, los organismos de gestión electoral pueden prohibir explícitamente el uso de esas tácticas durante un período electoral.

Programas que combaten el discurso de odio, la incitación y la polarización

Un componente de la desinformación y la integridad de la información es el uso de discursos de incitación al odio, a menudo en combinación con información falsa, para incitar, reprimir o polarizar a los usuarios. Este tipo de programa a menudo existe por separado de otros que se centran en la desinformación, pero podría evaluarse como otra posible respuesta.

El discurso de odio, los estereotipos, los rumores, el trolling, el acoso en línea y el doxing son mecanismos a través de los cuales las partes pueden llevar a cabo su función de movilización. Particularmente en entornos con pronunciadas divisiones políticas, sociales o económicas, la propagación de información incendiaria puede servir para activar a los partidarios o desmovilizar a los simpatizantes de los partidos de oposición. Tanto con respecto a las campañas nacionales como extranjeras, la desinformación en este sentido intenta exacerbar las divisiones existentes. Los grupos marginados, que incluyen (pero no se limitan a) mujeres, minorías étnicas, religiosas o lingüísticas, y ciudadanos LGBTI son objetivos comunes de estas campañas, particularmente cuando los perpetradores pretenden ser el chivo expiatorio de los grupos vulnerables por fallas políticas, o cuando pretenden disuadir la participación de estos grupos en el proceso político, ya sea por candidatura o por votación. De hecho, en todos los contextos, la violencia en línea contra las mujeres, incluidos el discurso de odio y las amenazas, la imposición de vergüenza y riesgos para la reputación, y la distorsión sexualizada constituyeron una barrera significativa para la participación de las mujeres en el proceso político al provocar silencio, autocensura y alejamiento del compromiso político, tanto para los objetivos inmediatos como para disuadir la participación de las mujeres en general.21

Además, estas tácticas también pueden ayudar a movilizar a los simpatizantes tomando como base el miedo o la ansiedad en torno al cambio de jerarquías sociales. Es importante destacar que las comunicaciones políticas enmarcadas como estereotipos pueden aumentar la aceptación de información falsa sobre el grupo estereotipado.22 Este atractivo de los estereotipos crea un poderoso incentivo para que los partidos y los personajes políticos ataquen a los grupos vulnerables con desinformación en formas que no sufren los miembros de los grupos internos favorecidos.

En lo programático, los programas de DDG pueden contrarrestar estos efectos primero al reconocer que la desinformación daña de manera desproporcionada a los grupos que históricamente han sido marginados en contextos específicos y al alentar a los socios de los partidos políticos a participar en mensajes que podrían mejorar las actitudes de los partidarios hacia los grupos vulnerables.23 Por ejemplo, la oficina de Uganda de la Fundación Westminster para la Democracia organizó una conferencia electrónica para más de 150 mujeres candidatas a cargos electos en Uganda, con un enfoque en superar las barreras sociales a la participación política, incluida la información falsa y el ciberacoso. Del mismo modo, la Red de Mujeres por la Democracia es una red global de capítulos que comparten las mejores prácticas para identificar y superar las barreras a la participación política de las mujeres. El NDI cuenta con varios programas orientados a identificar y superar las barreras sociales a la participación en los partidos políticos específicamente, incluidas la iniciativa Win with Women y la campaña #NotTheCost, diseñadas para mitigar la discriminación, el acoso, la violencia y otras formas de reacción violenta contra la participación política de las mujeres. De manera similar, la herramienta de planificación de seguridad del NDI proporciona un mecanismo a través del cual las mujeres que participan en la política pueden evaluar en forma privada su seguridad y hacer un plan para aumentarla, especialmente en relación con el acoso, la vergüenza pública, las amenazas y el abuso, la agresión física y sexual, la violencia económica y presión para dejar la política, tanto en espacios en línea como fuera de línea.

Key Resource


Enfoques de red para la ampliación de las mejores prácticas

Estándares de la International Fact-Checking Network de la Poynter Foundation: La International Fact-Checking Network (Red internacional de verificación de datos, IFCN) es un foro de verificadores de datos de todo el mundo auspiciado por el Poynter Institute for Media Studies. Estas organizaciones verifican las declaraciones de personajes públicos, instituciones importantes y otras afirmaciones de interés para la sociedad que circulan ampliamente. El modelo de la IFCN se analiza con más detalle en la sección de normas y estándares y:

  • Supervisa las tendencias y los formatos de la comprobación de datos en todo el mundo, publicando regularmente artículos en el Poynter.org.
  • Proporciona recursos de formación para los verificadores de datos.
  • Apoya los esfuerzos de colaboración en la comprobación de datos a nivel internacional, incluidas las becas.
  • Convoca una conferencia anual (Global Fact).
  • Es el hogar del código de principios de los verificadores de datos.

Recomendaciones de políticas y reforma/Compartir y escalar las buenas prácticas en respuestas programáticas

Los programas que abordan las políticas en torno a los sistemas en línea, las redes sociales e internet pueden ayudar a definir nuevas normas que pueden reducir el impacto de la desinformación. Un papel clave para los donantes de DDG y los socios implementadores es usar su poder de convocatoria para conectar a las diversas partes interesadas con el objetivo de compartir lecciones aprendidas y mejores prácticas, dentro y entre países y programas. Es importante señalar que muchos de los programas analizados anteriormente también cumplen una función de convocatoria importante: a menudo están diseñados deliberadamente para compartir las mejores prácticas entre las partes interesadas clave, incluidos políticos y organizaciones políticas, funcionarios electos, funcionarios públicos, CSO, medios de comunicación y empresas de tecnología. Estas actividades de convocatoria podrían, hipotéticamente, mejorar los resultados a través de dos mecanismos. En primer lugar, el intercambio de lecciones aprendidas y las mejores prácticas podrían aumentar las habilidades, el conocimiento, la capacidad o la voluntad de los socios de los partidos políticos para abstenerse del uso de la desinformación o para tomar medidas con el objetivo de mejorar la resiliencia de los partidos. En segundo lugar, estas actividades de convocatoria podrían cumplir una importante función de coordinación. Se debe recordar que una implicación importante al pensar en la desinformación como una tragedia de los bienes comunes es que los partidos políticos y los candidatos podrían estar dispuestos a renunciar a las ventajas políticas de la desinformación si pudieran estar seguros de que sus oponentes políticos harían lo mismo. Los programas que brindan una interacción regular, programada y continua entre los oponentes políticos podrían aumentar la confianza respecto de que los competidores políticos no hacen trampa. 

Los programas para el fortalecimiento de la Administración Regional de Elecciones y el Proceso Político de la Fundación Internacional para Sistemas Electorales (IFES, por sus siglas en inglés) (REAPPS I y II) en Europa Central y del Este proporcionan un ejemplo de cómo los programas de apoyo a DDG pueden facilitar este tipo de coordinación durante un período de tiempo relativamente largo. El enfoque temático del programa en lo que respecta a la seguridad de la información y la atención explícita a las redes intersectoriales y transfronterizas aborda tanto los enfoques técnicos como los incentivos políticos subyacentes. 


Coalición Design 4 Democracy: La Coalición D4D tiene como objetivo garantizar que la tecnología de la información y las redes sociales desempeñen un papel proactivo en el apoyo a la democracia y los derechos humanos a nivel mundial. Los socios de la coalición crean programas y capacitaciones y se coordinan entre los miembros para promover el uso seguro y responsable de la tecnología con el objetivo de promover políticas abiertas y democráticas y gobiernos transparentes y responsables.

Ayudar a los partidos a proteger la integridad de la información política

Recomendaciones sobre políticas

 

  • Al implementar estos enfoques programáticos, considere los incentivos políticos además de las soluciones técnicas. 
  • Considere un análisis de panorama inclusivo y sensible al género o un análisis de economía política para identificar de qué manera la estructura de las divisiones sociales crea incentivos y oportunidades para que los candidatos o partidos políticos exploten las normas y estereotipos específicos del contexto en torno a la identidad de género, las identidades étnicas o religiosas, la orientación sexual y grupos que históricamente han sido marginados dentro de ese contexto. 
  • Las intervenciones programáticas deben tener en cuenta los intereses divergentes dentro de los partidos (los partidos están compuestos por oficiales, funcionarios electos, grupos de interés, miembros formales, partidarios y votantes), cada uno de los cuales puede tener incentivos únicos para propagar o aprovechar la desinformación. 
  • El problema de la acción colectiva de la desinformación dificulta las interacciones puntuales con socios individuales; considere implementar programas técnicos con interacción regular y continua entre todas las partes relevantes para aumentar la confianza de que los competidores no están "jugando sucio!.
  • De manera relacionada, utilice el poder de convocatoria de los donantes o de las organizaciones implementadoras para traer actores relevantes a la mesa. 
  • Contemple la posibilidad de pactos o promesas, especialmente en períodos preelectorales, en los que todos los partidos principales se comprometen a mitigar la desinformación. Es importante destacar que el acuerdo en sí es palabrería, pero preste especial atención al diseño de las instituciones, tanto dentro del pacto como externamente, para monitorear el cumplimiento.
  • Existe evidencia limitada sobre la efectividad de los enfoques de programas comunes de lucha contra la desinformación con un enfoque en los partidos políticos y la competencia política, incluida la alfabetización mediática, la verificación de datos y el etiquetado de contenido. El hecho de que haya evidencia limitada no implica necesariamente que estos programas no funcionen, solo que los financiadores de DDG y los socios implementadores deben invertir en la evaluación rigurosa de estos programas para determinar su impacto en resultados clave como el conocimiento político, las actitudes y creencias, la polarización, la propensión a participar en el discurso del odio o el acoso, y comportamientos políticos como votar, e identificar qué elementos de diseño distinguen los programas efectivos de los ineficaces. 
  • Las respuestas del programa de DDG han tendido a retrasar el uso de tecnologías sofisticadas por parte de los partidos políticos como la recolección de datos, la microfocalización, los ultrafalsos y el contenido generado por IA. Los financiadores y los socios implementadores deben considerar el uso de fondos de innovación para generar conceptos de respuestas con el objetivo de mitigar los efectos potencialmente dañinos de estas herramientas y evaluar rigurosamente el impacto. 


 

Compromiso específico de la plataforma para la integridad de la información

Escrito por Vera Zakem, asesora sénior de tecnología y políticas en el Institute for Security and Technology y directora ejecutiva en Zakem Global Strategies, Kip Wainscott, asesora principal del National Democratic Institute, y Daniel Arnaudo, asesor de estrategias de información en el National Democratic Institute

 

Las plataformas digitales se han convertido en recursos importantes para compartir información política, organizar comunidades y comunicarse sobre asuntos de interés público. Sin embargo, estas plataformas han emprendido una combinación de respuestas y métodos para contrarrestar la creciente prevalencia de la desinformación y la información falsa que afecta al ecosistema de la información. Con un amplio espectro de comunidades que luchan por mitigar los efectos dañinos de la desinformación, las operaciones de influencia coordinadas del discurso de odio y las formas relacionadas de contenido dañino, el acceso del sector privado a datos y metadatos privilegiados y patentados a menudo los posiciona de manera única para comprender estos desafíos.

Varias empresas de redes sociales y plataformas de mensajería destacadas están aprovechando sus abundantes datos para ayudar a informar respuestas a las campañas de desinformación e información falsa. Estas respuestas varían ampliamente en carácter y eficacia, pero generalmente se las puede identificar en una de las siguientes tres categorías:

  1. políticas, intervenciones de productos y medidas de aplicación para limitar la propagación de la desinformación;
  2. políticas y características del producto para darles a los usuarios mayor acceso a información, datos o contexto fidedignos; y
  3. esfuerzos para promover una respuesta comunitaria más sólida y la resiliencia social, incluida la alfabetización digital y el acceso a internet, la desinformación y la información falsa

Muchas plataformas han implementado nuevas políticas o cambios en la aplicación de las políticas implementadas previamente en respuesta a la desinformación relacionada con la pandemia de COVID-19, las elecciones presidenciales de 2020 en los Estados Unidos y el ataque del 6 de enero Capitolio de los EE. UU. Con un aumento en la información falsa relacionada con COVID-19, la verificación de datos aumentó un 900 % de enero a marzo de 2020, según un estudio de la Universidad de Oxford.  La Organización Mundial de la Salud ha caracterizado esta difusión de información falsa sobre COVID-19 como una "infodemia", que incidentalmente ocurrió en una época en la que aumentó el uso de las redes sociales, ya que muchas personas no han salido mucho de sus casas durante la pandemia.

Además, las elecciones presidenciales de 2020 en los Estados Unidos inspiraron a las principales plataformas a actualizar sus políticas relacionadas con el comportamiento inauténtico coordinado, medios manipulados y campañas de desinformación dirigidas a votantes y candidatos. Del mismo modo, el ataque del 6 de enero al Capitolio de los Estados Unidos ha motivado a las plataformas de redes sociales una vez más a reexaminar y actualizar las políticas y su aplicación en lo que respecta a la desinformación y los riesgos potenciales de la violencia fuera de la Internet. 

En este capítulo, se examinan en más detalle las respuestas de la plataforma a fin de proporcionar una comprensión fundamental de los pasos que utilizan las plataformas de redes sociales y los servicios de cifrado para abordar la desinformación. En todos estos diversos enfoques, es importante tener en cuenta que las políticas de redes sociales y las acciones de aplicación de la ley evolucionan constantemente a medida que el panorama de amenazas cambia constantemente. Para comprender mejor estos cambios, las plataformas más destacadas, incluidas Twitter, YouTube y Facebook, publican periódicamente informes de transparencia que proporcionan datos a los usuarios, los legisladores, los pares y las partes interesadas de la sociedad civil sobre cómo estas plataformas actualizan sus políticas, las estrategias de aplicación y las funciones de sus productos para responder al panorama dinámico de amenazas y desafíos sociales. Para ayudar a dar cuenta de estas dinámicas en constante movimiento, y como se destaca a lo largo de este capítulo, en muchos casos las plataformas se han asociado con grupos locales, organizaciones de la sociedad civil, medios de comunicación, académicos y otros investigadores para diseñar respuestas a estos desafíos en el espacio en línea. Dada la naturaleza cambiante del panorama de amenazas, aquí se documentan las políticas, los productos y las acciones de cumplimiento relevantes, con base en la información disponible a partir de la publicación de esta guía.  

 

Compromiso específico de la plataforma para la integridad de la información

En reconocimiento de la prevalencia de la desinformación y el potencial de causar daño, muchas plataformas de redes sociales han tomado medidas para limitar, eliminar o combatir tanto la desinformación como la información falsa de diversas maneras. Estas respuestas generalmente se basan en las políticas de las plataformas con respecto al contenido y el comportamiento y, en su mayoría, son puestas en práctica mediante funciones del producto y la intervención técnica o humana. En esta sección, se examina la variedad de enfoques que las empresas han adoptado para abordar la desinformación digital en sus plataformas.

A veces, la moderación del contenido en las redes sociales se presenta bajo el pretexto de combatir la desinformación cuando, en realidad, está al servicio de objetivos gubernamentales antiliberales. Es importante tener en cuenta que las plataformas controladas por empresas en países autoritarios a menudo eliminan la desinformación y otros contenidos dañinos. Esto puede generar importantes preocupaciones sobre la censura, especialmente cuando el daño se define como una crítica dirigida al gobierno bajo el cual opera la empresa. 

 

(A). Políticas de las plataformas sobre la desinformación y la información falsa

Un puñado de las empresas de redes sociales más grandes y populares del mundo ha desarrollado políticas para abordar la desinformación y la información falsa.  En esta sección, se examinan algunas de las respuestas más importantes del sector privado a la desinformación, incluidas las de Facebook, Twitter y YouTube, así como de empresas en crecimiento, como Tik Tok y otras.

1. Políticas de Facebook

En Facebook, las actividades de los usuarios se rigen por un conjunto de políticas conocidas como Normas comunitarias.. Actualmente, este conjunto de reglas no prohíbe la desinformación ni la información falsa en términos generales; sin embargo, presenta varias prohibiciones que pueden aplicarse para contrarrestar la desinformación y la información falsa en contextos específicos. Por ejemplo, las Normas comunitarias prohíben contenido que tergiverse la información sobre las votaciones o elecciones, incite a la violencia, promueva el discurso de odio o incluya información falsa relacionada con la pandemia de COVID-19. Además, las Normas comunitarias prohíben el "Comportamiento inauténtico coordinado", que se define para prohibir en general las actividades que son características de las operaciones de información a gran escala en la plataforma. Una vez detectadas, se eliminan las redes que participan en un comportamiento inauténtico coordinado. Además, Facebook ha comenzado a desarrollar políticas, interactuar con expertos y desarrollar tecnología para aumentar la seguridad de las mujeres en su plataforma y su familia de aplicaciones. Las reglas contra el acoso, los mensajes no deseados y las imágenes íntimas no consensuadas dirigidas de manera desproporcionada hacia las mujeres son parte de los esfuerzos de Facebook para hacer que las mujeres se sientan más seguras.

Fuera de estos contextos específicos, las Normas comunitarias de Facebook incluyen un reconocimiento de que, si bien la desinformación no está inherentemente prohibida, la empresa tiene la responsabilidad de reducir la difusión de "noticias falsas". Al hacer operativa esta responsabilidad, Facebook se compromete a reducir algorítmicamente (o degradar) la distribución de dicho contenido, además de otras medidas para mitigar su impacto y desincentivar su difusión. La empresa también desarrolló una política de eliminación de categorías particulares de medios manipulados que pueda confundir a los usuarios; sin embargo, la política tiene un alcance limitado. Se extiende solo a los medios que son producto de la inteligencia artificial o el aprendizaje automático e incluye una concesión para cualquier medio que se considere sátira o contenido que edita, omite o cambia el orden de las palabras que realmente se dijeron.

Vale la pena reconocer que, si bien las políticas de Facebook generalmente se aplican a todos los usuarios, la compañía señala que "[en] algunos casos, permitimos contenido que de otro modo iría en contra de nuestras Normas comunitarias, si es de interés periodístico y público". La empresa indicó además que el discurso de los políticos generalmente se tratará como dentro del alcance de esta excepción de interés periodístico y, por lo tanto, no estará sujeto a eliminación. Sin embargo, estas publicaciones están sujetas a etiquetado, lo que indica que infringen las Normas comunitarias.  En los últimos años, Facebook ha tomado medidas para eliminar el discurso político y a los políticos de la plataforma, incluido el expresidente Donald Trump, a raíz del ataque del 6 de enero al Capitolio de los EE. UU. En 2018, Facebook también eliminó de la plataforma a Min Aung Hlaing y a altos líderes militares de Birmania por llevar a cabo campañas de desinformación e incitar a la violencia étnica.

2. Políticas de Twitter

Las Reglas de Twitter rigen el contenido permitido en Twitter, y aunque no existe una política general sobre información falsa, las Reglas incluyen varias disposiciones para abordar el comportamiento y el contenido engañoso o falso en contextos específicos. Las políticas de Twitter prohíben la desinformación y otros contenidos que puedan suprimir la participación o confundir a las personas sobre cuándo, dónde o cómo participar en un proceso cívico; contenido que incluya discursos de odio o incite a la violencia o al acoso; o contenido que vaya directamente en contra de la orientación de fuentes fidedignas de información de salud pública global y local. Twitter también prohíbe el comportamiento inauténtico y el correo no deseado, que es un elemento de las operaciones de información que hace uso de la desinformación y otras formas de contenido manipulador. En relación con la desinformación, Twitter actualizó su política de comportamiento de odio para prohibir el lenguaje que deshumaniza a las personas por motivos de raza, etnia y origen nacional.

Tras la consulta pública, Twitter también adoptó una política con respecto a compartir medios sintéticos o manipulados que puedan confundir a los usuarios. La política requiere una evaluación de tres elementos, que incluyen si (1) los medios en sí son manipulados (o sintéticos); (2) los medios se comparten de manera engañosa o confusa; y si (3) el contenido corre el riesgo de causar daños graves (incluida la seguridad física de los usuarios, el riesgo de violencia masiva o disturbios civiles, y cualquier amenaza a la privacidad o capacidad de una persona o grupo para expresarse libremente o participar en eventos cívicos). Si se cumplen los tres elementos de la política, incluida la determinación de que es probable que el contenido cause un daño grave, Twitter elimina el contenido. Si solo se cumplen algunos de los elementos, Twitter puede etiquetar el contenido manipulado, advertir a los usuarios que intenten compartirlo o adjuntar enlaces a contenido confiable de verificación de datos para proporcionar más contexto.

En el contexto de la desinformación electoral y política, las políticas de Twitter sobre las elecciones prohíben explícitamente la información engañosa sobre el proceso de votación. Sus reglas señalan que "No puede utilizar los servicios de Twitter con el propósito de manipular o interferir en elecciones u otros procesos cívicos. Esto incluye publicar o compartir contenido que pueda suprimir la participación o confundir a las personas sobre cuándo, dónde o cómo participar en un proceso cívico". Sin embargo, las declaraciones inexactas sobre un funcionario, candidato o partido político electo o designado están excluidas de esta política. Siguiendo estas reglas, Twitter ha eliminado publicaciones que incluyen desinformación sobre los procesos electorales, como promover el día de votación incorrecto o información falsa sobre los lugares de votación. Se aborda contenido que los observadores electorales de las organizaciones electorales y otros están trabajando cada vez más para monitorear e informar. Es de destacar que los tuits de funcionarios electos y políticos pueden estar sujetos al interseccional de interés público de Twitter. 

Bajo su excepción de interés público, Twitter señala que "puede optar por dejar un tuit de un funcionario electo o gubernamental que de otro modo sería eliminado" y cita el interés del público en conocer las acciones y declaraciones de los funcionarios. Cuando se aplica esta excepción, en lugar de eliminar el contenido ofensivo, Twitter lo "pone detrás de un aviso que proporciona contexto sobre el incumplimiento de la regla, lo que permite que las personas hagan clic para ver el tuit". La empresa ha identificado criterios para determinar cuándo un tuit que infringe sus políticas puede estar sujeto a esta excepción de interés público, lo que incluye:

  1. El tuit infringió una o más de las reglas de la plataforma. 
  2. Fue publicado por una cuenta verificada. 
  3. La cuenta tiene más de 100.000 seguidores.
  4. La cuenta representa a un miembro actual o potencial de un cuerpo gubernamental o legislativo. 

Al considerar cómo aplicar esta excepción, la empresa también desarrolló y publicó un conjunto de protocolos para sopesar el riesgo potencial y la gravedad del daño contra el valor de interés público del tuit. Durante el ciclo de elecciones presidenciales 2020 de los EE. UU., Twitter aplicó el aviso interseccional de interés público a muchos de los tuits del expresidente Donald Trump. Los tuits que caen bajo esta etiqueta incluyen la siguiente advertencia como se muestra a continuación:

Imagen

Tras el ataque del 6 de enero al Capitolio de los EE. UU. y los tuits que mostraban incitación a la violencia, Twitter eliminó al ex presidente Trump de la plataforma. La empresa publicó un blog con sus argumentos.

Por último, también es de destacar que Twitter ha mostrado voluntad para desarrollar políticas en respuesta a temas específicos que presentan el riesgo de contaminar el entorno de información de la plataforma. Por ejemplo, la empresa implementó un conjunto de políticas especiales para eliminar contenido relacionado con la teoría de conspiración de QAnon y las cuentas que la divulgan. Desde el inicio de la pandemia de COVID-19, Twitter también ha desarrollado políticas para contrarrestar la desinformación y la información engañosa relacionada con covid, incluida la Política de información falsa sobre COVID-19 que afecta la salud y la seguridad pública.

3. Políticas de YouTube

YouTube sigue una política de tres strikes que da lugar a la suspensión o terminación de cuentas ofensivas relacionadas con la desinformación. Las políticas de YouTube incluyen varias disposiciones sobre la desinformación en contextos particulares, incluido el contenido que tiene como objetivo confundir a los votantes sobre la hora, el lugar, los medios o los requisitos de elegibilidad para votar o participar en un censo; que expresa declaraciones falsas relacionadas con los requisitos de elegibilidad para que los candidatos políticos se presenten como candidatos a cargos públicos y los funcionarios gubernamentales electos se desempeñen en el cargo; o promueve la violencia o el odio contra o acosa a personas o grupos basándose en atributos intrínsecos. Además, YouTube también ha ampliado su política contra el acoso que prohíbe que los creadores de videos usen discursos de odio e insultos por motivos de género, orientación sexual o raza.

Al igual que otras plataformas, las reglas también incluyen una política específica contra la desinformación con respecto a la salud pública o la información médica en el contexto de la pandemia de COVID-19. A medida que los videos engañosos en YouTube sobre el coronavirus recibían 62 millones de visitas en solo los primeros meses de la pandemia, YouTube indicó que eliminó "miles y miles" de videos que difunden información errónea infringiendo las políticas de la plataforma. La plataforma reiteró su compromiso de detener la difusión de contenido tan dañino. 

YouTube también desarrolló una política sobre los medios manipulados, que prohíbe el contenido que ha sido manipulado o alterado técnicamente de una manera que confunde a los usuarios (más allá de los clips sacados de contexto) y puede suponer un riesgo grave de daño atroz. Para mitigar aún más los riesgos de las campañas de manipulación o desinformación, YouTube también tiene políticas que prohíben la suplantación de cuentas, tergiversando el propio país de origen u ocultando la relación con un actor del gobierno. Estas políticas también prohíben aumentar artificialmente las métricas de participación, ya sea mediante el uso de sistemas automáticos o mediante la presentación de videos a espectadores desprevenidos.

4. Políticas de TikTok

En enero de 2020, TikTok implementó una función para que los usuarios identifiquen contenido como información falsa seleccionando su nueva categoría de información falsa. Propiedad de la empresa china ByteDance, TikTok ha sido ensombrecida por preocupaciones de privacidad, ya que la normativa china exige que las empresas cumplan las solicitudes del gobierno de entregar datos. En abril de 2020, TikTok emitió una declaración sobre la forma en que la empresa maneja la información personal, destacando su "adherencia a estándares de control de seguridad reconocidos a nivel mundial, como NIST CSF, ISO 27001 y SOC2", sus objetivos hacia una mayor transparencia y sus limitaciones en la "cantidad de empleados que tienen acceso a los datos de los usuarios".

Si bien tales preocupaciones sobre la privacidad han cobrado gran importancia en los debates públicos relacionados con la plataforma, la desinformación también es un desafío que la compañía ha estado navegando. En respuesta a estos problemas, TikTok ha implementado políticas para prohibir la información falsa que podría causar daño a los usuarios, "incluido el contenido que confunde a las personas en temas de elecciones u otros procesos cívicos, el contenido distribuido por campañas de desinformación y la información falsa sobre la salud". Estas políticas se aplican a todos los usuarios de TikTok (independientemente de si son figuras públicas), y se implementan a través de una combinación de eliminación de contenido, prohibiciones de cuentas y haciendo que sea más difícil buscar contenido dañino, como información falsa y teorías de conspiración, en las recomendaciones o funciones de búsqueda de la plataforma. TikTok estableció una política de moderación "que prohíbe el contenido sintético o manipulado que engañe a los usuarios distorsionando la verdad de eventos de una manera que podría causar daño". Esto incluye prohibir los ultrafalsos para evitar la propagación de la desinformación.

5. Políticas de Snapchat

En enero de 2017, Snapchat creó por primera vez políticas para combatir la propagación de la desinformación. Snapchat implementó políticas para sus proveedores de noticias en la página Discover de la plataforma con el fin de combatir la desinformación y regular la información que se considera inapropiada para menores de edad. Según estas nuevas pautas, los medios de comunicación deben verificar sus artículos antes de que se puedan mostrar en la página Discover de la plataforma para evitar la propagación de información falsa.

En un artículo de opinión, el CEO de Snapchat, Evan Spiegel, describió la plataforma como diferente de otros tipos de redes sociales y muchas otras plataformas, diciendo que "el contenido diseñado para ser compartido por amigos no es necesariamente contenido diseñado para brindar información precisa". La diferencia inherente entre Snapchat y otras plataformas le permite combatir la información falsa de una manera única. En Snapchat, no hay una fuente de información de los usuarios como ocurre con muchas otras plataformas de redes sociales, una distinción que hace que Snapchat sea más comparable a una aplicación de mensajería. Con las actualizaciones de Snapchat, la plataforma utiliza editores humanos que monitorean y regulan lo que se promociona en la página Discover, evitando la difusión de información falsa.

En junio de 2020, Snapchat emitió un comunicado en el que expresaba su solidaridad con la comunidad negra en medio de las protestas de Black Lives Matter tras la muerte de George Floyd. La plataforma destacó que "seguirá permitiendo que las personas divisivas mantengan una cuenta en Snapchat, siempre y cuando el contenido que se publique en Snapchat sea congruente con nuestras [de Snapchat] pautas comunitarias, pero nosotros [Snapchat] no promocionaremos esa cuenta o contenido de ninguna manera". Snapchat también anunció que ya no promoverá los tuits del presidente Trump en su página de inicio Discover, citando "que sus comentarios públicos sobre el sitio podrían incitar a la violencia".

6. VKontakte

Si bien muchas de las plataformas más grandes han adoptado políticas para abordar la desinformación, hay excepciones notables a esta tendencia. Por ejemplo, VKontakte es una de las plataformas de redes sociales más populares en Rusia y ha sido mencionada por su uso para difundir la desinformación, particularmente en las elecciones rusas. La plataforma también ha sido comentada porque la usan grupos respaldados por el Kremlin para difundir la desinformación más allá de las fronteras de Rusia, y afectan las elecciones de otros países, como en Ucrania. Si bien la plataforma se utiliza con frecuencia como un medio para difundir desinformación, no parece que VKontakte esté aplicando ninguna política para detener la difusión de noticias falsas. 

7. Parler

Parler se creó en 2018 y a menudo ha sido apodada como la alternativa a Twitter para las voces conservadoras, en gran parte debido a su enfoque en la libertad de expresión con solo políticas de menor importancia para la moderación de contenido. Este discurso irrestricto y no moderado ha provocado un aumento del antisemitismo, el odio, la desinformación y la propaganda, y el extremismo. Parler ha sido vinculada a la planificación coordinada de la insurrección del 6 de enero en el Capitolio de los EE. UU. A raíz de este evento, varios servicios, incluidos Amazon, Apple y Google, eliminaron a Parler de sus plataformas debido a la falta de moderación de contenido y un grave riesgo para la seguridad pública. Este movimiento muestra las formas en que el mercado más amplio puede ejercer presión sobre plataformas específicas para que implementen políticas para combatir la desinformación y otros contenidos dañinos. 

(B). Intervenciones técnicas y de productos para limitar la desinformación

Las plataformas del sector privado han desarrollado una serie de características de productos e intervenciones técnicas destinadas a ayudar a limitar la propagación de la desinformación, al mismo tiempo que equilibran los intereses de la libre expresión. El diseño y la implementación de estos mecanismos dependen en gran medida de la naturaleza y funcionalidad de plataformas específicas. En esta sección, se examinan las respuestas en estas plataformas, incluidos los servicios de redes sociales tradicionales, las plataformas para compartir imágenes y videos, y las aplicaciones de mensajería. Cabe señalar que uno de los mayores problemas que estas plataformas han intentado abordar y siguen haciéndolo en todos los ámbitos es la viralidad: la velocidad a la que la información viaja en estas plataformas. Cuando la viralidad se combina con el sesgo algorítmico, eso puede dar lugar a campañas de desinformación coordinadas, disturbios civiles y daños violentos.

1. Servicios de redes sociales tradicionales

Dos de las empresas de redes sociales más grandes del mundo, Facebook y Twitter, han implementado intervenciones y funciones para suprimir la viralidad de la desinformación y alertar a los usuarios sobre su presencia o crear fricciones que impacten el comportamiento del usuario para disminuir la velocidad de difusión de la información falsa dentro de y entre las redes.

En Twitter, los equipos de productos en 2020 comenzaron a implementar avisos automatizados que advierten a los usuarios que no compartan enlaces que no hayan abierto ellos mismos. Esta medida tiene como objetivo "promover un debate informado" y alentar a los usuarios a evaluar la información antes de compartirla. Esto sigue a la introducción de etiquetas de contenido y advertencias que la plataforma ha colocado en los tuits que no están sujetos a eliminación según las políticas de la plataforma (o según la excepción de "interés público" de la empresa, como se describió anteriormente), pero que, no obstante, pueden incluir información falsa o medios manipulados. Si bien estas etiquetas les dan más contexto a los usuarios (y se examinan más a fondo en la sección de este capítulo dedicada a dichas funciones), las etiquetas en sí mismas introducen una señal y una posible fricción que puede afectar la decisión del usuario de compartir o distribuir información falsa. 

Los esfuerzos técnicos de Facebook para reducir la desinformación incluyen el uso de estrategias algorítmicas para "rebajar el nivel" de la información falsa o controvertida, disminuyendo la visibilidad del contenido en las noticias y reduciendo la medida en que la publicación se pueda encontrar orgánicamente. La empresa también aplica estos límites de distribución contra páginas enteras y sitios web que comparten noticias falsas en repetidas ocasiones. La compañía también ha comenzado a usar avisos para los usuarios que han interactuado con cierta información falsa y desinformación en contextos limitados, como en relación con algunas elecciones en particular o con respecto a la información de salud falsa relacionada con la pandemia de COVID-19. Aunque esta intervención tiene un uso limitado, la empresa dice que estos avisos forman parte de un esfuerzo para "ayudar a los amigos y familiares a evitar información falsa".

Tanto Twitter como Facebook utilizan la automatización para detectar ciertos tipos de información falsa y desinformación y aplicar las políticas de contenido. Estos sistemas han jugado un papel más predominante durante la pandemia, ya que, debido a las preocupaciones de salud pública, los moderadores de contenido humano se han tenido que dispersar de las oficinas. Las empresas también emplean herramientas técnicas para ayudar en la detección de actividad inauténtica en sus plataformas. Si bien estos esfuerzos no son visibles para los usuarios, las empresas divulgan públicamente los frutos de estos trabajos en informes periódicos de transparencia, que incluyen datos sobre eliminaciones de cuentas. Estas funciones de los productos se han implementado en todo el mundo, incluso en Sri Lanka, Birmania, Nigeria y otros países. 

Las plataformas que comparten videos e imágenes también han integrado funciones en sus productos para limitar la difusión de información falsa. En Instagram, una empresa de Facebook, la plataforma elimina el contenido identificado como información falsa de su página Explore y de los hashtags. La plataforma también hace que las cuentas que publican información falsa repetidamente sean más difíciles de encontrar filtrando el contenido de esa cuenta de las páginas donde se puede buscar. A continuación, se muestran ejemplos de las formas en que Instagram ha integrado la prevención de la desinformación y la información falsa en el desarrollo de sus productos:

Imagen

TikTok utiliza la tecnología para aumentar sus prácticas de moderación de contenido, particularmente para ayudar a identificar comportamientos, patrones y cuentas inauténticos dedicados a difundir contenido engañoso o no deseado.  La empresa señala que sus herramientas hacen cumplir las reglas y dificultan la búsqueda de contenido dañino, como información falsa y teorías de conspiración, en las recomendaciones o funciones de búsqueda de la plataforma.

Para respaldar la aplicación de sus políticas, YouTube emplea de manera similar tecnología —en particular, el aprendizaje automático— para aumentar sus esfuerzos. Como señala la empresa entre sus políticas, "el aprendizaje automático es adecuado para detectar patrones, lo que nos ayuda a encontrar contenido similar a otro contenido que ya hemos eliminado, incluso antes de que se vea".

2. Aplicaciones de mensajería

Las plataformas de mensajería han demostrado ser vectores importantes de la proliferación de desinformación. Los riesgos son particularmente pronunciados entre las plataformas cerradas y cifradas, donde las empresas no pueden monitorear ni revisar el contenido. 

A pesar de la complejidad del desafío de la desinformación en las plataformas cerradas, WhatsApp en particular ha estado desarrollando métodos técnicos para mitigar los riesgos. Tras un episodio violento en India vinculado a mensajes virales en la plataforma que se reenviaron a grupos grandes de hasta 256 usuarios a la vez, WhatsApp introdujo límites en el reenvío de mensajes en 2018 —que impiden que los usuarios reenvíen un mensaje a más de cinco personas— así como indicadores visuales para garantizar que los usuarios puedan distinguir entre mensajes reenviados y contenido original. Más recientemente, en el contexto de la pandemia de COVID-19, WhatsApp limitó aún más el reenvío al anunciar que los mensajes que se han reenviado más de cinco veces posteriormente solo se pueden compartir con un usuario a la vez. Si bien la naturaleza cifrada de la plataforma dificulta la evaluación del impacto de estas restricciones sobre la desinformación específicamente, la compañía informa que las limitaciones han reducido la difusión de los mensajes reenviados en un 70 %.

Además de restringir la conducta de reenvío en la plataforma, WhatsApp también ha desarrollado sistemas para identificar y eliminar cuentas automatizadas que envían grandes volúmenes de mensajes. La plataforma está experimentando con métodos para detectar patrones en los mensajes a través de prácticas de evaluación de cifrado homomórfico. Estas estrategias pueden ayudar a informar el análisis y las intervenciones técnicas relacionados con las campañas de desinformación en el futuro. 

WhatsApp, propiedad de Facebook, busca especialmente combatir la información errónea sobre COVID-19, ya que dicho contenido continúa volviéndose viral. Los esfuerzos de la empresa han ayudado a detener la propagación de la desinformación y la información falsa sobre covid. WhatsApp creó un chatbot de alerta sanitaria de la OMS para proporcionar información precisa sobre COVID-19. Los usuarios pueden enviar un mensaje de texto a un número de teléfono para acceder al chatbot. El chatbot proporciona información básica inicialmente y permite que los usuarios hagan preguntas sobre temas, incluidas las últimas cifras, protección, cazadores de mitos, consejos de viaje y noticias actuales. Esto permite que los usuarios obtengan información precisa y respuestas directas a sus preguntas. WhatsApp ha proporcionado información a través de este servicio a más de un millón de usuarios.

3. Motores de búsqueda

Google ha implementado esfuerzos técnicos para promover la integridad de la información en la búsqueda. Google cambió su algoritmo de búsqueda para combatir la difusión de noticias falsas y las teorías de conspiración. En una entrada de blog, el vicepresidente de ingeniería de Google, Ben Gomes, escribió que la empresa "ayudará a que aparezcan más páginas fidedignas y a degradar el contenido de baja calidad" en las búsquedas. En un esfuerzo por proporcionar pautas de búsqueda mejoradas, Google está agregando personas reales para que actúen como evaluadores a fin de "evaluar la calidad de los resultados de búsqueda de Google; envíenos sus comentarios sobre nuestros experimentos". Google también proporcionará "herramientas de retroalimentación directa" para permitir que los usuarios marquen el contenido inútil, sensible o inapropiado que aparece en sus búsquedas. 

 

Compromiso específico de la plataforma para la integridad de la información

A medida que las plataformas tecnológicas del sector privado enfrentan el problema de la desinformación y la información falsa en sus servicios, una estrategia común ha sido brindar a los usuarios un mayor acceso a información autorizada y datos contextualizados. Hasta la fecha, estas estrategias han incluido etiquetar contenido que puede ser engañoso o perjudicial para los usuarios, dirigir a los usuarios a fuentes de información oficiales sobre temas importantes como la votación o la salud pública, y proporcionar a los investigadores y observadores de la sociedad civil acceso a herramientas y datos para comprender mejor el entorno de la información a través de varios servicios digitales.

1. Facebook

Facebook ha implementado una serie de iniciativas para mejorar el acceso a los datos y la información autorizada tanto para los usuarios como para los investigadores. Por ejemplo, en el contexto de las elecciones la empresa ha introducido etiquetas de información para cualquier contenido de usuario haciendo referencia a "boletas electorales" o "votación" (independientemente de la veracidad del contenido). Las etiquetas dirigen a los usuarios a la información oficial de la votación y se basan en los esfuerzos relacionados de diferentes contextos internacionales. Por ejemplo, durante el proceso electoral y de paz en Colombia, Facebook creó un botón "Votante informado" y recordatorios "Día de las elecciones", que ayudaron a difundir información creíble sobre el proceso electoral. Como preparación para las elecciones locales de 2019 en Colombia, Facebook se asoció con el Consejo Nacional Electoral de Colombia (CNE) para proporcionar a los ciudadanos información creíble sobre la votación al incluir un botón de votante y un recordatorio sobre la votación. El botón de votante informado, como en otros contextos, redirigía al usuario a la autoridad electoral local para obtener información sobre dónde y cuándo podía votar.  A continuación, se muestra un ejemplo de la información para votantes disponible en Facebook.

Imagen

Facebook también ha comenzado a etiquetar ciertos medios controlados por el Estado para brindar mayor transparencia sobre las fuentes de información de la plataforma. Estas etiquetas aparecen actualmente en las bibliotecas de anuncios de la plataforma y en páginas y con el tiempo se ampliarán para ser más visibles. Las etiquetas se basan en funciones de transparencia que ya están en funcionamiento en las páginas de Facebook, que incluyen paneles que proporcionan contexto sobre cómo se administra la página (incluida información sobre los usuarios que administran la página y los países desde los que operan), así como también información sobre si la página es controlada por el Estado. Se ha expandido para incluir etiquetas en los medios patrocinados por el Estado, una práctica que fue replicada por Twitter en agosto de 2020 y también incluyó figuras políticas y de los medios de comunicación.

En respuesta a la pandemia, en abril de 2020, Facebook anunció que informará a los usuarios si han estado expuestos a información falsa sobre la COVID-19 en un esfuerzo por eliminar de la plataforma información incorrecta. Los usuarios que se hayan involucrado con la información falsa serán dirigidos a un sitio web de la Organización Mundial de la Salud que desacredita los mitos sobre la COVID-19. Facebook también ha creado un Centro de Información sobre el Coronavirus, que contiene información sobre el virus proporcionada por funcionarios de salud pública y líderes locales. A través de estos esfuerzos, Facebook e Instagram han dirigido a más de 2000 millones de personas a información de salud confiable. El gráfico a continuación destaca los esfuerzos de Facebook para educar a los consumidores sobre la desinformación de la COVID-19.

Imagen

Para respaldar la investigación y el análisis en la plataforma, Facebook permite un mayor acceso a los datos a través de su aplicación Crowdtangle. Facebook y otras plataformas han permitido un mayor acceso a los usuarios a través de la aplicación Crowdtangle, que les permite rastrear páginas y artículos a través de un tablero y conjuntos de datos descargables. Crowdtangle está disponible para académicos y otros investigadores de manera más abierta. Crowtangle también tiene un complemento abierto para Chrome que permite a los usuarios comprender el alcance de los artículos en Facebook, Instagram, Reddit y Twitter.  

Además, dado que la publicidad es un vector común para la propagación de desinformación política y de otro tipo, Facebook ha ampliado el acceso a la información publicitaria a través de varias bases de datos y archivos de anuncios. Esto incluye el acceso a la API de la Biblioteca de anuncios para que los investigadores y aquellos con cuentas de desarrollador de Facebook estudien datos sobre cómo se utilizan los anuncios en tiempo real y para evitar el uso indebido de la plataforma a través de anuncios dirigidos. La API permite a los investigadores acceder al conjunto de datos de contenido de Facebook de forma más directa a través de un sistema automatizado y crea un mecanismo integral para la recopilación y el análisis de datos. 

2. WhatsApp

Como plataforma de mensajería encriptada, WhatsApp solo tiene información limitada disponible para usuarios e investigadores sobre las actividades en sus servicios. Sin embargo, WhatsApp ha admitido el acceso a su API para respaldar ciertas iniciativas de investigación. La empresa ha ampliado el acceso a la API a través del sistema Zendesk, especialmente para los grupos conectados a First Draft Coalition, como Comprova en Brasil y CrossCheck en Nigeria.  Este enfoque se ha utilizado para recopilar datos sobre eventos políticos, la difusión de información falsa, discursos de odio y otros objetivos de investigación. La International Fact-Checking Network también ha desarrollado una colaboración con WhatsApp que incluye acceso a la API para ciertos tipos de investigación, incluida una iniciativa lanzada en 2020 para combatir la información falsa asociada con la pandemia de COVID-19.

3. Twitter

Twitter ha desarrollado una serie de políticas, campañas y características de productos con el objetivo de proporcionar a los usuarios acceso a información fidedigna y autorizada. En 2020, Twitter realizó importantes esfuerzos para facilitar a los usuarios el acceso a información creíble sobre las elecciones, incluida las elecciones presidenciales de los Estados Unidos, para que los usuarios pudieran acceder de forma fiable a información precisa sobre la votación y la integridad de los resultados electorales. Estos esfuerzos también incluyeron características y mejoras adicionales del producto para evitar que los usuarios compartan información engañosa sobre la votación.  

De manera similar, en relación con la pandemia de COVID-19, Twitter realizó fuertes inversiones para garantizar que los usuarios encuentren información de salud pública confiable y creíble. Por ejemplo, un indicador de búsqueda #KnowTheFacts (Conoce los hechos) ha sido traducido a varios idiomas y ayuda a los usuarios a encontrar información local creíble y enlaces a organizaciones que están trabajando para frenar las amenazas de la COVID-19. La compañía también actualizó su enfoque para abordar y contextualizar la información engañosa sobre la COVID-19 en su plataforma. Por ejemplo, Twitter anunció en mayo de 2020 que la empresa etiquetaría tuits engañosos sobre la COVID-19 "para proporcionar explicaciones o aclaraciones adicionales en situaciones en las que los riesgos de daño asociados con un tuit son menos graves, pero en las que el contenido puede confundir o engañar a las personas". Twitter también ha proporcionado acceso a su API a los investigadores y académicos para que estudien más a fondo la conversación pública sobre COVID-19 en tiempo real. 

En términos más generales, Twitter se asoció con la UNESCO y la OEA en cuanto a guías para mejorar la alfabetización mediática, y también con organizaciones de todo el mundo. Tras su decisión de prohibir la publicidad política, Twitter anunció que discontinuaría su Centro de transparencia publicitaria.

 

A continuación, se muestran ejemplos del enfoque de Twitter para proporcionar información creíble a los usuarios:

ImagenImagen

La Organización Electoral de Colombia, el Consejo Nacional Electoral (o CNE), ha trabajado con Facebook y Twitter para promover de manera activa el acceso a información creíble sobre las elecciones, monitorear la desinformación y ofrecer características mejoradas del producto que informan, recuerdan y educan a los votantes sobre la votación. El CNE ha firmado memorandos de entendimiento con ambas empresas y ha trabajado activamente para capacitar a sus funcionarios en el monitoreo de plataformas en línea y la presentación de informes de contenido. El CNE también trabajó en coordinación con las empresas durante las elecciones locales de 2019 para capacitar al personal en el uso de herramientas de Twitter, como Tools, Periscope, Moments, Twitter Mirror, Q&A, Tweetdeck y otras mejores prácticas. El CNE también ayudó a estas plataformas a configurar una cuenta automatizada para responder a consultas electorales, un hashtag, y habilitó comunicaciones como videos en vivo durante todo el proceso electoral. Para el CNE, la asociación con Facebook y Twitter ha sido especialmente importante, dado que la desinformación afecta a todas las personas, incluidas las comunidades marginadas, como las mujeres, las personas LGBTQ y otros.

4. Google

Los "paneles de conocimiento" de Google son cuadros de información que aparecen cuando los usuarios buscan personas, lugares, cosas y organizaciones que están en el "gráfico de conocimiento". Estos paneles generan automáticamente cuadros de información que proporcionan una instantánea de la información sobre un tema en particular. Si bien los paneles de conocimiento se crearon para proporcionar información y abordar la información y las noticias falsas, han sido la causa de la magnificación de parte de la desinformación. A continuación, se muestra un ejemplo de un panel de conocimiento:

Imagen

 

5. YouTube

Con el fin de proporcionar información precisa a los usuarios, YouTube ofrece las funciones "Noticias de última hora" y "Noticias destacadas", que elevan información de fuentes de noticias verificadas. Como parte de los esfuerzos continuos de la empresa, YouTube indicó que está ampliando el uso de "paneles de información" para darles a los usuarios un contexto adicional del de los verificadores de datos.

YouTube también ha trabajado para etiquetar cierto contenido durante la pandemia de COVID-19 como cuestionable y ha eliminado contenido engañoso verificable, particularmente relacionado con el video de Plandemic, que se volvió viral en marzo de 2020 cuando la COVID-19 comenzó a propagarse rápidamente.

6. TikTok

Para promover la información fidedigna sobre COVID-19 en respuesta a la propagación de desinformación, TikTok se asoció con la Organización Mundial de la Salud (OMS) para crear una página de destino a fin de que la organización proporcione datos precisos, información de seguridad, preguntas y respuestas, y videos informativos sobre la pandemia. Esta asociación permite que la OMS proporcione información a un público más joven que muchas otras plataformas de redes sociales. El jefe de producto de TikTok señaló que esta asociación ha permitido que la plataforma actúe de manera "global y completa" para brindar información precisa a sus usuarios. TikTok también revisó sus pautas para denunciar información engañosa y marcar contenido inexacto.

7. Snapchat

Para aumentar la información fidedigna sobre COVID-19, Snapchat implementó filtros dentro de su plataforma que presentan información verificada sobre cómo reducir el riesgo de contraer COVID-19. Si bien la plataforma permite que los creadores independientes elaboren filtros, no permite que se incluya información falsa en ellos. Snapchat también anunció el lanzamiento de una iniciativa de salud y bienestar en respuesta a la preocupación de los usuarios sobre COVID-19. La herramienta "Here for You" en la barra de búsqueda les permitirá a los usuarios acceder a información sobre salud mental y a información directamente de la OMS, los CDC, Crisis Text Line, Ad Council y el Servicio Nacional de Salud.

 

Compromiso específico de la plataforma para la integridad de la información

La acción colectiva, las asociaciones comunitarias y la participación de la sociedad civil son aspectos importantes del enfoque del sector privado para abordar la desinformación. Estos aspectos incluyen inversiones, compromisos y asociaciones de empresas individuales, así como iniciativas de colaboración que involucran a varias empresas. Esta sección examina las alianzas e iniciativas emprendidas por empresas particulares, así como las colaboraciones intersectoriales y de múltiples partes interesadas para combatir la desinformación.

A. Alianzas e iniciativas empresariales

Todas las principales empresas de tecnología, como Facebook, Google y Twitter, han colaborado con la sociedad civil y otras partes para combatir la desinformación, la incitación al odio y otras formas de contenido dañino en sus plataformas. En esta sección, se revisan algunas de las iniciativas clave que han emprendido para trabajar de forma colectiva con grupos externos, en particular organizaciones de la sociedad civil, sobre los problemas del espacio de información.

1. Facebook

Facebook ha desarrollado una serie de asociaciones e iniciativas para el público en general destinadas a apoyar a la sociedad civil y otras partes interesadas que trabajan para promover la integridad de la información.  Entre sus anuncios más destacados, Facebook ha inaugurado una Junta de supervisión.  La Junta está compuesta por expertos en tecnología, derechos humanos y políticas, a quienes se les ha otorgado la autoridad para revisar casos difíciles de discursos que generan acoso y odio en línea, y difunden desinformación e información falsa. Hasta la fecha de publicación de esta guía, la Junta de supervisión ha revisado y tomado una determinación sobre moderación de contenido, incluidos los casos en China, Brasil, Malasia y los Estados Unidos. Esto es significativo, ya que la Junta de supervisión tiene en cuenta los derechos humanos, los aspectos legales y el impacto en la sociedad al revisar los casos difíciles que la plataforma puede no estar en condiciones de abordar. 

La empresa también ha invertido en iniciativas regionales y específicas de cada país. Por ejemplo, WeThink Digital es una iniciativa de Facebook para fomentar la alfabetización digital a través de asociaciones con organizaciones de la sociedad civil, el mundo académico y organismos gubernamentales en varios países de Asia y el Pacífico, como Indonesia, Myanmar, Nueva Zelanda, Filipinas, Sri Lanka y Tailandia. Incluye guías públicas de acciones de los usuarios, como la desactivación de una cuenta, módulos de aprendizaje digital, videos y otros recursos pedagógicos. En el contexto de las elecciones, en particular, Facebook también ha desarrollado asociaciones con organismos de monitoreo de elecciones, fuerzas del orden y otras instituciones gubernamentales dedicadas a la investigación de campañas durante los procesos electorales a través de la creación de un "centro de operaciones" con personal especializado en ciertos casos, como la Unión Europea, Ucrania, Irlanda, Singapur, Brasil y para las elecciones estadounidenses de 2020. Según el estudio de casos del NDI sobre el papel de las plataformas de redes sociales en el cumplimiento de las decisiones políticas durante las elecciones, tanto Facebook como Twitter trabajaron con la Cámara Nacional Electoral (CNE) de Colombia durante el proceso electoral. 

En algunos países, Facebook se está asociando con verificadores de datos de terceros para revisar y calificar la precisión de los artículos y publicaciones en la plataforma. Como parte de estos esfuerzos, en países como Colombia, Indonesia, Ucrania, así como también varios miembros de la UE y los Estados Unidos, Facebook ha encargado a grupos, a través de lo que se describe como "un proceso de solicitud minucioso y riguroso" establecido por la IFCN, que se conviertan en verificadores confiables que examinen el contenido, brinden información sobre los algoritmos que definen el suministro de noticias y degraden y marquen todo el contenido que se identifique como falso. En Colombia, por ejemplo, donde los socios incluyen a AFP Colombia, ColombiaCheck y La Silla Vacía, un representante de uno de estos socios reflexionó sobre el valor de trabajar con Facebook y las plataformas en general: "Creo que lo más importante es hablar más de cerca con otras plataformas porque la forma de ampliar nuestro alcance es trabajar en equipo. Facebook tiene sus problemas pero llega a mucha gente y sobre todo llega a la gente que ha compartido información falsa, y si pudiéramos hacer algo así con Twitter, Instagram o WhatsApp sería genial; ese es el siguiente paso ideal en mi opinión". Grupos de más de 80 países se han asociado con Facebook de esta manera, subrayando el amplio alcance de este esfuerzo. 

 

Highlight


En el centro de atención: compromiso de Facebook con Social Science One

Facebook ha apoyado el desarrollo de Social Science One, un consorcio de universidades y grupos de investigación que han estado trabajando para entender varios aspectos del mundo en línea, incluidos la desinformación, el discurso de odio y la propaganda computacional. También cuenta con el apoyo de fundaciones como la John and Laura Arnold Foundation, el Democracy Fund, la William and Flora Hewlett Foundation, la John S. and James L. Knight Foundation, la Charles Koch Foundation, la Omidyar Network, la Sloan Foundation y la Children's Investment Fund Foundation. El proyecto fue anunciado y lanzado en julio de 2018. En particular, todos los proyectos, excepto tres, se centran en el mundo desarrollado, y de esos tres, dos proyectos están en Chile y uno en Brasil. A través de este consorcio, la plataforma ha permitido el acceso a un conjunto de datos de URL de enlaces ampliamente compartidos que, de otro modo, no están disponibles para la comunidad investigadora en general.


Facebook recibió críticas sobre el programa debido a la lentitud de su puesta en marcha, la divulgación y gestión de los datos de la investigación y la negociación de otras cuestiones complicadas.  En todos los aspectos de la colaboración con las plataformas, el acuerdo sobre el uso compartido y la gestión de los datos son componentes críticos de los proyectos y, sin duda, deben negociarse cuidadosamente para evitar que se comparta información privada de los usuarios. El mal uso de esos datos como ocurrió durante el escándalo de Cambridge Analytica debería evitarse... Los datos fueron utilizados posteriormente por empresas privadas para representar el comportamiento de los votantes y dirigir los anuncios con información psicográfica y de otro tipo a partir de estos perfiles, lo que generó enormes dudas sobre el uso de datos privados de los usuarios en las campañas y las elecciones. Es importante destacar que la historia de este proyecto ayudó a establecer los términos de la colaboración de investigación con Facebook en el futuro

2. WhatsApp

Si bien es una plataforma cerrada, WhatsApp ha apoyado a los investigadores en el desarrollo de estudios de su plataforma como uno de los principales medios de participación de la comunidad. Los estudios incluyen una gama significativa de metodología potencial y muestran cómo el acceso mejorado puede conducir a resultados interesantes e importantes para comprender la plataforma cerrada, especialmente cómo se usa en contextos menos vistos o conocidos. Muchos países y regiones son una caja negra, especialmente a nivel local. Los grupos son cerrados, la plataforma está encriptada y es difícil ver y comprender algo en términos de moderación de contenido. 

El abuso y la manipulación en línea de WhatsApp a través de redes automatizadas son comunes en muchos lugares. Los moderadores de diferentes regiones y países no conocen bien los idiomas, los dialectos y las jergas locales. La violencia en línea contra las mujeres, en la política y en las elecciones, puede tener graves impactos en la participación política de los destinatarios, así como un efecto positivo en la participación de las mujeres de manera más amplia, y el monitoreo del discurso de odio debería buscar comprender los métodos para rastrear los léxicos locales. Los socios del CEPPS han desarrollado metodologías para rastrear el discurso de odio en línea contra las mujeres y otros grupos marginados, como el marco de Violencia contra las mujeres en las elecciones (VAWIE, por sus siglas en inglés) de IFES, o la herramientas Votos sin violencia del NDI, y una herramienta de análisis de redes sociales desarrollada conjuntamente a través del CEPPS que describe metodologías para construir léxicos en contextos locales para ejemplificar4. En muchos casos, simplemente no hay recursos para contratar, ni siquiera niveles mínimos de moderadores y tecnólogos para lidiar con lo que está sucediendo. Esto crea problemas para la moderación de contenido, informes y formas algorítmicas de detección y aprendizaje automático para informar estos sistemas.  En muchos casos, los esfuerzos de moderación se enfrentan a ataques informáticos y conductas no auténticas coordinadas que van más allá de la manipulación ordinaria y pueden ser patrocinadas por autoridades públicas o privadas con mucho dinero. En Brasil, el programa de WhatsApp apoyó estudios de su elección de los mejores investigadores en el campo. Los investigadores de las universidades de Syracuse y Minas Gerais estudiaron el intercambio de información de los usuarios y lo compararon con el comportamiento de los votantes, mientras que otros del Instituto de Tecnología y Sociedad de Río analizaron métodos para capacitar a las personas en alfabetización mediática a través de la plataforma.

WhatsApp ha apoyado la investigación en la plataforma y habilitado el acceso a su API empresarial en ciertos casos, como el proyecto First Draft/Comprova en Brasil. También ha apoyado financieramente a grupos como el Centro para la Democracia y el Desarrollo y la Universidad de Birmingham para que sean pioneros en la investigación de la plataforma en Nigeria.

3. Twitter

Twitter ha adoptado un enfoque más completo para la publicación de datos que cualquier otra empresa. Desde 2018, la empresa ha puesto a disposición conjuntos de datos completos de operaciones de información vinculadas al estado que ha eliminado. En lugar de proporcionar muestras o acceso a solo un pequeño número de investigadores, Twitter estableció un archivo público de todos los tuits y contenido relacionado que ha eliminado. El archivo ahora se encuentra con cientos de millones de tuits y varios terabytes de medios de comunicación. 

Este archivo ha permitido una amplia gama de investigaciones independientes, así como la colaboración con organizaciones de expertos. En 2020, la empresa se asoció con la Carnegie Partnership for Countering Influence Operations (PCIO) para organizar conjuntamente una serie de talleres virtuales con el fin de apoyar un intercambio abierto de ideas entre la comunidad de investigación sobre cómo se puede comprender, analizar y mitigar mejor las operaciones de influencia. La interfaz de configuración de aplicaciones (API) de Twitter es una fuente de datos única para la comunidad académica, y la empresa lanzó un producto API académico exclusivo en 2021. 

En términos más generales, Twitter colabora con frecuencia y ha otorgado subvenciones para apoyar a varias organizaciones que trabajan para promover la integridad de la información. Al igual que Facebook, la empresa ha trabajado en estrecha colaboración con socios de investigación como el Stanford Internet Observatory, Graphika y el Atlantic Council Digital Forensic Research Lab sobre conjuntos de datos relacionados con las redes detectadas y eliminadas de su plataforma.  La plataforma también ha colaborado con el Proyecto de propaganda computacional del Oxford Internet Institute para analizar las actividades de operaciones de información.

 

4. Microsoft

Microsoft ha iniciado el Defending Democracy Program, asociándose con varios grupos de la sociedad civil, el sector privado y académicos que trabajan en temas de ciberseguridad, desinformación y tecnología cívica. Como parte de esta iniciativa, a partir de 2018, Microsoft se asoció con Newsguard, un plug-in para navegadores como Chrome y Edge que valida sitios web de noticias para los usuarios sobre la base de nueve criterios de integridad periodística. Según esta evaluación, el sitio recibe una calificación positiva o negativa, verde o roja respectivamente. El plug-in se ha descargado miles de veces y esta tecnología impulsa los programas de alfabetización informacional en asociación con bibliotecas y escuelas. 

También ha participado en iniciativas de investigación y asociaciones sobre desinformación, incluido el apoyo a la investigación sobre desinformación y redes sociales por parte de la Universidad Estatal de Arizona, el Oxford Internet Institute, la Política de tecnología de la información de la Universidad de Princeton, así como también la propia Microsoft Research.

En una colaboración intersectorial, Microsoft, la Bill & Melinda Gates Foundation y USAID apoyaron al Grupo de Tecnología y Cambio social de la Escuela de Información de la Universidad de Washington para desarrollar un programa de Alfabetización en información móvil, que incluye verificación, búsqueda y evaluación de contenido. Este proyecto se convirtió en un plan de estudios de alfabetización en información móvil que se ha aplicado desde entonces en Kenia.

5. LINE

Como ocurre con muchas otras aplicaciones de mensajería, en ocasiones LINE es aprovechado por estafadores, defraudadores y redactores de noticias falsas. Si bien no ha habido grandes denuncias de desinformación sistemática en la plataforma, LINE ha reconocido problemas de información falsa que circula en sus redes. Los verificadores de datos han buscado alianzas con la plataforma para evitar la propagación de desinformación, incluido el sistema automatizado de verificación de datos CoFacts mantenido por g0v (pronunciado gob cero), una comunidad de tecnología cívica en Taiwán.

En septiembre de 2019, LINE lanzó una campaña contra el engaño en asociación con Associated Press. Esta campaña incluye una serie de videos educativos enfocados en identificar fuentes de noticias creíbles y noticias falsas. En un comunicado de prensa, LINE manifestó: "Con 'Detenga las noticias falsas' como tema, la campaña tiene como objetivo ayudar a los usuarios a mejorar su alfabetización mediática y crear un entorno digital seguro".

Highlight


En 2018, un grupo de organizaciones internacionales de la sociedad civil, entre ellas IFES, IRI, NDI e IDEA Internacional, formaron la coalición Design 4 Democracy para promover la coordinación entre las organizaciones democráticas y proporcionar un espacio para el compromiso constructivo entre la comunidad democrática y las empresas tecnológicas.

B. Iniciativas intersectoriales y de múltiples partes interesadas

Cada vez más, las principales plataformas buscan formas más amplias de colaborar con la sociedad civil, los gobiernos y otras partes para no solo combatir la desinformación, el discurso de odio y otras formas dañinas de contenido en sus redes, sino también para promover mejores formas de contenido. Estas colaboraciones vienen en forma de coaliciones con diferentes grupos, códigos de prácticas y otras iniciativas conjuntas.

Por ejemplo, Facebook, Twitter y otras plataformas importantes se han comprometido cada vez más con grupos de investigación como el Digital Forensic Research (DFR) Lab del Atlantic Council, Graphika y otros para identificar y eliminar grandes redes de cuentas falsas o de coordinación que infringen las normas comunitarias. Además, los grupos locales como la International Society for Fair Elections and Democracy (ISFED) también han ayudado a las plataformas de redes sociales con información para facilitar eliminaciones y otras acciones de aplicación de normas. Las organizaciones locales se están convirtiendo en un componente cada vez más importante del sistema de denuncias para varias plataformas que no tienen la capacidad de monitorear y comprender activamente los contextos locales como Georgia.  

Entre las colaboraciones más formales, la Global Network Initiative (GNI) existe desde 2005 y continúa apoyando la participación de múltiples partes interesadas entre las plataformas y la sociedad civil, particularmente en temas relacionados con la desinformación y otras formas dañinas de contenido. Para obtener más información sobre la GNI, consulte el capítulo de normas y estándares.

Entre las iniciativas intersectoriales para combatir la desinformación, una de las más destacadas es el Código de Prácticas sobre Desinformación de la Unión Europea.  El código fue desarrollado por un grupo de trabajo de la Unión Europea (UE) sobre desinformación. El código proporciona a los gobiernos y países miembros que desean llevar a cabo operaciones comerciales y trabajar con el bloque pautas sobre cómo ejecutar sus marcos regulatorios de acuerdo con el Reglamento General de Protección de Datos (GDPR) y otras regulaciones de la UE en línea, así como también planes para dar respuestas a la desinformación a través de la alfabetización digital, verificación de datos, medios de comunicación y apoyo a la sociedad civil, entre otras intervenciones. Basándose en este código, la UE ha desarrollado un Plan de acción para la democracia, una iniciativa que la UE planea implementar en el próximo año que se centra en promover elecciones libres y justas, fortalecer la libertad de los medios de comunicación y contrarrestar la información falsa.  Lo esencial para sus esfuerzos contra la desinformación es:

  • Mejorar la caja de herramientas existente de la UE para contrarrestar la interferencia extranjera. 
  • Revisar el Código de Prácticas sobre Desinformación en un marco corregulatorio de obligaciones y responsabilidades de las plataformas en línea.
  • Establecer un marco sólido para la implementación del Código de Prácticas. 

En el Foro para la Gobernanza de Internet celebrado por la UNESCO en París y el Foro por la Paz de París en noviembre de 2018, el presidente de Francia, Emmanuel Macron, presentó la iniciativa Convocatoria de París para mejorar la confianza y seguridad en el ciberespacio. Las partes firmantes de la Convocatoria se comprometen a promover nueve principios básicos y a reafirmar diversos compromisos relacionados con el derecho internacional, la ciberseguridad, la protección de la infraestructura y la lucha contra la desinformación. Hasta el momento, 78 países, 29 autoridades públicas, 252 organizaciones de la sociedad civil y 651 empresas y entidades del sector privado se han adherido a un conjunto común de principios sobre estabilidad y seguridad en el espacio de la información. Los Estados Unidos aún tiene que comprometerse formalmente o firmar la iniciativa.  Sin embargo, la iniciativa representa una de las colaboraciones intersectoriales más ambiciosas dedicadas a la ciberseguridad y la integridad de la información hasta la fecha. 

Herramientas de investigación para comprender la desinformación

Redactado por Bret Barrowman, especialista sénior en investigación y evaluación, evidencia y práctica de aprendizaje del Instituto Republicano Internacional

 

La programación eficaz para la democracia, los derechos humanos y la gobernanza requiere que los profesionales evalúen con exactitud las causas subyacentes de los desórdenes de la información y determinen la eficacia de las intervenciones para resolverlos. La investigación sirve a estos objetivos en varios puntos del ciclo del programa de DDG: análisis de problemas y contexto, focalización, diseño y desarrollo de contenido, monitoreo, adaptación y evaluación. 

Metas de investigación 

La aplicación de la investigación en el ciclo del programa de DDG brinda apoyo a los programas mediante el cumplimiento de los objetivos científicos de descripción, explicación y predicción. La descripción identifica características de los sujetos de investigación, y patrones o relaciones generales. La explicación determina las relaciones de causa y efecto. La predicción pronostica qué podría suceder en el futuro. 

Investigación para el análisis del contexto y el diseño

Los programas de DDG eficaces para contrarrestar la desinformación requieren identificar un problema específico o un conjunto de problemas en el entorno de la información en un contexto en particular. Los métodos clave son el análisis del panorama, el análisis de las partes interesadas, el análisis de la economía política y el uso de encuestas o entrevistas para identificar a los beneficiarios potenciales o temas particularmente destacados dentro de un contexto específico. 

Ejemplos de preguntas de investigación generales:

  • ¿Cuáles son los principales factores de impulso de la desinformación en este contexto?
  • ¿Cuáles son los incentivos para que los actores clave perpetúen o mitiguen la desinformación en este contexto?
  • ¿A través de qué medio es probable que la desinformación tenga el mayor impacto en este contexto?
  • ¿Qué evidencia indica que nuestras actividades propuestas mitigarán el problema?
  • ¿Qué grupos son los principales destinatarios o consumidores de desinformación en este contexto? 
  • ¿Qué temas clave o divisiones sociales tienen mayor probabilidad de ser objeto de desinformación en este contexto?

Investigación de implementación

Hay varios enfoques de investigación y medición a disposición de los profesionales para monitorear actividades relacionadas con la información y la desinformación, tanto para las funciones de rendición de cuentas del programa como para la adaptación a las condiciones cambiantes. |Los métodos clave son las métricas de audiencia de medios digitales y analógicos, la medición de conocimientos, actitudes o creencias con encuestas o grupos focales, las métricas de participación en los medios, el análisis de redes y las pruebas A/B. Algunas preguntas clave de investigación incluyen:

  • ¿Cuántas personas participan en actividades o intervenciones del programa?
  • ¿Qué grupos demográficos, de comportamiento o geográficos participan en las actividades del programa? ¿Está llegando la intervención a los beneficiarios previstos? 
  • ¿Cómo reaccionan los participantes, beneficiarios o audiencias a las actividades o materiales del programa? ¿En qué se diferencian estas reacciones entre subgrupos y, específicamente, entre los grupos marginados?
  • ¿Es un modo o mensaje más eficaz que otro para hacer que la audiencia se interese por la información o la comparta con otros? ¿En qué se diferencian la aceptación y el intercambio de información entre los subgrupos? ¿Cuáles son las barreras para la aceptación de información o programas entre los grupos marginados?
  • ¿Qué marco del contenido es más probable que reduzca el consumo de desinformación o aumente el consumo de información confiable? Por ejemplo, ¿es más probable que un mensaje de verificación de datos haga que los consumidores modifiquen sus creencias en la dirección de la verdad, o que se atrincheren en la creencia de la desinformación original? ¿Este efecto varía entre subgrupos?

Investigación de evaluación

El programa de DDG y la evaluación de impacto pueden identificar y describir resultados clave, evaluar o mejorar la calidad de la implementación del programa, identificar lecciones que podrían mejorar la implementación de programas similares, o atribuir cambios en el resultado clave a la intervención de un programa. Los métodos clave son las evaluaciones aleatorizadas y las evaluaciones cuasi- o no experimentales, incluidos los diseños de preprueba/posprueba, las diferencias en diferencias, el emparejamiento estadístico, los estudios de casos comparativos, el seguimiento de procesos y los análisis de regresión. Algunas preguntas clave de investigación incluyen:

  • ¿Hay resultados observables asociados con el programa? 
  • ¿Un programa o actividad produce un resultado de interés? Por ejemplo, ¿un programa de alfabetización mediática aumentó la capacidad de los participantes de distinguir entre noticias verdaderas y falsas? ¿Un programa produce resultados no buscados?
  • ¿Cuál es el magnitud del efecto (es decir, el impacto) de una actividad en un resultado de interés? 
  • ¿Cuál es la dirección del efecto de una actividad en un resultado de interés? Por ejemplo, ¿un programa de verificación de datos disminuyó la confianza en los informes de noticias falsas o produjo una mayor aceptación de esos informes a través de una reacción negativa?

Recomendaciones

  • La selección de diseños de investigación y métodos de recopilación de datos debe partir de preguntas de investigación específicas. Comprometerse con un diseño específico o un método de recopilación de datos limitará las preguntas que el investigador pueda responder.  
  • Utilice un modelo a escala de prueba piloto para las actividades o el contenido del programa. Con el uso de uno o más de estos enfoques de investigación, organice talleres de prueba de intervenciones en pequeños grupos de encuestados y utilice datos piloto para refinar los enfoques prometedores antes de implementarlos en un conjunto más grande de beneficiarios. 
  • Proteja la información de identificación personal (PII). Todos los métodos de recopilación de datos descritos en esta sección pueden recopilar información sobre características, actitudes, creencias y voluntad de participar en acciones políticas. Independientemente del método, los investigadores deben hacer todo lo posible por obtener el consentimiento informado para participar en la investigación y deben tener cuidado de proteger los datos personales y eliminar la información de esos datos que permita identificar a personas.
  • Considere asociarse con organizaciones de investigación, laboratorios universitarios o investigadores académicos individuales que puedan tener una ventaja comparativa en el diseño y la implementación de diseños de investigación complejos y puedan tener interés en estudiar los efectos de los programas de lucha contra la desinformación.

Herramientas de investigación para comprender la desinformación

La programación efectiva de democracia, derechos humanos y gobernanza (DDG) para responder a la desinformación requiere que los profesionales hagan inferencias precisas sobre las causas subyacentes de los desórdenes de la información y sobre los efectos de sus intervenciones. Los programas para contrarrestar la desinformación a menudo se basan en un componente de investigación para identificar problemas, identificar posibles objetivos o beneficiarios de una intervención, desarrollar y adaptar el contenido del programa, monitorear la implementación y evaluar los resultados. En este capítulo se examinará un amplio menú de herramientas y enfoques de investigación para comprender la desinformación y las posibles respuestas, con el objetivo de apoyar a los profesionales de DDG en el diseño, la implementación y la evaluación de programas basados en los mejores datos y evidencia disponibles. 

Las secciones que siguen distinguen ampliamente entre enfoques o diseños de investigación y métodos de recopilación de datos.

Highlight


A los efectos de esta guía, un enfoque o diseño de investigación se refiere a un método o conjunto de métodos que permiten a los investigadores o profesionales hacer inferencias válidas sobre la desinformación o las respuestas programáticas. En otras palabras, un diseño de investigación es un método mediante el cual se puede responder con seguridad y precisión a preguntas específicas de la investigación. Por otro lado, la recopilación de datos describe las formas en que los investigadores y los profesionales recogen la información necesaria para responder a esas preguntas de investigación. Por ejemplo, las entrevistas con informantes clave (KII) o las entrevistas en profundidad (IDI) son métodos de recopilación de datos que pueden utilizarse en varios diseños de investigación.

Para ayudar a los profesionales de DDG en el desarrollo de programas basados en la evidencia para contrarrestar la desinformación, este capítulo está estructurado de acuerdo con las etapas del ciclo del programa: diseño, implementación y evaluación. Proporciona ejemplos de enfoques de investigación que pueden ayudar a responder preguntas para tomar decisiones específicas en cada etapa. Como nota final, los ejemplos proporcionados son sugerentes, no exhaustivos. Los métodos útiles e interesantes de investigación y recopilación de datos, en especial sobre información y desinformación, requieren reflexión, planificación y creatividad. Para desarrollar un enfoque de investigación que sea el más útil para un programa, considere consultar o asociarse desde temprano con expertos internos, incluidos investigadores y evaluadores aplicados o expertos externos por medio de una de las muchas instituciones académicas que se especializan en la investigación sobre las intervenciones de gobernanza y democracia.

Redes de investigación

EGAP: Evidence in Governance and Politics (Evidencia en Gobernanza y Políticas, EGAP, por sus siglas en inglés) es una red de investigación, evaluación y aprendizaje con alcance mundial que promueve la acumulación rigurosa de conocimientos, la innovación y las políticas basadas en evidencia en diversos dominios de la gobernanza, incluidas la rendición de cuentas, la participación política, la mitigación de conflictos sociales y la reducción de la desigualdad. Para esos fines, fomenta la colaboración entre académicos y profesionales, desarrolla herramientas y métodos para lograr rigor analítico y capacita tanto a académicos como a profesionales, con un enfoque intensivo en el Sur Global. Los resultados de las investigaciones se comparten con los encargados de formular políticas y las agencias de desarrollo a través de foros de políticas regulares, reuniones temáticas y plenarias, eventos para profesionales académicos y resúmenes de políticas.

J-PAL: La organización Abdul Latif Jameel Poverty Action Lab (J-PAL, por sus siglas en inglés) es un centro de investigación global que trabaja para reducir la pobreza al garantizar que las políticas se basen en pruebas científicas. Basado en una red de 227 profesores afiliados en universidades de todo el mundo, J-PAL realiza evaluaciones de impacto aleatorizadas para responder preguntas críticas en la lucha contra la pobreza. J-PAL transforma la investigación en acción, promoviendo una cultura de formulación de políticas sustentada por la evidencia en todo el mundo. Su análisis de políticas y su divulgación ayudan a los gobiernos, las ONG, los donantes y el sector privado a aplicar la evidencia de evaluaciones aleatorizadas a su trabajo, y contribuye con el discurso público en torno a algunas de las cuestiones más urgentes de política social y desarrollo internacional.

IPA: Innovaciones para la Acción contra la Pobreza (IPA, por sus siglas en inglés) es una organización sin fines de lucro de investigación y desarrollo de políticas que descubre y promueve soluciones eficaces para problemas mundiales de pobreza. IPA reúne a investigadores y a responsables de tomar decisiones para diseñar, evaluar rigurosamente y perfeccionar estas soluciones y sus aplicaciones, con la cual garantiza que la evidencia creada se utilice para mejorar la vida de los pobres del mundo.

Laboratorio de Campo sobre Violencia Política: El Laboratorio de Campo sobre Violencia Política (Political Violence FieldLab) proporciona un lugar para la investigación básica y aplicada sobre las causas y los efectos de la violencia política. El Laboratorio brinda a estudiantes la oportunidad de trabajar en cuestiones de vanguardia y pertinentes a las políticas en el estudio de la violencia política. Sus proyectos implican una estrecha colaboración con organismos gubernamentales y organizaciones no gubernamentales para evaluar los efectos y la eficacia de las intervenciones en situaciones de conflicto contemporáneas.

GovLab del MIT: GovLab colabora con la sociedad civil, patrocinadores y gobiernos en investigaciones que formulan y prueban teorías sobre cómo los programas e intervenciones innovadores afectan el comportamiento político y hacen que los gobiernos sean más responsables ante los ciudadanos. Desarrollan y prueban hipótesis sobre responsabilidad y participación ciudadana que contribuyen con el conocimiento teórico y ayudan a los profesionales a aprender en tiempo real. Por medio de colaboraciones integradas y sostenidas, GovLab trabaja junto con profesionales en cada etapa de la investigación, desde la formulación de teorías hasta la puesta a prueba de las teorías.

DevLab@Duke: DevLab@Duke es un entorno de aprendizaje aplicado que se centra en conectar a los científicos sociales de Duke que trabajan en el avance internacional junto con la comunidad de profesionales del desarrollo a fin de crear una programación rigurosa, recopilar datos de monitoreo y evaluación, y llevar a cabo evaluaciones de impacto de proyectos de desarrollo. Al abordar estos objetivos, reúnen a académicos y estudiantes que están en sintonía con la frontera de la investigación y tienen capacidades avanzadas en diseños de evaluación de impacto experimentales y cuasiexperimentales, diseño de encuestas y otras herramientas de recopilación de datos, y análisis de datos, incluidos la econometría de evaluación de impacto, el raspado web y el análisis geoespacial.

Centro para la Acción Global Efectiva (CEGA): El CEGA es un centro de investigación sobre desarrollo global. Con sede en la Universidad de California en Berkeley, su amplia red interdisciplinaria, que incluye un número creciente de académicos de países de ingresos bajos y medios, identifica y prueba innovaciones diseñadas para reducir la pobreza y promover el desarrollo. Los investigadores del CEGA utilizan evaluaciones rigurosas, herramientas de la ciencia de datos y nuevas tecnologías de medición para evaluar los efectos de los programas de desarrollo económico y social a gran escala.

Laboratorio de Ciudadanos y Tecnología: El Laboratorio de Ciudadanos y Tecnología (Citizens and Technology Lab) hace ciencia ciudadana para la Internet. Busca hacer posible que cualquier persona interactúe críticamente con las herramientas y plataformas tecnológicas que utiliza, haga preguntas y obtenga respuestas. Trabajando mano a mano con diversas comunidades y organizaciones de todo el mundo, identifica problemas de interés compartido ("efectos") relacionados con el discurso digital, los derechos digitales y la protección del consumidor. Sus métodos de investigación pueden descubrir si realmente está sucediendo el efecto propuesto, encontrar las causas de un problema sistémico y poner a prueba ideas para generar cambios.

Observatorio de Internet de Stanford: El Observatorio de Internet de Stanford (Stanford Internet Observatory) es un programa interdisciplinario de investigación, enseñanza y participación política para el estudio del abuso en las tecnologías de la información actuales, con orientación a las redes sociales. El Observatorio se creó para aprender sobre el abuso de la Internet en tiempo real, a fin de desarrollar un nuevo plan de estudios sobre la confianza y la seguridad que es el primero de su tipo en informática, y para transformar los descubrimientos de las investigaciones en capacitación e innovaciones políticas para el bien público.

Metas de investigación

¿Descripción, explicación o predicción? La investigación aplicada en el ciclo del programa de DDG puede brindar apoyo a programas mediante el cumplimiento de uno o más de los siguientes objetivos científicos.

Descripción: La investigación descriptiva apunta a identificar las características de los sujetos de investigación en diferentes niveles de análisis (por ejemplo, individuo, grupo, organización, país, etc.). La investigación descriptiva clasifica o categoriza sujetos o identifica patrones o relaciones generales. Algunos ejemplos de investigación descriptiva en los programas para contrarrestar la desinformación son el desarrollo de estadísticas descriptivas en las encuestas o datos de encuestas con el fin de identificar grupos objetivo clave, o análisis para identificar temas clave en el contenido de los medios.

Explicación: La investigación explicativa busca identificar relaciones de causa y efecto; ayuda a responder los "¿por qué?". Establece causalidad mediante secuenciación (ya que las causas deben preceder a sus efectos) o la eliminación de otras posibles explicaciones a través de comparaciones. Esta categoría también puede incluir la investigación de evaluación en el ciclo del programa, en la medida que una evaluación intente determinar el "impacto" de un programa en un resultado de interés (es decir, si un programa produce un resultado), o para determinar cuál de varios posibles enfoques programáticos es más eficaz.

Highlight


Investigación predictiva en la programación de DDG

Varias iniciativas financiadas por USAID utilizan la investigación predictiva para ayudar a los profesionales de DDG a anticiparse y responder mejor a los cambios en el contexto político. Por ejemplo, el Barómetro del Espacio Democrático del CEPPS prevé la apertura y el cierre democrático en un período de dos años. El consorcio INSPIRES, dirigido por Internews, utiliza el barrido de medios y el aprendizaje automático para prever el cierre del espacio cívico mensualmente.

Predicción: La investigación predictiva utiliza métodos descriptivos o explicativos para pronosticar lo que podría suceder en el futuro. En un nivel básico, la investigación predictiva en el ciclo del programa de DDG podría implicar el uso de los hallazgos de la evaluación de un programa para adaptar los enfoques al siguiente ciclo o a otro contexto. La investigación predictiva más sistemática utiliza métodos cualitativos o cuantitativos para asignar probabilidades específicas a eventos durante un tiempo designado, como en los pronósticos meteorológicos. 

Las fuentes de datos y los métodos de recopilación para la investigación de desinformación incluyen entrevistas con informantes clave (KII), grupos focales, sondeos de opinión pública, encuestas, métricas de audiencia (analógicas y digitales), raspado de redes sociales y web, análisis de datos administrativos (datos recopilados y almacenados como parte de las actividades de organizaciones tales como gobiernos, organizaciones sin fines de lucro o empresas). Existen otros métodos, pero estos son algunos de los más importantes que se analizarán más a fondo en este texto.

Herramientas de investigación para comprender la desinformación

Los profesionales deben tomar varias decisiones clave en la fase de diseño del programa de lucha contra la desinformación. Esas decisiones incluyen identificar un conjunto específico de problemas que el programa abordará, desarrollar una lógica a través de la cual el programa abordará ese problema, seleccionar entre las opciones de actividades y decidir quiénes serán los principales destinatarios o beneficiarios de esas actividades.

Highlight


Focalización en herramientas: Revistas de literatura de la Fundación Hewlett

"La Fundación Hewlett encargó este informe para proporcionar una visión general del estado actual de la literatura sobre la relación entre las redes sociales, la polarización política y la "desinformación" política, un término utilizado para abarcar una amplia gama de tipos de información sobre la política que se encuentra en línea, incluidos "noticias falsas", rumores, información deliberadamente incorrecta, información inadvertidamente incorrecta, información políticamente sesgada y noticias "hiperpartidistas".

La revisión de la literatura se presenta en seis secciones separadas, cada una de las cuales puede ser leída individualmente, pero que en conjunto pretenden proporcionar una visión general de lo que se sabe -y lo que se desconoce- sobre la relación entre las redes sociales, la polarización política y la desinformación. El informe concluye identificando las principales lagunas de investigación en nuestra comprensión de estos fenómenos y los datos que se necesitan para abordarlos".

 

Análisis de contexto y enunciación de problemas 

Los programas de DDG eficaces para contrarrestar la desinformación requieren identificar un problema específico o un conjunto de problemas en el entorno de la información en un contexto en particular.

Los profesionales de DDG se basan en varios métodos de investigación para identificar problemas prioritarios, factores de impulso de desórdenes de la información que sean específicos del contexto, perpetradores y destinatarios de la desinformación, e incentivos para perpetuar o mitigar la desinformación. Los análisis de panorama y de partes interesadas son enfoques para responder preguntas descriptivas clave de investigación sobre el entorno de la información, tales como la identificación de modos importantes de comunicación, medios de comunicación clave, perpetradores y públicos destinatarios de la desinformación, y cuestiones o personalidades políticas clave que podrían ser objeto de desinformación. Cabe señalar que las mujeres y los miembros de otros grupos marginados han sido víctimas de desinformación política y sexualizada, odio en línea y acoso. Por lo tanto, los profesionales de DDG también deben tener en cuenta la desinformación dirigida específicamente a poblaciones marginadas a nivel mundial mediante la realización de investigaciones inclusivas cualitativas, cuantitativas y sensibles al género para comprender estas importantes dinámicas.  

Highlight


Ejemplos de preguntas de investigación generales:

  • ¿Cuáles son los principales factores de impulso de la desinformación en este contexto?
  • ¿Cuáles son los incentivos para que los actores clave perpetúen o mitiguen la desinformación en este contexto?
  • ¿A través de qué medio es probable que la desinformación tenga el mayor impacto en este contexto?
  • ¿Qué evidencia indica que nuestras actividades propuestas mitigarán el problema?
  • ¿Qué grupos son los principales destinatarios o consumidores de desinformación en este contexto? 
  • ¿Qué temas clave o divisiones sociales tienen mayor probabilidad de ser objeto de desinformación en este contexto?

Estos métodos también pueden ser explicativos, en la medida en que identifican causas o factores de impulso claves de desórdenes específicos de la información.

Como opción exploratoria, los métodos de recopilación de datos clave a menudo incluyen entrevistas con informantes clave (KII, por sus siglas en inglés) con los encuestados identificados a través de muestreo de conveniencia o por bola de nieve. Las encuestas y los sondeos de opinión pública también pueden ser herramientas valiosas para comprender el panorama de los medios de comunicación y la información. Los puntos del cuestionario sobre el panorama de los medios de comunicación pueden brindar información para la programación al identificar cómo la mayoría de las personas recibe noticias sobre eventos sociales o políticos, qué medios son los más populares entre grupos demográficos o geográficos específicos, o qué cuestiones sociales o políticas son particularmente polarizadoras. La selección de las personas que respondan las encuestas o sondeos debe hacerse, si es posible, mediante un método de muestreo que elimine los posibles sesgos de selección, a fin de garantizar que las respuestas sean representativas de una población de interés más amplia. Los análisis de panorama y de partes interesadas también pueden depender de la investigación documental sobre fuentes primarias y secundarias, tales como datos administrativos estatales (p. ej., datos de censos, registros de propiedad de los medios, etc.), fuentes periodísticas (como noticias o informes de investigación), investigaciones académicas o documentos de programas anteriores o en curso. 

El análisis de economía política (PEA, por sus siglas en inglés) aplicado es un enfoque de investigación contextual que se centra en identificar los incentivos y las limitaciones que dan forma a las decisiones de los actores clave en un entorno de información. Este enfoque va más allá de las soluciones técnicas para los desórdenes de la información y analiza el por qué y el cómo los actores clave pueden perpetuar o mitigar la desinformación y, posteriormente, cómo estos factores sociales, políticos o culturales pueden afectar la implementación, la aceptación o el efecto de las respuestas programáticas. Al igual que otros enfoques de análisis de contexto, el PEA se basa tanto en las investigaciones existentes recopiladas y analizadas mediante revisión documental como en la recopilación de datos de experiencias, creencias y percepciones de actores clave.

Herramientas de investigación para comprender la desinformación

Hay varias herramientas de investigación y medición disponibles para ayudar a los profesionales a monitorear las actividades relacionadas con la información y la desinformación. En un nivel básico, estas herramientas apoyan al personal del programa y de monitoreo, evaluación y aprendizaje (MEL, por sus siglas en inglés) en el desempeño de funciones de rendición de cuentas. Sin embargo, estas herramientas de investigación también desempeñan un papel importante en la adaptación de la programación a las condiciones cambiantes. Además de responder preguntas sobre si las actividades del programa están involucrando a sus beneficiarios previstos y en qué medida lo hacen, también pueden ayudar a los profesionales a identificar qué tan bien se están desempeñando las actividades o intervenciones para que los implementadores puedan iterar, como en un marco de gestión adaptativa o de colaboración, aprendizaje y adaptación (CLA, por sus siglas en inglés)

Monitoreo del programa 

(evaluar la implementación, si el contenido está alcanzando los objetivos deseados, si los objetivos son contenido atractivo)

Preguntas clave de investigación:

  • ¿Cuántas personas participan en actividades o intervenciones del programa?
  • ¿Qué grupos demográficos, de comportamiento o geográficos participan en las actividades del programa? ¿Está llegando la intervención a los beneficiarios previstos?
  • ¿Cómo reaccionan los participantes, beneficiarios o audiencias a las actividades o materiales del programa?
  • ¿Cómo varía la participación o la reacción entre los tipos de actividad?

Hay varias herramientas disponibles para ayudar a los profesionales de DDG a monitorear el alcance de las actividades del programa y el grado en que las audiencias y los beneficiarios previstos interactúan con el contenido del programa. Estas herramientas difieren según los medios a través de los cuales se distribuye la información y la desinformación, así como la contraprogramación. Para los medios de comunicación analógicos como la televisión y la radio, las métricas de audiencia, incluidos el tamaño, la composición demográfica y el alcance geográfico, pueden estar disponibles a través de los mismos medios o de registros administrativos estatales. La utilidad y el detalle de esta información depende de la capacidad de los medios de recopilar esta información y de su voluntad de compartirla públicamente. Las empresas locales de marketing y de publicidad también pueden ser buenas fuentes de información sobre la audiencia. En algunos casos, el alcance de la televisión o la radio puede modelarse con el uso de información sobre la infraestructura de transmisión.

Las plataformas digitales proporcionan un conjunto de métricas más accesible. Las plataformas de redes sociales como Twitter, Facebook y YouTube tienen incorporadas herramientas analíticas que permiten incluso a los usuarios ocasionales monitorear las interacciones con las publicaciones (incluidos los "me gusta", las acciones de compartir y los comentarios). Según la interfaz de programación de aplicaciones (API) de la plataforma y los términos de servicio, pueden estar disponibles herramientas analíticas más sofisticadas. Por ejemplo, la API de Twitter permite a los usuarios importar grandes volúmenes tanto de metadatos como de contenido de tuits, lo que a su vez les posibilita monitorear las relaciones entre cuentas y realizar análisis de contenido u opiniones sobre temas específicos. Google Analytics proporciona un conjunto de herramientas para medir la interacción del consumidor con el material publicitario, incluido el comportamiento en los sitios web de destino. Por ejemplo, estas herramientas pueden ayudar a los profesionales a comprender cómo las audiencias, después de haber llegado a un recurso o sitio web por haber hecho clic en contenido digital (p. ej., enlaces incrustados en tuits, publicaciones de Facebook o videos de YouTube), invierten tiempo en los recursos de destino y qué recursos están viendo o descargando, o con cuáles están interactuando. El seguimiento de los clics proporciona medidas potenciales del comportamiento de destino, no solo de creencias o actitudes. 

 

Talleres de prueba de contenido: Escala de prueba piloto 

La determinación del contenido de las actividades programáticas es un punto de decisión clave en cualquier ciclo de programa. Con respecto a los programas de lucha contra la desinformación, los implementadores deben considerar cómo es probable que el mensajero, el modo y el contenido de una intervención influyan en la aceptación y la interacción de los grupos objetivo con ese contenido, y si es probable que el material cambie creencias o comportamientos. Teniendo eso en cuenta, realizar talleres de práctica y probar contenido contra la desinformación a lo largo de la fase de implementación del programa puede ayudar a los implementadores a identificar qué enfoques programáticos están funcionando y también a decidir si adaptar el contenido en respuesta a las condiciones cambiantes y cómo hacerlo. 

Preguntas clave de investigación:

  • ¿Qué modos o mensajeros es más probable que aumenten la aceptación del contenido en este contexto? Por ejemplo, ¿es un enfoque más eficaz que otro para hacer que los intérpretes se interesen por la información o la compartan con otros?
  • ¿Qué marco del contenido es más probable que reduzca el consumo de desinformación o aumente el consumo de información verdadera en este contexto? Por ejemplo, ¿es más probable que un mensaje de verificación de datos haga que los consumidores modifiquen sus creencias en la dirección de la verdad, o que se atrincheren en la creencia de la desinformación original?

Varios métodos de recopilación de datos permiten a los profesionales de DDG realizar talleres de prueba del contenido de las intervenciones con un pequeño número de beneficiarios potenciales antes de llevar las actividades a audiencias más grandes. Los grupos focales (debates en grupos pequeños, estructurados y determinados por muestreo científico) se utilizan con regularidad tanto en la investigación de mercado como en los programas de DDG para provocar reacciones profundas a los productos sometidos a prueba. Este formato permite a los investigadores observar reacciones espontáneas a incitaciones y sondear a los encuestados para obtener más información, a diferencia de las encuestas, que pueden representar a grupos más amplios, pero dependen de que los encuestados seleccionen opciones de respuesta uniformes y predeterminadas que no captan tantos matices. Los grupos focales son útiles para recopilar impresiones iniciales sobre diferentes opciones de contenido potencial del programa antes de llevar las actividades a una audiencia más amplia.

Las pruebas A/B son un método más riguroso para determinar qué variaciones en el contenido o las actividades tienen mayor probabilidad de lograr los resultados deseados, especialmente cuando las opciones son similares y es probable que las diferencias entre ellas sean pequeñas. Las pruebas A/B son una forma de evaluación aleatorizada en la cual un investigador asigna al azar a miembros de un grupo de participantes de la investigación para que reciban diferentes versiones de contenido. Por ejemplo, los correos electrónicos de marketing de productos o las solicitudes de recaudación de fondos de campañas podrían asignar aleatoriamente un grupo de direcciones de correo electrónico para que reciban el mismo contenido con uno de varios asuntos de correo electrónico diferentes. Luego, los investigadores miden las diferencias entre cada uno de estos grupos experimentales sobre los mismos resultados, que para el contenido digital a menudo incluyen tasas de participación, clics, “me gusta”, acciones de compartir o comentarios.

 

Highlight


Modo: Los mecanismos a través de los cuales se entregan los contenidos programáticos (por ejemplo, en persona, materiales escritos, televisión, radio, redes sociales, correo electrónico, SMS, etc.)

Highlight


Dado que los participantes se asignan al azar para recibir diferentes variaciones, el investigador puede concluir con seguridad que cualquier diferencia sobre estos resultados puede atribuirse a la variación del contenido.

Las plataformas de redes sociales han utilizado las pruebas A/B para optimizar las respuestas de la plataforma a la información falsa. En otros casos, los propios investigadores o empresas tecnológicas han experimentado con variaciones de etiquetas de contenido político para determinar si estas etiquetas afectan la participación de la audiencia. De manera similar, los programas de DDG pueden usar pruebas A/B para optimizar el contenido digital en programas contra la desinformación para explorar, por ejemplo, cómo diferentes encuadres o personas que avalan los mensajes de verificación de datos afectan las creencias de la audiencia. 

 

Highlight


Focalización en herramientas: Herramientas de comprobación de contenidos y mensajes

Facebook: "Las pruebas A/B le permiten cambiar variables, como la creatividad, el público o la colocación del anuncio para determinar qué estrategia funciona mejor y mejorar las campañas futuras. Por ejemplo, podría plantear la hipótesis de que una estrategia de público personalizada superará a una estrategia de público basada en intereses para su negocio. Una prueba A/B permite comparar rápidamente ambas estrategias para ver cuál rinde más".

RIWI: "Los encuestados se asignan aleatoriamente a un grupo de tratamiento o de control para determinar el impacto de diferentes conceptos, vídeos, anuncios o frases. Todos los grupos verán preguntas iniciales idénticas, seguidas por el grupo o grupos de tratamiento que recibirán un mensaje desarrollado. Después del tratamiento, se harán preguntas a todos los encuestados para determinar la resonancia y el compromiso del mensaje o para medir los cambios de comportamiento (evaluados después del tratamiento) entre los grupos".

GeoPoll: "GeoPoll trabaja con marcas líderes a nivel mundial para probar nuevos conceptos a través de encuestas de vídeo e imágenes y grupos de discusión móviles. Gracias a la capacidad de investigación de GeoPoll y a su amplio panel de encuestados, las marcas pueden llegar a su público objetivo y recopilar los datos tan necesarios sobre qué mensajes son más eficaces, cómo deben comercializarse los nuevos productos, cómo reaccionarán los consumidores ante los nuevos productos, etc".

Mailchimp: "Las campañas de pruebas A/B evalúan diferentes versiones de un mismo correo electrónico para ver cómo los pequeños cambios pueden tener un impacto en sus resultados. Elija lo que quiera evaluar, como la línea de asunto o el contenido, y compare los resultados para saber qué funciona y qué no funciona para su audiencia".

 

Texto ficticio

Herramientas de investigación para comprender la desinformación

La evaluación de los programas de democracia, derechos humanos y gobernanza (DDG) puede identificar y describir resultados clave, evaluar o mejorar la calidad de la implementación del programa, identificar lecciones que podrían mejorar la implementación de programas similares, o atribuir cambios en los resultados clave a la intervención del programa. Esta sección generalmente se enfoca en el último tipo de evaluación (evaluación de impacto), o en determinar la medida en que un programa contribuyó a cambiar resultados de interés.

Atribuir los resultados observados a los programas es quizás el desafío de investigación más difícil en el ciclo del programas de DDG. Sin embargo, existen varios diseños de investigación de evaluación que pueden ayudar a los profesionales de DDG a determinar si los programas tienen efecto en un resultado de interés, si producen resultados no buscados, cuál de varias alternativas es más probable que haya tenido efecto, si ese efecto es positivo o negativo, y qué tan grande podría ser ese efecto. A menudo, estos métodos se pueden utilizar dentro del ciclo del programa para optimizar las actividades, especialmente dentro del marco de una CLA, gestión adaptativa o escala de prueba piloto

Los programas para contrarrestar la desinformación pueden adoptar muchas formas con muchos posibles resultados previstos, que van desde capacitaciones a pequeña escala de periodistas o funcionarios públicos y campañas más amplias de alfabetización mediática hasta comunicaciones masivas tales como verificación de datos o calificación de medios de comunicación. No existe un enfoque de investigación de evaluación único que funcione para todas las intervenciones en la lucha contra la desinformación. Los diseñadores e implementadores de programas de DDG deben considerar consultar con personal interno e investigadores aplicados, evaluadores externos o investigadores académicos para desarrollar un enfoque de evaluación que responda preguntas de investigación de interés para el programa, teniendo en cuenta las limitaciones prácticas de tiempo, mano de obra, presupuesto, escala y capacidad de monitoreo y evaluación. 

Preguntas clave de investigación:

  • ¿Un programa o actividad produce un cambio medible en un resultado de interés? Por ejemplo, ¿un programa de alfabetización mediática aumentó la capacidad de los participantes de distinguir entre noticias verdaderas y falsas? ¿Un programa produce resultados no buscados?
  • ¿Cuál es la magnitud del efecto o impacto de una actividad en un resultado de interés? 
  • ¿Cuál es la dirección del efecto de una actividad en un resultado de interés? Por ejemplo, ¿un programa de verificación de datos disminuyó la confianza en los informes de noticias falsas o produjo una mayor aceptación de esos informes a través de una reacción negativa?

Enfoques experimentales o aleatorizados

Las evaluaciones aleatorizadas —también llamadas comúnmente ensayos controlados aleatorizados (ECA) o experimentos de campo— a menudo se mencionan como el estándar de oro para la inferencia causal, que consiste en determinar si una intervención produjo un resultado de interés y de qué manera lo hizo. Cuando son viables desde el punto de vista logístico, financiero y ético, los ECA son el mejor método disponible para la inferencia causal porque controlan las variables de confusión —factores distintos de la intervención que podrían haber causado el resultado observado—. Los ECA controlan estas explicaciones alternativas, para lo cual asignan aleatoriamente a los participantes a uno o más grupos de "tratamiento" (en los que reciben una versión de la intervención en cuestión) o a un grupo de "comparación" o "control" (en el que los participantes no reciben ninguna intervención o contenido placebo). Dado que los participantes se asignan al azar al tratamiento o al control, cualquier diferencia observada en los resultados entre esos grupos puede atribuirse a la intervención en sí. De esta manera, los ECA pueden ayudar a los profesionales e investigadores a estimar la efectividad de una intervención. 

Los costos y los compromisos logísticos de una evaluación de impacto aleatorizada pueden ser muy variables, y dependen en gran parte de los costos de la recopilación de datos de resultados. Sin embargo, las intervenciones informativas, incluidas las destinadas a contrarrestar la desinformación, pueden ser particularmente susceptibles a las evaluaciones aleatorizadas, ya que las herramientas digitales pueden hacer que la recopilación de datos sea menos costosa que en los métodos cara a cara, como entrevistas o encuestas en persona. Sin embargo, independientemente de los métodos de recopilación de datos, las evaluaciones aleatorizadas requieren de gran pericia técnica y planificación logística, y no son apropiadas para todos los programas, en especial aquellos que actúan a una escala relativamente pequeña, ya que exigen un gran número de unidades de observación para identificar diferencias estadísticamente significativas. Estos enfoques de evaluación no deben utilizarse para evaluar todos los programas. Otros métodos de evaluación de impacto difieren en la forma en que se aproximan a la aleatorización para medir el efecto de las intervenciones en los resultados observados y pueden ser más apropiados para ciertos diseños de programas.

 

Highlight


Para ver una guía completa sobre el uso de evaluaciones aleatorias para inferencia causal en la programación del desarrollo, consulte los recursos de investigación de J-PAL.

En 2020, los investigadores de RAND Corporation, en asociación con el programa Learn2Discern de IREX de Ucrania, llevaron a cabo un ensayo de control aleatorizado para estimar tanto el impacto de una campaña de desinformación rusa como el de una respuesta programática que incluía etiquetado de contenido e intervenciones de alfabetización mediática. Un hallazgo del experimento fue que la propaganda rusa produjo reacciones emocionales y participación en las redes sociales entre partidarios fuertes, pero que esos efectos se mitigaron al indicar la fuente del contenido y al mostrar a los destinatarios un video corto sobre alfabetización mediática. 

Enfoques cuasiexperimentales y no experimentales

Los investigadores y evaluadores pueden emplear métodos cuasiexperimentales o no experimentales cuando la asignación aleatoria al tratamiento y al control no sea práctica o ética. Como lo indica el nombre, estos diseños de investigación intentan atribuir cambios en los resultados a las intervenciones, para lo cual aproximan la asignación aleatoria a las condiciones de tratamiento y control por medio de comparaciones. En la mayoría de los casos, esta aproximación implica recopilar datos sobre una población que no participó en un programa, pero que es plausiblemente similar a los participantes del programa en otros aspectos. Quizás el más familiar de estos métodos para los profesionales de DDG es el de diseño de prepueba/posprueba, en el que se encuesta o evalúa a los participantes del programa con el mismo conjunto de preguntas tanto antes como después de su participación en el programa. Por ejemplo, los participantes de un programa de alfabetización mediática podrían responder un cuestionario que les pida distinguir entre noticias verdaderas y falsas, tanto antes como después de su participación en el programa. En este caso, la prepueba mide la capacidad de una aproximación de un grupo de “control” o “comparación”, y la posprueba mide esa capacidad en un grupo de “tratamiento” de participantes que han recibido el programa. Todo aumento en la capacidad de distinguir entre noticias verdaderas y falsas se atribuye al programa. Los estudios de casos comparativos estructurados y el seguimiento de procesos son ejemplos de diseños no experimentales que controlan los factores de confusión mediante comparaciones entre casos o dentro del mismo caso a lo largo del tiempo.  

Hay una amplia variedad de métodos de investigación cuasiexperimentales y de observación disponibles para evaluar el impacto del programa. La elección que se haga entre estas herramientas para evaluar el impacto de un programa depende de los datos disponibles (o la capacidad de recopilar los datos necesarios) y los supuestos que se requieren para identificar estimaciones confiables del impacto del programa. Esta tabla, reproducida en su totalidad con el consentimiento por escrito de Abdul Latif Jameel Poverty Action Lab, proporciona un menú de estas opciones con sus respectivos supuestos y requisitos de recopilación de datos.

 

 MétodoDescripción¿Qué supuestos se requieren y qué tan exigentes son?Datos requeridos
Aleatorización
Evaluación aleatorizada/Ensayo de control aleatorizadoMide las diferencias en los resultados entre los participantes del programa asignados al azar y los no participantes después de que el programa entró en vigor.La variable de resultado solo se ve afectada por la participación en el programa en sí, no por la asignación para participar en el programa ni por la participación en la evaluación aleatorizada en sí. Ejemplos de tales efectos de confusión podrían ser los efectos de la información, los efectos indirectos o los efectos del experimentador. Al igual que con otros métodos, el tamaño de la muestra debe ser lo suficientemente grande para que los dos grupos sean estadísticamente comparables; la diferencia es que el tamaño de la muestra se elige como parte del diseño de la investigación.Datos de resultados de los participantes asignados al azar y los no participantes (los grupos de tratamiento y de control).
Métodos de comparación básicos no experimentales
Pre-PosMide las diferencias en los resultados de los participantes del programa antes y después de que el programa haya entrado en vigor.No hay otros factores (incluidos eventos externos, un impulso de cambio por parte de los propios participantes, condiciones económicas modificadas, etc.) que hayan cambiado el resultado medido de los participantes a lo largo del tiempo además del programa. En entornos estables y estáticos, y en plazos de tiempo cortos, el supuesto puede ser válido, pero no es posible verificarlo. Por lo general, se prefiere un diseño de diferencias en diferencias o de regresión discontinua (ver más abajo).Datos sobre los resultados de interés de los participantes del programa antes del inicio del programa y después de que el programa entró en vigor.
 Diferencia simpleMide las diferencias en los resultados entre los participantes del programa después de que el programa entró en vigor y otro grupo que no participó en el programa.No hay diferencias en los resultados de los participantes y no participantes, excepto por la participación en el programa, y ambos grupos tenían la misma probabilidad de ingresar al programa antes de que comenzara. Este es un supuesto fuerte. Es posible que los no participantes no cumplan con los criterios exigidos, vivan en otro lugar o simplemente no le vean tanta utilidad al programa (autoselección). Cualquiera de estos factores puede estar asociado con diferencias en los resultados independientemente de la participación en el programa. Por lo general, se prefiere un diseño de diferencias en diferencias o de regresión discontinua (ver más abajo).Datos sobre resultados de los participantes del programa, así como de otro grupo de no participantes después de que el programa entró en vigor.
 Diferencias en diferenciasMide las diferencias en los resultados de los participantes del programa antes y después del programa en relación con los de los no participantes.Los demás factores que puedan haber afectado el resultado medido a lo largo del tiempo son los mismos para los participantes y no participantes, por lo que habrían tenido la misma trayectoria de tiempo sin el programa. En plazos de tiempo cortos y con grupos razonablemente similares, este supuesto puede ser plausible. Una "prueba placebo" también puede comparar las tendencias temporales en los dos grupos antes de llevar a cabo el programa. Sin embargo, al igual que con la “diferencia simple”, muchos factores que están asociados con la participación en el programa también pueden estar asociados con cambios en los resultados a lo largo del tiempo. Por ejemplo, una persona que espera una gran mejora en el futuro cercano podría no sumarse al programa (autoselección).Datos sobre los resultados de interés de los participantes del programa y de otro grupo de no participantes antes del inicio del programa y después de que el programa entró en vigor.
Más métodos no experimentales
Regresión multivariante/mínimos cuadrados ordinariosEl enfoque de la “diferencia simple” puede llevarse a cabo, y en la práctica casi siempre se lleva a cabo, mediante regresión multivariante. Hacerlo permite tener en cuenta otros factores observables que también podrían afectar el resultado, a menudo llamados "variables de control" o "covariables". La regresión filtra los efectos de estas covariables y mide las diferencias en los resultados entre participantes y no participantes, a la vez que mantiene constante el efecto de las covariables.Además de los efectos de las variables de control, no hay otras diferencias entre participantes y no participantes que afecten el resultado medido. Esto significa que todos los factores no observables o no medidos que afecten el resultado deben ser los mismos para los participantes y los no participantes. Además, las variables de control no pueden verse afectadas de ninguna manera por el programa. Si bien agregar covariables puede mitigar algunas inquietudes al tomar diferencias simples, la limitación de datos disponibles en la práctica y factores no observables implican que el método tiene problemas similares a la diferencia simple (por ejemplo, autoselección).Datos sobre resultados de los participantes del programa, así como de otro grupo de no participantes, y "variables de control" de ambos grupos.
 Emparejamiento estadísticoEmparejamiento exacto: los participantes se emparejan con no participantes que son idénticos según las "variables de emparejamiento" para medir las diferencias en los resultados. En el emparejamiento por puntuación de propensión se utilizan las variables de control para predecir la probabilidad de que una persona participe y se utiliza esta probabilidad predicha como variable de emparejamiento.Similar a la regresión multivariable: no hay diferencias entre participantes y no participantes con las mismas variables de emparejamiento que afecten el resultado medido. Las diferencias no observables son la principal inquietud en el emparejamiento exacto. En el emparejamiento por puntuación de propensión, dos individuos con la misma puntuación pueden ser muy diferentes incluso en las dimensiones observables. Por lo tanto, los supuestos que deben cumplirse para sacar conclusiones válidas son bastante exigentes.Datos sobre resultados de los participantes del programa, así como de otro grupo de no participantes, y "variables de emparejamiento" de ambos grupos.
 Diseño de regresión discontinua (RDD)En un RDD, los requisitos de participación están determinados por un valor de corte en algún orden o clasificación, como el nivel de ingresos. Los participantes de un lado del valor de corte se comparan con los no participantes del otro lado, y el criterio de elegibilidad se incluye como variable de control (ver más arriba).Toda diferencia entre los individuos por debajo y por encima del punto de corte (participantes y no participantes) se desvanece al acercarse al valor de corte. Un diseño de regresión discontinua cuidadosamente elaborado puede ser eficaz. El diseño utiliza el elemento "aleatorio" que se introduce cuando dos individuos que son similares entre sí según su orden terminan en lados diferentes del valor de corte. Además, emplea variables de control para dar cuenta de las diferencias continuas entre ellos. El supuesto de que estos individuos son similares entre sí se puede someter a prueba con parámetros observables de los datos. Sin embargo, el diseño limita la comparabilidad de los participantes más alejados del valor de corte.Datos sobre resultados de los participantes y no participantes del programa, así como la "variable de ordenación" (también llamada "variable de forzamiento").
 Variables instrumentalesEl diseño utiliza una "variable instrumental" que es un indicador predictivo de la participación en el programa. Luego, el método compara a los individuos según su participación prevista, en lugar de su participación real.La variable instrumental no tiene efecto directo alguno en la variable de resultado. Su único efecto es a través de la participación de un individuo en el programa. Un diseño válido de variable instrumental requiere de un instrumento que no tenga relación con la variable de resultado. La dificultad radica en que la mayoría de los factores que afectan la participación en un programa para personas similares también están de alguna manera directamente relacionados con la variable de resultado. Con más de un instrumento, se puede poner a prueba el supuesto.Datos sobre resultados de los participantes y no participantes del programa, así como una “variable instrumental”.

Monitoreo de medios y análisis de contenido

Los enfoques de análisis de contenido y monitoreo de medios generalmente tienen como objetivo responder preguntas de investigación sobre si, cómo o por qué las intervenciones cambian la participación de la audiencia en la información o modifican la naturaleza o la calidad de la información en sí.  Por ejemplo, un programa de verificación de datos podría plantear la hipótesis de que corregir la desinformación debería resultar en una menor participación de la audiencia en los medios de desinformación en las redes sociales, medida por vistas, “me gusta”, acciones de compartir o comentarios. 

Existen varias herramientas disponibles para ayudar a los profesionales e investigadores de DDG a identificar cambios en el contenido de los medios. El análisis de contenido es un enfoque de investigación cualitativo mediante el cual los investigadores pueden identificar temas clave en material escrito, de audio o de video, y si esos temas cambian con el tiempo. Asimismo, el análisis de sentimientos puede ayudar a identificar la naturaleza de las actitudes o creencias en torno a un tema. 

Tanto el análisis de contenido como el de sentimiento pueden llevarse a cabo por medio de codificación humana o automática, y deben realizarse en múltiples puntos del ciclo del programa junto con otros diseños de investigación de evaluación para evaluar el impacto del proyecto. 

 

Highlight


Focalización en la investigación: evaluación del impacto cuasiexperimental de Learn2Discern de IREX

De octubre de 2015 a marzo de 2016, IREX implementó Learn2Discern, un programa de alfabetización mediática a gran escala en Ucrania, en colaboración con la Academia de la Prensa Ucraniana y StopFake. Como parte del programa, IREX llevó a cabo una evaluación del impacto cuasiexperimental utilizando el emparejamiento estadístico para comparar a los participantes del programa con los no participantes. El estudio reveló que los participantes del programa tenían: 

  • Un 28% más de probabilidades de demostrar un conocimiento sofisticado de la industria de los medios de comunicación
  • Un 25% más de probabilidades de consultar varias fuentes de noticias
  • Un 13% más de probabilidades de identificar correctamente y analizar críticamente una noticia falsa
  • Un 4% más de probabilidades de expresar un sentido de agencia sobre las fuentes de noticias a las que pueden acceder.

Los donantes y los socios que implementan programas de lucha contra la desinformación deben considerar estos métodos cuasiexperimentales para evaluar la dirección y la magnitud de los impactos del programa en los resultados de interés, en particular cuando la asignación aleatoria al tratamiento y al control no es factible.

 

Highlight


Focalización en el proyecto: Proyecto Beacon de IRI

Las intervenciones del Proyecto Beacon se basan en una rigurosa investigación sobre la opinión pública y el seguimiento de los medios de comunicación, que se utiliza para dotar a los miembros de la Red Beacon de las herramientas y los datos necesarios para realizar un análisis en profundidad de los relatos malignas y las campañas de desinformación. En 2015, el Proyecto Beacon desarrolló >versus<, una herramienta de seguimiento de los medios de comunicación utilizada por expertos internos y monitores de medios de comunicación de toda Europa para rastrear las narrativas malignas y las campañas de desinformación en el espacio de los medios de comunicación en línea, analizar su dinámica y cómo se discuten en línea.

Análisis de redes

El análisis de redes es un método para comprender cómo y por qué la estructura de las relaciones entre los actores afecta un resultado de interés. El análisis de redes es un método de investigación particularmente útil para los programas para contrarrestar la desinformación porque permite a los analistas visualizar y comprender cómo se difunde la información a través de las redes en línea, incluidas las plataformas de redes sociales, los foros de discusión y otras comunidades digitales. Al sintetizar información sobre el número de actores, la frecuencia de las interacciones entre los actores, la calidad o intensidad de las interacciones y la estructura de las relaciones, el análisis de redes puede ayudar a los investigadores y profesionales a identificar canales clave para la propagación de la desinformación, la dirección de transmisión de la información o la desinformación, grupos que denotan distintos ecosistemas de información, y si la participación o la amplificación son genuinas o artificiales. A su vez, las métricas de redes pueden ayudar a brindar información para el diseño, el contenido y la focalización de las actividades de los programas. En la medida en que los analistas puedan recopilar datos de redes a lo largo del tiempo, el análisis de redes también puede proporcionar información para monitorear y evaluar programas.

Las herramientas de recopilación de datos para el análisis de redes dependen de la naturaleza de la red en general y de la plataforma de red en particular. El análisis de redes puede realizarse en redes fuera de línea en las cuales los investigadores tengan la capacidad de recopilar datos mediante el uso de técnicas estándares de encuestas presenciales, telefónicas, por mensaje de texto o asistidas por computadora. En estos casos, los investigadores han mapeado redes comunitarias fuera de línea mediante el uso de instrumentos de encuesta que piden a los encuestados que enumeren personas u organizaciones que sean particularmente influyentes, o a quienes podrían dirigirse para una tarea en particular. Luego, para mapear las redes, los investigadores pueden agregar y codificar las respuestas de todos los encuestados de la comunidad. De esta manera, los investigadores podrían determinar qué individuos influyentes de una comunidad podrían ser nodos para la diseminación de información, particularmente en contextos donde las personas dependen en gran medida de familiares y amigos para obtener noticias o información. 

Sin embargo, según las API y los términos de servicio, las plataformas digitales como las redes sociales pueden reducir los costos de recopilación de datos de redes. Con herramientas dedicadas, incluido software de análisis de redes sociales, los investigadores pueden analizar y visualizar las relaciones entre los usuarios, incluidos la participación en el contenido, las relaciones entre seguidores y los "me gusta" o "compartir". Estas herramientas pueden posibilitar a los profesionales comprender la estructura de las redes en línea y, junto con las herramientas de análisis de contenido, de qué manera interactúa la estructura de las redes con determinados tipos de contenido.

Highlight


Focalización en herramientas: Herramienta de análisis de redes sociales en línea para VAWIE de IFES/NDI

Las Tecnologías de la Información y la Comunicación (TIC) han creado nuevos vehículos para la violencia contra las mujeres en las elecciones (VAWIE), que se ven agravados por el anonimato y la magnitud que proporcionan las plataformas de medios de comunicación en línea. Una nueva herramienta de la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID), la Fundación Internacional para los Sistemas Electorales (IFES) y el Instituto Nacional Democrático (NDI) ofrece un método adaptable para medir los aspectos de género del abuso en línea y comprender los impulsores de esta violencia. La herramienta de análisis de redes sociales para VAWIE en línea puede ser utilizada por actores de diversas profesiones que estén preocupados por el discurso de odio y violencia en línea y estén motivados para acabar con él.

 

Highlight


Focalización en programas/herramientas: Análisis de datos del NDI para el monitoreo de las redes sociales

El NDI trata de capacitar a sus socios para que aprovechen la tecnología para fortalecer la democracia. Esto significa aprovechar el potencial de la tecnología para promover la integridad de la información y ayudar a construir democracias inclusivas, al tiempo que se mitiga el daño que suponen la desinformación, las campañas de influencia en línea, la incitación al odio, el acoso y la violencia. 

Por esa razón, el NDI desarrolló, "Análisis de datos para el monitoreo de las redes sociales", una guía para activistas e investigadores de la democracia.

Esta nueva guía está diseñada para ayudar a los profesionales de la democracia a comprender mejor las tendencias en redes sociales, contenidos, datos y redes. Al compartir las lecciones aprendidas y las mejores prácticas de toda nuestra red mundial, esperamos capacitar a nuestros socios para que la democracia funcione en línea, ayudándoles a:

• Colaborar con socios locales, nacionales o internacionales;

• Comprender los diferentes métodos de recopilación de datos;

• Aprovechar al máximo la cartografía y la visualización de datos;

• Analizar el ecosistema en línea; 

• Detectar contenidos maliciosos o manipulados y su origen; 

• Comprender las herramientas disponibles para todos los aspectos del monitoreo de las redes sociales; y

• Saber responder con datos, métodos, investigaciones y mucho más a través de las redes sociales. 

 

Highlight


Focalización en programas: Detección de huellas dactilares: Rastreo de la desinformación china en Taiwán.

En junio de 2019, con las elecciones locales de 2018 como punto de referencia, Graphika, el Laboratorio de Inteligencia Digital del Instituto para el Futuro (IFTF) y el Instituto Republicano Internacional (IRI) se embarcaron en un proyecto de investigación para estudiar exhaustivamente el entorno de la información en línea en el período previo, durante y después de las elecciones de enero de 2020 en Taiwán, teniendo en cuenta los precedentes de 2018 y con la vista puesta en posibles incidentes similares a lo largo de este ciclo electoral. Graphika y DigIntel monitorearon y recopilaron datos de Facebook y Twitter, e investigaron pistas en otras plataformas de redes sociales, como Instagram, LINE, PTT y YouTube. El IRI apoyó a varias organizaciones taiwanesas que archivaron y analizaron datos de granjas de contenidos y de las plataformas de redes sociales más populares de la isla. El equipo de investigación visitó Taiwán con regularidad, incluso durante las elecciones, para hablar con líderes de la sociedad civil, académicos, periodistas, empresas tecnológicas, funcionarios del gobierno, legisladores, la Comisión Electoral Central y partidos políticos. El objetivo era comprender las tácticas, los vectores y los relatos de desinformación en línea utilizadas durante un evento político de importancia crítica para los intereses estratégicos de Beijing. Al invertir en las organizaciones que investigan y combaten la desinformación en lengua china y las operaciones de influencia del CCP, esperaban aumentar la capacidad de la comunidad mundial de investigación de la desinformación para rastrear y exponer esta amenaza emergente para la información y la integridad democrática.

 

Herramientas de investigación para comprender la desinformación

  • En primer lugar, desarrolle las preguntas de investigación, luego los diseños de investigación y después los métodos e instrumentos de recolección de datos. Para responder las preguntas que son más pertinentes al contexto y al programa, deben seleccionarse el diseño de investigación y los métodos de recopilación de datos que respondan las preguntas que son más importantes para las necesidades de medición del programa. Comprometerse con un método de investigación o de recopilación de datos antes de definir el alcance de su pregunta de investigación limitará las posibles respuestas. 
  • En la fase de implementación, considere emplear un modelo a escala de prueba piloto para las actividades del programa. Con el uso de uno o más de los enfoques de investigación descritos, organice talleres de prueba de contenido en pequeños grupos de encuestados y utilice los datos piloto para refinar el contenido más prometedor antes de implementar actividades para un grupo más grande de beneficiarios. 
  • Proteja la información de identificación personal (PII). Todos los métodos de recopilación de datos descritos en esta sección, desde entrevistas hasta encuestas, datos de redes y análisis de redes sociales, pueden recoger información sobre características personales íntimas y privadas, incluidos datos demográficos, actitudes, creencias y voluntad de actuar en cuestiones políticas. Independientemente de la metodología seleccionada, los investigadores deben hacer todo lo posible por obtener el consentimiento informado para participar en la investigación y deben tener cuidado de proteger los datos personales y eliminar la información de esos datos que permita identificar a las personas.
  • Considere asociarse con organizaciones de investigación, laboratorios universitarios o investigadores académicos individuales que puedan tener una ventaja comparativa en la elaboración e implementación de diseños de investigación complejos y puedan tener interés en estudiar los efectos de los programas de lucha contra la desinformación.