Categorías
ECLIPSE ES Noticias Proyectos

Definición del discurso de odio y la desinformación en un panorama digital complejo y dinámico

El discurso de odio y la desinformación evolucionan rápidamente en los espacios digitales (así como fuera de ellos). Este breve artículo explora por qué las definiciones claras y operativas son cruciales y cómo el proyecto ECLIPSE aborda este desafío.

El discurso de odio y la desinformación no son fenómenos estáticos. Son altamente dinámicos y cambiantes, adaptándose a contextos políticos, avances tecnológicos y prácticas culturales, y a menudo se difuminan entre sí. Para responder de manera eficaz, los responsables políticos y los profesionales necesitan definiciones compartidas y operativas que reflejen estas complejidades. Este artículo presenta ideas clave del Entregable 2.1 del proyecto ECLIPSE, que establece la base conceptual y metodológica del trabajo global del proyecto.

Por qué importan las definiciones

Los esfuerzos para prevenir y combatir el discurso de odio y la desinformación a menudo tropiezan con un problema de importancia fundamental: no existe una única definición universalmente aceptada de ninguno de los dos fenómenos. Los marcos legales [1], las políticas de las plataformas, la investigación académica y el discurso público en general utilizan con frecuencia los mismos términos para describir diferentes formas de daño. Abordar distintos escenarios de manera uniforme complica la aplicación de medidas y debilita el desarrollo de herramientas tecnológicas eficaces para hacer frente a estos fenómenos.

El Entregable D2.1 aborda este desafío sintetizando perspectivas jurídicas, sociológicas, criminológicas y tecnológicas para proponer definiciones operativas que sean tanto sensibles al contexto como utilizables en la práctica. En lugar de buscar fórmulas rígidas o universales, el informe enfatiza definiciones que puedan adaptarse a distintas jurisdicciones, idiomas y entornos digitales.

Discurso de odio y desinformación como fenómenos superpuestos

Aunque el discurso de odio y la desinformación son —por supuesto— conceptualmente distintos, están profundamente interconectados [2]. La desinformación se utiliza a menudo para justificar o amplificar narrativas de odio, mientras que el discurso de odio suele basarse en representaciones distorsionadas o selectivas de la realidad. En la práctica, la frontera entre ambos está determinada por el contexto, la intención y el impacto, más que por el contenido en sí.

El informe destaca cómo las “verdades selectivas”, el humor, la ironía y la sátira pueden simultáneamente engañar a las audiencias y reforzar estereotipos hostiles. Esta superposición dificulta la clasificación, especialmente cuando el contenido dañino no se basa en insultos explícitos o “falsedades”, sino que opera de manera sutil, mediante implicaciones, insinuaciones o apelaciones emocionales.

De los memes a los emojis: formas cambiantes de daño

Uno de los hallazgos más significativos de la reciente publicación de ECLIPSE sobre definiciones y metodologías (Entregable 2.1) es que el discurso de odio y la desinformación contemporáneos son cada vez más multimodales. Imágenes, memes, GIFs, emojis y formatos híbridos visual-textuales desempeñan un papel central en la creación y circulación de narrativas dañinas. Estas formas suelen basarse en conocimientos culturales (o subculturales), lo que permite que los mensajes permanezcan opacos para quienes están fuera de ese contexto, mientras son claramente comprendidos por las audiencias destinatarias [3].

Los memes, por ejemplo, pueden condensar mensajes ideológicos complejos en formatos fácilmente propagables, combinando humor con hostilidad. Los emojis pueden funcionar como sustitutos codificados de palabras, ayudando a los usuarios a eludir la moderación mientras normalizan ideas discriminatorias o —muy a menudo— violentas. Estas prácticas suponen un reto tanto para la moderación humana como para los sistemas automatizados de detección, que suelen estar diseñados principalmente para el análisis de texto.

Desafíos metodológicos e implicaciones tecnológicas

Detectar el discurso de odio y la desinformación es metodológicamente exigente. Los enfoques existentes van desde la moderación manual hasta el aprendizaje automático, el aprendizaje profundo y el procesamiento del lenguaje natural (NLP, en sus siglas en inglés). Sin embargo, los conjuntos de datos limitados, la rápida evolución del lenguaje y las variaciones culturales reducen la fiabilidad de los sistemas puramente automatizados [4]. Al mismo tiempo, la moderación basada en inteligencia artificial plantea preocupaciones éticas relacionadas con el sesgo, la transparencia, la privacidad y la libertad de expresión.

El Entregable D2.1 aboga por enfoques conscientes del contexto, multimodales y éticamente fundamentados que combinen la innovación tecnológica con la experiencia humana. Subraya que las respuestas eficaces deben integrar conocimientos de las ciencias sociales y del comportamiento junto con métodos computacionales, especialmente al abordar formas de daño sutiles, implícitas o emergentes.

Las definiciones claras y operativas no son meros ejercicios académicos; son un requisito previo para una acción eficaz. Al basar su trabajo en una comprensión matizada del discurso de odio y la desinformación, el proyecto ECLIPSE establece una base conceptual compartida para la investigación, el desarrollo tecnológico, la capacitación y las recomendaciones de políticas. En un panorama digital en constante evolución, esta claridad es esencial para construir sociedades resilientes, inclusivas e informadas.

Nota: Este artículo se basa en el Entregable D2.1 de ECLIPSE “Definition and Methodologies”.

Autores: Parisa Diba y Georgios A. Antonopoulos

Palabras clave: discurso de odio, desinformación, información errónea, plataformas digitales, memes, emojis, inteligencia artificial, proyecto ECLIPSE

Referencias

[1] United Nations Strategy and Plan of Action on Hate Speech. (2020). Detailed Guidance on Implementation for United Nations Field Presences. [Online]. Available at:

UN Strategy and PoA on Hate Speech_Guidance on Addressing in field.pdf

[Accessed 4 November 2025].

[2] Wardle, C. (2024). ‘A conceptual analysis of the overlaps and differences between hate speech, misinformation and disinformation’. Department of Peace Operations (DPO). Office of the Special Adviser on the Prevention of Genocide (OSAPG). United Nations. [Online]. Available at:

Report – A Conceptual Analysis of the Overlaps and Differences between Hate Speech, Misinformation and Disinformation (June 2024)

[Accessed 6 November 2025].

[3] Becker, M.J., Scheiber, M. and Jensen, U. (Eds.) (2025). Imagery of Hate Online. Cambridge: Open Book Publishers.

[4] Fortuna, P. and Nunes, S. (2018). A survey on automatic detection of hate speech in text. ACM Computing Surveys, 51(4), pp. 1–30. 

Enlace a la publicación original en inglés: https://www.eclipsehorizon.eu/defining-hate-speech-and-disinformation-in-a-complex-and-dynamic-digital-landscape/

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *