December 29, 2020

Lee en español

University of Sheffield researchers Yida Mu and Dr. Nikos Aletra report they’ve developed an artificial intelligence system to help identify Twitter users who are more likely to share unreliable news sources.

In their study published in the journal PeerJ Computer Science, the researchers found strong correlations between specific language patterns and the propensity to share false information.

Users who shared dubious information tended to use the words, “media,” “government,” “truth,” “Israel,” “liberal,” “muslim” and “Islam” in their tweets. Users who shared more reliable information sources tended to use more personal words such as “myself,” “feel,” “excited,” “mood,” “mom” and “okay.”

[the_ad id=”667826″]

Topics related to politics such as political ideology, government and justice are correlated with users that propagate unreliable sources. “We also observe a high correlation of such users with the topic related to impolite personal characterizations. This corroborates results of a recent study that showed political incivility on Twitter is correlated to political polarization,” the study authors wrote.

The researchers based their findings on the analysis of over 1 million tweets from approximately 6,200 Twitter users. This data helped the researchers develop a “new natural language processing methods.”

The researchers say the system has 79.7% accuracy when it comes to predicting whether a user will repost unreliable sources in the future. The team hoped this tool will provide a useful novel method to help fight the flood of hoaxes and inaccurate information.

“Automatically identifying social media users that are likely to propagate posts from handles of unreliable news sources sometime in the future is of utmost importance for early detection and prevention of disinformation diffusion in a network, and has yet to be explored,” the authors wrote.

To access FactChat on WhatsApp and follow the presidential campaign, click hi.factchat.me for English, and hola.factchat.me for Spanish.

Laura Weffer is IFCN’s coordinator for FactChat and co-founder of Venezuelan news outlet @Efecto Cocuyo. She can be reached at laurafactchat@gmail.com or on Twitter at @laura_weffer.

Universidad desarrolla un sistema de IA que predice las posibilidades de difundir desinformación basado en las palabras que usas

Los investigadores de la Universidad de Sheffield, Yida Mu y el Dr. Nikos Aletra, informaron que han desarrollado un sistema de inteligencia artificial para ayudar a identificar a los usuarios de Twitter que tienen más probabilidades de compartir fuentes de noticias poco fiables.

En el estudio publicado en la revista Peer J de Ciencias Informáticas, el investigador encontró fuertes correlaciones entre patrones específicos de lenguaje y la propensión a compartir información falsa.

Los usuarios que compartían información dudosa tendían a utilizar las palabras “medios de comunicación”, “gobierno”, “verdad”, “Israel”, “liberal”, “musulmán” e “Islam” en sus tweets. Los usuarios que compartían fuentes de información más fiables tendían a usar palabras más personales como “yo”, “sentir”, “emocionado”, “humor”, “mamá” y “bien”.

[the_ad id=”667826″]

Los temas relacionados con la política, como la ideología política, el gobierno y la justicia, se correlacionan con los usuarios que propagan fuentes poco fiables. “También observamos una alta correlación de tales usuarios con el tema relacionado con las caracterizaciones personales maleducadas. Esto corrobora los resultados de un estudio reciente que mostraba que la incivilidad política en Twitter está correlacionada con la polarización política”, escribieron los autores del estudio.

Los investigadores basaron sus conclusiones en el análisis de más de un millón de tweets de aproximadamente 6.200 usuarios. Estos datos ayudaron a los investigadores a desarrollar “nuevos métodos de procesamiento de lenguaje natural”.

Los investigadores dicen que el sistema tiene una precisión del 79,7% cuando se trata de predecir si un usuario volverá a publicar fuentes no fiables en el futuro. El equipo esperaba que esta herramienta proporcione un método novedoso y útil para ayudar a combatir la avalancha de engaños e información inexacta.

“La identificación automática de los usuarios de las redes sociales que probablemente propaguen mensajes desde  fuentes poco fiables en algún momento del futuro, es de suma importancia para la detección temprana y la prevención de la difusión de desinformación en una red, y todavía está por explorar”, escribieron los autores.

Para acceder a FactChat en WhatsApp y seguir la campaña presidencial, haga clic en hi.factchat.me para el inglés, y hola.factchat.me para el español.

Laura Weffer es la coordinadora del IFCN para FactChat y co-fundadora del canal de noticias venezolano @Efecto Cocuyo. Puede ser contactada en laurafactchat@gmail.com o en Twitter en @laura_weffer.

 

Support high-integrity, independent journalism that serves democracy. Make a gift to Poynter today. The Poynter Institute is a nonpartisan, nonprofit organization, and your gift helps us make good journalism better.
Donate

More News

Back to News