Società +

Linguaggio di odio sui social: un progetto europeo ne analizza la natura

Linguaggio di odio sui social: un progetto europeo ne analizza la natura

Chi sono gli odiatori seriali? Un algoritmo può prevenire il linguaggio d’odio dei leoni da tastiera?
In Italia Agcom e l’Università Cà Foscari di Venezia coinvolti in un innovativo progetto europeo

Il suo nome identificativo è Hate Speech. Ovvero linguaggio d’odio, violenza verbale.
In termini più semplici da comprendere, quello che spesso si scatena sui social a seguito della pubblicazione di un post. Un fenomeno che ultimamente si sta ponendo sempre più al centro del dibattito pubblico perché emerso pericolosamente in vari ambiti della società, dalla politica, all’informazione, dallo sport alla scuola.

Oggi, tra i temi che scatenano i commentatori in rete c’è anche quello legato all’emergenza da Covid-19. Un odio che corre on line, soprattutto sui social network e che talvolta si manifesta purtroppo anche fuori dal mondo digitale. Nei confronti del virus come si stanno comportando i cosiddetti “leoni da tastiera”?
E’ in corso un progetto europeo grazie al quale alcuni ricercatori stanno analizzando in Italia il canale YouTube per comprendere cosa scatena il linguaggio d’odio in riferimento alla pandemia.

Il legame tra disinformazione e linguaggio d’odio

«I dati emersi dalla prima fase della ricerca in corso – spiega Matteo Cinelli, ricercatore di Cà Foscari a Venezia – ci stanno aiutando a comprendere le caratteristiche del linguaggio d’odio e il rapporto che può esserci tra questo e la disinformazione. Devo dire che finora i risultati pervenuti non destano particolari preoccupazioni. Risulta infatti che solo l’1% su circa un milione di commenti e 30 mila video in tema Covid-19 risultano classificati come violenti. Non si tratta quindi di odiatori cosiddetti seriali ma di persone che talvolta eccedono utilizzando un linguaggio offensivo o inappropriato. Questi ultimi sono rispettivamente il 13% e il 4% sul totale. Il restante 82% ha postato commenti appropriati. Nello specifico del tema Covid-19 tenuto in considerazione è stato rilevato un accanimento verbale verso la politica e le Istituzioni perché responsabili delle scelte ma bisogna considerare che talvolta l’informazione fornita può essere fuorviante».

Matteo Cinelli Università Ca' Foscari di Venezia
Matteo Cinelli

Agicom in questo senso ha preso in considerazione i dati evidenziati dall’Osservatorio sul giornalismo secondo il quale il 73% dei giornalisti ha riscontrato casi di disinformazione nel periodo della pandemia. Un altro dato interessante è l’assenza di temi classici quali omofobia, antisemitismo, categorie più deboli, solitamente oggetto del linguaggio d’odio.

La ricerca in Italia

Il progetto europeo, elaborato in collaborazione con Slovenia, Belgio e Cipro, ha come obiettivo la realizzazione di un sistema multilinguistico che porti a rilevare e ancor prima prevenire il linguaggio d’odio sui servizi di media e sulle piattaforme on line.

L’analisi in corso, che si concluderà nel 2022, fa parte del progetto europeo “Innovative Monitoring Systems and Prevention Policies of Online Hate Speech”.
In Italia sono coinvolti l’Università Cà Foscari di Venezia e l’Autorità per le garanzie nelle comunicazioni (Agcom) che stanno lavorando assieme a un’Azienda belga di intelligenza artificiale, l’Università di Cipro, un Istituto di ricerca in Slovenia.

L'Università Ca' Foscari di Venezia
L’Università Ca’ Foscari di Venezia

«Abbiamo preso in esame il canale YouTube – continua Matteo Cinelli – perché, diversamente da Twitter e Facebook, permette di scrivere commenti lunghi a piacere visibili a tutti. Si sta lavorando su sistemi di identificazione automatica di linguaggio d’odio sui social media. Per la ricerca in una prima fase abbiamo dedicato 8 persone alla lettura dei commenti sul Coronavirus, riguardanti 1.200.000 persone, che sono stati annotati a seconda di specifiche etichette fornite, vale a dire appropriato, inappropriato, offensivo, violento sulle base delle quali sono state fatte le valutazioni. Successivamente è stato addestrato un algoritmo perché si rilevasse automaticamente la distinzione dall’associazione tra commento e etichetta. Al momento è previsto che il progetto si concluda nel 2022 ma, considerata l’importanza dell’argomento, già si pensa di proseguirlo in altri ambiti una volta conclusa l’emergenza sanitaria».

Silvia Bolognini

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Il campo nome è richiesto.
Il campo email è richiesto o non è corretto.
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

Tag:  Social