Partecipa alla nostra ricerca!

Benvenuta/o!

Partecipando a questo progetto potrai sperimentare direttamente l’area grigia tra la libertà di espressione e il discorso d’odio online.

Sei pronta/o?

Il discorso d’odio – “hate speech” – è un insieme variegato di espressioni che comunicano disprezzo e ostilità verso individui identificati attraverso la loro appartenenza a un gruppo – che può essere un gruppo etnico o religioso, o formato da persone accomunate dal genere, dall’orientamento sessuale o dalle (dis)abilità.

Il discorso d’odio è molto pericoloso, tra le altre cose, perché può incitare alla violenza. È la punta dell’iceberg di un linguaggio virale costellato di espressioni discriminatorie più o meno esplicite, che si diffondono talvolta mascherate da umorismo e sono spesso difficili da identificare in quanto tali.

L’intelligenza artificiale (IA) si sta sviluppando a velocità esponenziale e il rischio che diventi un veicolo di “hate speech” è concreto. Di qui la necessità di uno strumento in grado di insegnare all’IA come individuare lo “hate speech” nelle sue diverse forme e come arginarlo.

Può un algoritmo cogliere le varie forme di linguaggio discriminatorio con la stessa sensibilità di un essere umano?

È quello che stiamo cercando di scoprire, e per questo la tua partecipazione a questa mostra è preziosa.

Stiamo sviluppando un nuovo algoritmo che capace di individuare il linguaggio discriminatorio e gli stereotipi fuorvianti di cui esso si serve.

Per testare il nostro algoritmo e aiutarci a metterlo a punto, ti chiederemo di identificare frasi che possono essere percepite come discriminatorie o non inclusive nei confronti di alcune categorie, come ad esempio il genere, l’orientamento sessuale, l’etnia o la religione.

Contribuirai così a indagare i semi dell’odio che si annidano nel linguaggio del web: un passo avanti verso un mondo digitale più rispettoso delle diversità.

Se sei pronta/o, clicca qui.