Da un po’ di tempo a questa parte nel mondo digitale si sente parlare di “contromisure” alla disinformazione. O addirittura di “guerra alle fake news”. Rientrano in questa categoria la metamorfosi di Google News, ma anche l’assunzione da parte di Facebook di alcune imprese esterne in vari Paesi incaricate di eseguire varie operazioni di fact-cheking.
Un po’ di contesto…
Per chi non lo sapesse il fact-cheking è un qualcosa che, in un universo digitale composto da persone civili, non dovrebbe essere necessaria.
Consiste, in parole semplici, nel verificare i fatti dietro alle notizie, così da poterne decretare la veridicità.
Se ci si limitasse a condividere notizie provenienti da testate giornalistiche vere e proprie (testate che continuano a tentare di produrre informazione e non semplici click) o da fonti attendibili, allora non esisterebbe la figura professionale del fact-cheker. Se tutti prendessero questa sana abitudine, il fact-cheking resterebbe, com’è sempre stato, totale responsabilità dei veri giornalisti.
Il problema nasce nel momento in cui tutti si credono giornalisti. O meglio ancora sociologi, psicologi, economisti, ingegneri e (quella che preferisco, reggetevi forte…) dottori.
C’è voluto qualche anno ed un intensificarsi esponenziale delle interazioni digitali, ma adesso le fake news sono diventate qualcosa di molto più pericoloso di quanto l’innocuo termine italiano “bufala” potrebbe far credere.
Questo perché a causa di determinate distorsioni che esistono nella comunicazione digitale le bufale non sono solamente difficili da identificare ed arginare per tempo, ma anche da far riconoscere come tali ad una fetta della popolazione. Le persone che vengono raggiunte da tali fake news, infatti, potrebbero continuare a preferirle alla realtà, ai fatti concreti ed ai dati, anche dopo che tali notizie siano ufficialmente riconosciute come false e smentite.
I motivi di questa scelta, conscia o inconscia che sia, restano curiosamente misteriosi e dovrebbero farci rimettere in discussione il nostro ruolo come specie dominante sul pianeta: nessun altro essere vivente potrebbe sopravvivere se fosse convinto che ciò che sia reale e ciò che non lo sia possa avere qualche cosa a che fare con il proprio individuale sistema di preferenze.
Esistono tutt’ora un quantitativo di bufale messe in circolo negli ultimi anni che continuano a riapparire ciclicamente su Facebook nella forma di commenti di utenti. Utenti ancora così convinti della veridicità di tali menzogne (fidatevi: è il termine più neutro che sono riuscito a trovare) da costruirci attorno il proprio credo politico o da scommetterci sopra la salute di proprio figlio.
E tu? Abbocchi alle bufale?
Sei uno 0 od un 1 ?
La novità in questa guerra alle fake news è un punteggio di attendibilità (un indice, a voler essere precisi) che gli algoritmi di Facebook attribuiranno agli utenti del loro social. Tale indice, che andrà da 0 ad 1, dovrebbe rappresentare la capacità dei singoli di distinguere il “vero” dal “falso”.
Chi sarà più incline a dar credito a determinate bufale si ritroverà con un punteggio più basso. Chi segnalerà contenuti di una pagina come “falsi” semplicemente perché non sono di suo gradimento o risultano in contraddizione con l’ecosistema di assurdità cui ha deciso di credere in precedenza, si ritroverà con un punteggio più basso.
Chi identificherà e segnalerà le fake news come tali ed eviterà di condividerle sull’onda di un qualche entusiasmo (a meno di non condividerle per smascherarle nella propria bacheca, ovviamente) avrà un valore più distante dallo zero e più vicino all’unità.
Non tutti sono contenti di tale strategia. In assoluto a nessuno piace sentirsi giudicato e valutato, specialmente da algoritmi di machine learning, soprattutto quando non si ha molto chiaro quali parametri saranno utilizzati per la formulazione di tale giudizio. Molte testate giornalistiche si sono espresse riguardo la “fumosità” e la “poca trasparenza” delle variabili che svolgerebbero un ruolo nella formazione dell’indice suddetto. Secondo il parere degli esperti, tuttavia, tra cui Claire Wardle, direttrice di un laboratorio di ricerca alla Harvard Kennedy School, questa scelta è inevitabile, poiché svelare i meccanismi dietro il calcolo di un indice come questo permetterebbe a determinati utenti di aggirarlo.
Una preoccupazione non da poco se si pensa all’utilizzo da parte della Russia di bot ed account troll per scatenare specifiche reazioni nella popolazione statunitense durante la campagna presidenziale del 2016 o, come solo più di recente è emerso, sul tema delle vaccinazioni.