News giuridiche

Facebook: la sua lotta al terrorismo online

Il caso sottoposto a giudizio della Cassazione e giudicato con sentenza n. 55418/2017 è solo l’ultimo che sobbolle nel triste calderone del sodalizio social network/terrorismo.
Il concetto di ‘community’, infatti, oltre a costituire la fortuna delle piattaforme social è anche il punto di forza su cui un’organizzazione terroristica può fare leva per 1) trovare e arruolare nuovi fedele e 2) diffondere contenuti contenenti propaganda.
Se da un lato le regole contro la pedo-pornografia sono molto strette (a volte capita che vengano censurati contenuti inoffensivi) e hanno sempre funzionato quando si è trattato di rimuovere i contenuti incriminati, non si è sempre potuto dire lo stesso per quanto riguarda il terrorismo. Facebook stessa si è vista accusare di fare poco in merito, nonostante il costante impegno per migliorare e rendere più cristalline le norme in tema di privacy e rimozione dei contenuti ritenuti offensivi, volgari o, come in questo caso, pericolosi.
È ormai assodato che le pratiche concernenti l’arruolamento avvengono perlopiù offline, ma è sulla Rete che trova spazio la propaganda grazie anche alla facilità di condivisione.
Per questo motivo, la nota diffusa da Monica Bircket (Facebook Director of Global Policy Management) e Brian Fishman (Facebook Counterterrorism Policy Manager) cerca di fare un po’ di chiarezza sulle modalità adottate per proteggere gli utenti dai pericoli nascosti da certe tipologie di profili, pagine e contenuti.
Si spiega che gli sforzi degli amministratori sono stati rivolti sui gruppi principali, come possono essere ISIS e Al Qaida, e che buona parte del controllo odierno si svolge attraverso l’utilizzo di intelligenza artificiale così da riuscire a bloccare preventivamente video, fotografie e testi incriminati ancora prima che questi possano essere condivisi (o giusto poco dopo la condivisione). Per i video e le foto l’analisi può partire in fase di caricamento o poco dopo la loro elaborazione, confrontandoli con contenuti simili e che hanno già ricevuto una segnalazione, così da bloccarne lo streaming; per i testi avviene più o meno la stessa cosa, partendo sempre da interpretazione e confronto come metodologia principale di lavoro.
L’azione di prevenzione riguarda anche pagine e profili sospetti, per i quali Facebook prevede controlli continui a partire anche dalla community degli amici o dei fan. In questo modo, incrociando le informazioni provenienti anche da altre applicazioni (Instagram e Whatsapp in primis), l’intelligenza artificiale preposta può avere un quadro più completo e procedere alla segnalazione o al blocco. E la cosa non finisce qui: in questo modo si possono prevenire le iscrizioni di chi è stato cancellato e prova a effettuare nuovi accessi tramite account fake.
L’intelligenza artificiale, però, non è tutto. Può capitare che molti contenuti possano essere associati alla propaganda terroristica anche solo per un’immagine utilizzata (si pensi all’articolo di un giornale) ma non essere per questo parte del fenomeno. In questo caso, nella può battere l’intervento umano.
La nota ci tiene a specificare che all’interno di Facebook lavora un team di 150 persone specializzato in terrorismo e suo linguaggio. Un team che parla 30 lingue e che ogni giorno affianca i 3mila impiegati addetti alla revisione delle segnalazioni ricevute.
Un sistema che, si ammette, non è perfetto e che già in passato ha dimostrato le sue lacune, ma grazie al quale si è cominciato a collaborare con attori come Twitter, Youtube e Microsoft.
In conclusione, anche il mondo social si è dato da fare nella lotta al terrorismo. Facebook, a hard place to live, possiamo dirlo?
 
 

Fonte: Il Post
Rimani sempre aggiornato sui nostri articoli e prodotti
Mostra altro

emanuelesecco

Dottore in Editoria e Giornalismo. Appassionato di scrittura, editoria (elettronica e digitale), social media, musica, cinema e libri. Viaggio il più possibile, ma Budapest è sempre nel cuore.

Articoli correlati

Lascia un commento

Back to top button