Buone prassi
Con il progetto Hatetrackers vogliamo approfondire gli aspetti che più influiscono sulla diffusione dei discorsi di odio on line, sui pericoli legati all’uso delle tecnologie, le risposte a livello legislativo europee e italiane e tentiamo anche di far conoscere chi: persone, enti del terzo settore, gruppi informali e professionisti si attivano e operano come noi per diffondere il problema, denunciarlo, sperimentare soluzioni per arginarlo e che possono, quindi, ispirare all’azione altri giovani attivisti.
Particolarmente interessante in questo senso ci sembra l’attività di un gruppo di giovani professioniste: avvocate, esperte di tecnologia e di comunicazione che operano in Inghilterra contro l’uso antidemocratico della tecnologia e che hanno fondato nel 2019 lo studio FoxGlove, il cui nome, indicando il fiore che in latino è chiamato Digitalis Purpurea, gioca con il termine digitale e con le proprietà botaniche della pianta, curative e al tempo stesso tossiche, come il digitale e l’Artificial Intelligence, in particolare, che rappresentano una grande opportunità di sviluppo, ma che se usati male, diventano un pericolo https://www.foxglove.org.uk/
Nella loro azione sono partite dall’assunto che “tutto ciò che facciamo ora sui nostri telefoni o sui nostri computer – tutto ciò che guardiamo, clicchiamo o diciamo online – diventano “dati”. Le aziende e i governi condividono e sfruttano questi dati per il loro beneficio, non per il nostro. Li usano per tracciarci, ordinarci, classificarci, trarre profitto da noi e prendere decisioni sulle nostre vite” trattandoci come numeri e non come esseri umani che hanno diritti.
Il loro lavoro consiste, quindi, nel far si che a livello legale governi, aziende pubbliche e private non usino gli algoritmi per cancellare la libertà di scelta o per discriminare le persone in molti modi. Hanno, quindi, fornito assistenza legale non profit a Curtis Parfitt-Ford, uno studente che ha poi raccolto 250 mila firme contro l’utilizzo di un algoritmo studiato dall’agenzia governativa britannica Ofqual, a seguito della sospensione degli esami nella primavera 2020 causa Covid, che avrebbe dovuto valutare le performance degli studenti nel percorso scolastico delle superiori per poi decidere l’ammissione all’università. E’ stato dimostrato che l’algoritmo in questione privilegiava gli studenti che provenivano dalle scuole private a scapito degli altri: grazie all’opera di Foxglove unita alla pressione di tanti giovani attivisti, il governo britannico ha sospeso l’uso dell’algoritmo.
Un anno prima Foxglove, aveva lavorato con il Joint Council for the Welfare of Immigrants (JCWI), lanciando una sfida legale contro l’uso da parte dell’Home Office di un algoritmo per “snellire” le domande di visto che mancava di trasparenza nel funzionamento e che produceva decisioni discriminatorie contro i richiedenti di visti provenienti da paesi più poveri e principalmente non bianchi. Anche in questo caso il governo ha ceduto eliminando l’algoritmo e promettendo una revisione completa del sistema anche per questioni di “pregiudizi inconsci” e discriminazione.
L’operato legale di queste professioniste dimostra che esiste un problema democratico attorno all’uso di algoritmi e dell’intelligenza artificiale da parte dei governi ad esempio che influisce negativamente sulla vita dei cittadini e che, se opportunamente informate, le persone prendono coscienza del problema e si mobilitano.
A cura di Elisa Cionchetti