L’algoritmo che predice il tuo reato (e intanto vai in galera?)

Pensa che sei finito in galera anche se non hai fatto niente. Perché lo ha deciso non un tribunale, per quanto kafkiano, ma l’Intelligenza Artificiale, quella tanto di moda oggi. Ovvero un algoritmo. Che sulla base (anche, ma non solo) del tuo comportamento passato notifica alle forze dell’ordine che c’è un altissima probabilità che tu commenta un certo crimine (omicidio? Rapina? Evasione fiscale?). Che , insomma, anche se non l’hai commesso è praticamente sicuro che prima o poi lo compirai. E tanto vale aprire già la porta del carcere. Non è la trama di un romanzo, di un film distopico-fantascientifico, né di una serie tv. Tipo Black Mirror. All’avanguardia in questa pratica, dicono,  è la Cina, che adotta questa soluzione AI soprattutto in certe regioni, le più turbolente dal punto di vista politico o sociale. Ma l’algoritmo inquirente si avvicina sempre di più al nostro mondo. Ed è sempre più sfida , a tutti i livelli, tra bot e umani.

Algoritmo e reati, cosa scrive il New Scientist

Secondo un recente articolo del New Scientist, la polizia della civile Gran Bretagnavuole riuscire a prevedere i crimini utilizzando l’intelligenza artificiale. Le persone identificate dagli algoritmi come a rischio di compiere reati, in questo caso (o per il momento) non verrebbero sbattute in carcere ma gli verrebbe offerta “assistenza” per far loro cambiare attitudine. Il sistema si chiama NDAS (National Data Analytics Solution) e usa una combinazione di intelligenza artificiale e statistica per produrre i suoi risultati. A guidare il progetto è la West Midland Police, che produrrà un prototipo del sistema entro il marzo 2019, e sarà seguita da altre 8 forze di polizia britanniche, compresa la London Metropolitan Police. Il capo progetto è un certo Iain Donnelly. Del resto, la sfida è globale. Lo stesso Vladimir Putin aveva detto che chi dominerà l’Intelligenza artificiale dominerà il mondo.

Algoritmo e crimini, i rilievi dell’Alan Turing Institute

Intanto lui, Donnelly, ha spiegato che l’obiettivo del NDAS non è l’arresto ma l’avvicinamento del soggetto da parte, ad esempio, di assistenti sociali, in maniera che possa cambiare, per così dire, il suo destino. Ovviamente, il progetto non ha mancato di sollevare forti critiche. In particolare, l’Alan Turing Institute di Londra, in un rapporto, ha richiamato i “seri problemi etici” sollevati dalla pratica. Il primo fra tutti: la possibilità di un errore di previsione. Gettare lo stigma su qualcuno che non commetterebbe mai il delitto per cui verrebbe preventivamente, di fatto, accusato.

Algoritmo e reati, chi scrive si autodenuncia

Oppure il “tool”, ha spiegato dal canto suo il ricercatore universitario Andrew Fergusonpotrebbe avere delle “distorsioni di giudizio”, su base etnica o sociale (leggi che i neri e i poveri, per esempio, potrebbero essere targhettizzati più facilmente (e incorrettamente). Mentre Martin Innes, un altro ricercatore, ha spiegato – sempre al New Scientist – di essere molto “scettico” rispetto alle reali capacità predittive del sistema, e ne considera un utilizzo positivo soltanto nell’identificare le comunità a rischio, senza targhettizzazione individuale. Il programma è quasi pronto, i dubbi etici ci sono tutti. Speriamo bene. Chi scrive si autodenuncia: “Una volta ho rubato la penna del mio vicino di scrivania. Giuro, algoritmo, che non lo farò più”.

Fonte Virgilio news