CERVELLI ARTIFICIALI

L’intelligenza artificiale per combattere il crimine

L'informatica forense è un ambito in crescita. Obiettivo: affiancare l'essere umano nelle indagini valutando i vari scenari possibili e permettendo di risparmiare tempo e denaro.

Gli appassionati di fantascienza ricorderanno i Precog di Minority Report, individui in grado di capire chi compierà un crimine prima che questo avvenga effettivamente, permettendo alla polizia di arrestare i colpevoli.

Oggi gli investigatori hanno a disposizione strumenti meno scenografici, ma altrettanto utili, anche se, proprio come nel film, bisogna fare i conti con le conseguenze etiche che questi comportano. Nella realtà però, a differenza che nella finzione, l’essere umano continua ad avere un ruolo centrale. “Nonostante oggi si usino in modo massiccio i software, molto dipende ancora dall’esperienza e dall’intuizione degli investigatori”, osserva Francesca Alessandra Lisi, professoressa associata al Dipartimento di Informatica dell’Università di Bari.

Lisi è da poco tornata dal Forensics Europe Expo 2021, una tre giorni di exhibit e conferenze nel settore forense. Tra gli speaker anche diversi membri del progetto europeo “DigForASP” (di cui Lisi è Science Communication Manager) che punta a costruire comunità e cooperazione tra individui di vari Paesi. Si tratta di una delle iniziative del programma COST di cooperazione scientifica e tecnologica finanziato appunto dall’Unione Europea.

L’intento è far dialogare professionisti diversi (principalmente ricercatori in Intelligenza Artificiale e professionisti in informatica forense, ma anche umanisti e avvocati) cercando di capire come applicare le tecnologie (e in particolare l’intelligenza artificiale) alle indagini.

“Chiaramente non vogliamo soppiantare gli essere umani, ma fornire un supporto per quei casi che restano aperti anni per problemi legati per esempio all’analisi dell’enorme quantità di dati prodotti”, afferma l’esperta.

Una scena del crimine, infatti, contiene una quantità di input che vanno analizzati meticolosamente. “L’intelligenza artificiale potrebbe aiutare a valutare e validare scenari possibili, in modo da velocizzare le fasi di analisi – osserva Lisi – Sebbene oggi per molti non addetti ai lavori parlare di intelligenza artificiale significa parlare di machine learning, cioè di apprendimento automatico, questo non è che uno degli ambiti dell’Ai”.

Il riconoscimento facciale

Il machine learning è infatti una tecnologia che impara “mangiandosi” moltissimi dati e riuscendo poi a effettuare un riconoscimento. Tuttavia, al momento risente ancora dei cosiddetti bias, cioè può essere viziata da stereotipi e pregiudizi. “È il caso per esempio del riconoscimento facciale – esemplifica Lisi –, dove un algoritmo è in grado di riconoscere un viso. Se, come è successo, i dati di allenamento riguardano soprattutto maschi bianchi, la macchina sarà molto precisa nel loro riconoscimento, mentre lo sarà meno per le donne e i tratti somatici non caucasici”.

Il machine learning è una tecnologia molto potente, ma, affinché sia affidabile anche in tribunale, deve riuscire a garantire l’esplicabilità e la trasparenza: “Le prove, per essere tali in sede dibattimentale, devono essere corredate da una spiegazione che permetta di inserirle in un contesto e di capire come si è giunti a una determinata conclusione. Se la tecnologia non lo permette, vanno considerate nulle”. Ad oggi, questo tipo di tecnica è ancora molto opaca e non sempre garantisce il diritto alla spiegazione e all’equo trattamento.

I test di consistenza

“Quello che cerchiamo di fare con il nostro progetto europeo è propedeutico agli aspetti più tecnici – spiega Lisi – L’intento principale è quello di favorire la multidisciplinarietà che, soprattutto in Italia, è ancora difficile da attuare. Si tratta di un percorso faticoso ma necessario perché mette in comunicazione mondi che spesso viaggiano su binari paralleli e quindi crea il terreno fertile per poi ragionare sugli aspetti più tecnici”.

L’obiettivo a lungo termine di questa rete è l’aumento della conoscenza e lo sviluppo di progetti concreti che i Dipartimenti investigativi e la Polizia scientifica potranno applicare nella pratica per la risoluzione di casi reali. L’intenzione è anche quella di uniformare alcune procedure. Per esempio, nell’ambito della criminalità informatica la raccomandazione della Commissione europea è proprio quella di garantire, a livello nazionale, standard comuni tra polizia, giudici, pubblici ministeri e investigatori forensi per indagare e perseguire i reati perpetuati online.

DigForASP” è iniziato nel 2018 e terminerà nell’autunno del 2022: “È molto stimolante proprio perché è raro riuscire a interfacciarsi con mondi lontani da quelli cui siamo abituati. Va detto, poi, che progetti del genere attraggono persone che sono abbastanza aperte al confronto multidisciplinare”.

Proprio da questi scambi di vedute si è capito il potenziale dell’applicazione in ambito forense di tecniche di intelligenza artificiale in grado di lavorare con dati incompleti, nell’incertezza e trattando istanti di tempo diversi. “Si parla di test di consistenza e serve per capire se un’ipotesi può funzionare o meno – esemplifica Lisi – Questo permetterebbe un notevole risparmio di tempo e di denaro, proprio perché amplifica le capacità umane e non si sostituisce ad esse”.


Leggi anche: Sei sicuro di non avere nulla da nascondere online?

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Condividi su
Michela Perrone
Appassionata di montagna e di tecnologia, scrivo soprattutto di medicina e salute. Curiosa dalla nascita, giornalista dal 2010, amo raccontare la realtà che mi circonda con articoli, video e foto. Freelance dentro e fuori, ho una laurea in Comunicazione e un master in Comunicazione della Scienza.