I rischi degli algoritmi in ambito creditizio e assicurativo

I rischi degli algoritmi in ambito creditizio e assicurativo

Se non decidiamo di cambiare rotta, rischiamo di subire supinamente i sistemi di intelligenza artificiale e il dominio digitale. In campo creditizio e assicurativo, la valutazione si nutre anche delle tracce digitali che lasciamo quotidianamente: le carte fedeltà dei supermercati, i farmaci che acquistiamo, i film che vediamo, la musica che preferiamo, le emozioni espresse nelle piattaforme sociali forniscono elementi per i profili

Il Forum delle Disuguaglianze e Diversità e la Scuola Critica del Digitale, in un colloquio con Giulio De Petra (Direttore del Centro per la Riforma dello Stato), recentemente pubblicato, colgono i punti cruciali dei rischi che si corrono in ambito creditizio e assicurativo, oltre che nel mondo del lavoro, per ogni aspetto disseminato nelle piattaforme sociali e nella raccolta digitale delle abitudini quotidiane.

Un’occhiata ai prestiti. Il Direttore del Centro per la Riforma dello Stato invita a riflettere sui sistemi di intelligenza artificiale in ambito creditizio che «operano sulla base di correlazioni probabilistiche fra grandi quantità di dati personali raccolti» quando le persone richiedono un prestito (Forum DD, Per una tecnologia utile serve pensiero critico, 11 novembre 2019). Il rischio dei sistemi di valutazione digitale è lo sfumarsi del ruolo dei funzionari di banca incaricati a seguire la pratica e il divenire sempre più sfuggente dei criteri valutativi digitali. Così le referenze creditizie, formate dalla storia dei rapporti con banche e finanziarie, finiscono per assorbire le informazioni più disparate, sconosciute, insondabili, che finiscono per influenzare i parametri di affidabilità delle persone in ambito creditizio.

A proposito di assicurazioni sulla salute. Ancora più fosco e ingiusto il quadro della pervasività dei sistemi di intelligenza artificiale in ambito assicurativo, dove lo scavo nei profili personali arriva fino ai farmaci acquistati e addirittura ai siti web sulla salute visitati, oltre che a molteplici perlustrazioni informatiche incrociate nei dati.

L’orizzonte di giustizia sociale. Il Forum delle Disuguaglianze e Diversità, tra le sue 15 proposte per la giustizia sociale, ha inserito la proposta 7 per “Costruire una sovranità collettiva sugli algoritmi di apprendimento automatico e sui dati personali”. Si tratta di riconsiderare il Regolamento Generale per la Protezione dei Dati (RGDP 679/2016), in vigore nell’Unione Europea da maggio 2018, ma soprattutto di valorizzare le tecnologie per le persone, che non devono essere strumentalizzate dai monopolisti digitali, per i profitti dei giganti del Capitalismo globale. Il Forum Disuguaglianze e Diversità e la rete Scuola Critica del Digitale lavorano insieme per sviluppare la proposta 7, nello spirito di sensibilizzazione e creazione di consapevolezza con riferimento a temi che non devono restare nelle stanze degli addetti ai lavori.

Francesca Melania Monizzi  

Approfondimenti

Forum Disuguaglianze e Diversità, Proposta 7. Costruire una sovranità collettiva sui dati personali e algoritmi:

https://www.forumdisuguaglianzediversita.org/proposte-per-la-giustizia-sociale/proposta-n-7/ 

Forum DD, Per una tecnologia utile serve pensiero critico, 11 novembre 2019:

https://www.forumdisuguaglianzediversita.org/per-una-tecnologia-utile-serve-pensiero-critico/

Forum DD, Un piano d’azione in quattro mosse per indirizzare la trasformazione digitale alla giustizia sociale, 11 novembre 2019:

https://www.forumdisuguaglianzediversita.org/un-piano-di-azione-in-quattro-mosse-per-indirizzare-la-trasformazione-digitale-alla-giustizia-sociale/