Home / Intelligenza Artificiale / Etica e intelligenza artificiale: cosa sapere
×
IA per tutti
×
icona-ricerca

Etica e intelligenza artificiale: cosa sapere

Scopri se il problema dell'intelligenza artificiale ed etica esiste davvero a partire dagli ultimi casi giudiziari sul tema.

di Antonio Dello Iaco

In questo articolo parliamo di intelligenza artificiale ed etica. La forte avanzata dei sistemi di automazione crea timori e perplessità tra i giuristi e gli esperti del settore.

Sono già diversi i casi che hanno visto sul banco degli imputati l’IA e i software che la programmano, condannati con l’accusa di essere sistemi “poco etici”.

Entra nella community Telegram e WhatsApp per ricevere news e approfondimenti sul mondo dell’intelligenza artificiale e chattare con altri appassionati.

Intelligenza artificiale ed etica: un vero problema moderno

Tutti i sistemi di intelligenza artificiale funzionano con un modello ben definito e pre programmato, che ha il compito di portare a termine l’obiettivo assegnato nel modo più performante possibile.

Quando l’ottenimento di risultati performanti può scavalcare l’etica delle decisioni intraprese? Di fatto, per essere più chiari, è come se l’IA seguisse il famoso detto de “il fine giustifica i mezzi”.

È ben noto a tutti però che, non sempre, le modalità di intervento utilizzate sono corrette. Anche se si tratta infatti di azioni che non sono contra legem, contrarie alla legge appunto, possono essere discutibili dal punto di vista etico e sociale.

L’etica nell’intelligenza artificiale: attenzione ai bias!

Come dicevamo, i sistemi di IA hanno come unico obiettivo il completamento degli incarichi assegnati. L’intelligenza artificiale, però, non segue gli stessi principi etici degli esseri umani e perciò può contravvenirli.

Si verificano così i cosiddetti bias, degli sbagli che influenzano il sistema sulla base di dati come il genere, l’entnia, la religione o il sesso degli utenti. Questi errori possono essere dovuti a:

L’esempio concreto: chi butto sotto?

Per comprendere al meglio i pericoli etici che si celano dietro l’intelligenza artificiale, facciamo un esempio paradossale ma concreto. Questo scenario è spesso riportato in ambito accademico giudiziario: un veicolo a guida automatica (gestita da un software) si trova in una situazione di pericolo.

La strada è molto frequentata e, qualsiasi scelta faccia, investirà un pedone. La macchina quindi può decidere solo da che lato frenare:

  1. se accosta bruscamente a destra investirà un anziano;
  2. se si sposta in velocità sulla sinistra investirà una donna incinta;
  3. se inchioda il veicolo restando in linea con il tragitto percorso fino a quel momento, investe un bambino.

Chi verrà investito? Probabilmente un software programmato con le nostre convenzioni etiche riterrà corretto scegliere la prima opzione: investirà la persona anziana poiché la nostra cultura infatti mette al primo posto le nuove generazioni.

Un sistema elaborato in Oriente invece, potrebbe escludere l’opzione “1”. Questo perché, in Paesi come la Cina o il Giappone, l’anzianità è sinonimo di sacralità e saggezza e va tutelata.

INTELLIGENZA ARTIFICIALE: COME PROVARLA – 5 SITI GRATIS

Ricevi contenuti extra e guarda le video-guide di iapertutti.it su YouTube, Facebook e Instagram.

Etica nell’intelligenza artificiale: il caso Compas

È possibile riassumere i problemi della mancanza di principi morali nell’intelligenza artificiale riportando il famoso caso Compas, una delle controversie giudiziarie più famose degli ultimi anni.

Siamo negli Stati Uniti ed è febbraio del 2013. Nello stato del Wisconsin un uomo, di nome Eric Loomis, viene fermato da un agente della Polizia mentre guida un’auto usata durante una sparatoria.

Viene così condannato a 6 anni di carcere. Il magistrato afferma di non aver utilizzato solo le prove raccolte dagli inquirenti per stabilire la pena. Il giudice americano ha usato anche i risultati del software Compas, un sistema di intelligenza artificiale capace di predire, sulla base di una serie di fattori, la pericolosità degli imputati.

L’obiettivo di Compas era fornire ai giudici statunitensi una statistica capace di prevedere il rischio che una persona commettesse di nuovo un reato dopo aver scontato la pena. Il suo funzionamento però era segreto e non poteva essere esaminato dalla difesa dell’imputato.

Loomis così decide di presentare ricorso. Il suo caso arriva fino alla Corte Suprema del Wisconsin. I giudici hanno affermato che l’algoritmo non ha influenzato il giudizio del magistrato di turno. La Corte, pur non dando ragione all’imputato, chiarisce che l’uso di Compas non può riguardare:

Compas discrimina gli afroamericani: l’inchiesta

È inutile sottolineare che il caso Compas ha alzato un grande polverore sul corretto funzionamento del sistema giudiziario americano. Nel 2016 è partita così l’inchiesta dell’organizzazione no-profit ProPublica.

Secondo il loro studio il software imputava alle persone nere una maggiore tendenza a ripetere il reato rispetto a quelle bianche.

All’interno dell’inchiesta vengono riportati una serie di casi concreti e oggettivi che provano questo “razzismo delle macchine“. Sono eclatanti, per esempio, i fatti riportati in queste grafiche:

Secondo quanto affermato da ProPublica, solo il 20% delle persone ritenute pericolose dal software, ha commesso di nuovo crimini violenti. La Northpointe, società creatrice dell’algoritmo, si è dissociata dai risultati dell’inchiesta, ma ProPublica ha continuato nella pubblicazione dei dati.

Stando al report dell’organizzazione, per il sistema Compas le persone di colore avrebbero avuto il 77% di possibilità in più di ripetere crimini violenti come omicidi, stupri e aggressioni. La disparità di trattamento ProPublica è riassunta in questa tabella:

In base ai risultati di CompasImputati bianchiImputati neri
Viene etichettato a rischio più elevato, ma in realtà in futuro non risulta recidivo23,5%44,9%
È etichettato a basso rischio, eppure si rivela recidivo in futuro47,7%28,0%
Dall’analisi di ProPublica emerge che “i neri hanno quasi il doppio delle probabilità rispetto ai bianchi di essere etichettati come soggetti a rischio più elevato ma di non recidivare effettivamente. Tra i bianchi si commette l’errore opposto: hanno molte più probabilità dei neri di essere etichettati a basso rischio ma continuano a commettere altri crimini”.

In conclusione, come avrai potuto notare leggendo il caso Compas, c’era un’oggettiva assenza di etica all’interno del funzionamento del software. I bias, errori che hanno riportato a questo pessimo risultati, non sono stati rilevati e corretti in tempo.

I risultati? L’applicazione di pene del tutto ingiustificate ai danni di cittadini afroamericani. Il caso Compas è un’altra situazione che permette di toccare con mano i tanti problemi etici dell’avvento dell’IA nella nostra quotidianità.

Invia i tuoi risultati e ricevi i prossimi contenuti sul gruppo Telegram o Whatsapp oppure scrivici a iaxtutti@gmail.com

Regolamentazione dell’IA: le linee guida Unesco e UE

Per fronteggiare ai tanti problemi della mancanza di eticità dell’intelligenza artificiale, le più grandi organizzazioni internazionali hanno provato a emettere dei provvedimenti per poi arrivare a delle regolamentazioni di carattere mondiale.

Le linee guida Unesco sull’IA

Nel 2021 L’Unesco (l’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura) ha pubblicato le “raccomandazioni d’uso etico dell’Intelligenza Artificiale“. L’obiettivo è che tutti i sistemi di IA adottino:

IA: le linee guida dell’Unione Europea

Tramite la Commissione Europea sono state pubblicate le Linee Guida etiche sull’intelligenza artificiale dell’UE. Questa regolamentazione si può riassumere in sette punti:

  1. i sistemi di IA devono essere sorvegliati da personale umano;
  2. sicurezza e una affidabilità degli algoritmi;
  3. controllo e gestione dei dati personali;
  4. necessità di garantire la tracciabilità dei sistemi impiegati;
  5. correttezza e assenza di discriminazione dei sistemi;
  6. va considerato l’impatto sull’ambiente e sull’assetto sociale dell’utilizzo dell’IA;
  7. responsabilità nella continua verifica dei sistemi impiegati.

Questo indirizzo legislativo si trova in piena sintonia con la forte attenzione che l’Unione Europea sta rivolgendo ai temi della digitalizzazione.

Con la pubblicazione del GDPR si è già provato a tutelare i dati personali degli utenti europei che usano il web. Ora l’obiettivo è quello di garantire una certa eticità ai sistemi di intelligenza artificiale.

Nonostante le regolamentazioni appena attuate, c’è ancora molto da fare per garantire un’eticità nell’uso dell’intelligenza artificiale. Il web, così come l’IA, gode dell’aterritorialità così che sia difficile individuare il sistema giuridico che, di volta in volta, dove dirimere i singoli casi.

FAQ sull’etica e l’intelligenza artificiale

Qual è l’importanza dell’etica nell’intelligenza artificiale?

I principi morali nell’intelligenza artificiale è cruciale per garantire che i sistemi IA agiscano in modo equo, rispettoso e moralmente accettabile.

Ciò implica considerare le implicazioni sociali, legali ed etiche dell’IA, come la privacy, la discriminazione e l’impatto sull’occupazione.

Come vengono affrontate le questioni etiche nell’ambito dell’intelligenza artificiale?

Le questioni etiche nell’IA sono affrontate attraverso la definizione di linee guida e principi etici, come quelli adottati di recente dall’Unesco o dall’Unione Europea.

Questi includono l’obbligo di trasparenza nell’addestramento degli algoritmi, la minimizzazione del bias e della discriminazione e il rispetto della privacy dei dati personali.

Come cambiano le armi e la guerra con l’intelligenza artificiale?

In questo articolo abbiamo spiegato come cambia il settore bellico con l’intelligenza artificiale.

Quali sono alcuni esempi di questioni etiche legate all’intelligenza artificiale?

Alcune questioni etiche comuni nell’IA includono la discriminazione algoritmica, la sorveglianza invasiva, la manipolazione dell’opinione pubblica attraverso algoritmi e l’automazione dei posti di lavoro.

Questi problemi richiedono una considerazione approfondita e una regolamentazione adeguata a tutti i livelli giuricidi.

Impara a scrivere prompt da zero e sblocca tutti i corsi, i podcast e le guide aggiuntive con la nostra community premium.

Cita questo articolo