Home / AI News / “Con questa AI rischio di estinzione”: la lettera tradotta dei dipendenti di OpenAI e Google
×
IA per tutti
×
icona-ricerca

“Con questa AI rischio di estinzione”: la lettera tradotta dei dipendenti di OpenAI e Google

Dipendenti di OpenAI (ChatGPT) e Google denunciano la pericolosità dell'AI a causa di pratiche aziendali orientate al profitto a discapito della sicurezza.

di iapertutti.it

Più di dodici persone, fra ex e attuali dipendenti di OpenAI (azienda che ha sviluppato ChatGPT) e Google DeepMind (laboratorio di ricerca di Google dedicato all’intelligenza artificiale), hanno firmato una lettera nella quale denunciano il “rischio potenziale di estinzione dell’umanità” in caso di perdita di controllo sull’intelligenza artificiale da parte degli esseri umani.

Inoltre invocano l’istituzione di procedure di tutela per i dipendenti che esprimono le proprie preoccupazioni per pratiche aziendali che ritengono contrarie allo sviluppo di un’intelligenza artificiale che garantisca la sicurezza della società.

Si pone l’accento sulla necessità di creare un filo diretto con istituzioni governative ed estranee alle aziende, per garantire una supervisione efficace dello sviluppo di una tecnologia che, secondo le stesse società sviluppatrici, può comportare gravi rischi legati alla sicurezza, alla disinformazione e alla manipolazione di dati sensibili, esacerbando le disuguaglianze esistenti.

Di seguito riportiamo il testo tradotto della lettera originale pubblicata su righttowarn.ai in lingua inglese (sul sito originale trovi i firmatari e le dichiarazioni rilasciate dalle aziende sulla pericolosità dell’AI)

Video analisi della lettera e approfondimento con l’inchiesta di Vox.com sulle email intercorse fra OpenAI e i dipendenti che si sono allontanati in polemica con l’azienda

La lettera tradotta

Siamo attuali e ex dipendenti di aziende di intelligenza artificiale all’avanguardia e crediamo nel potenziale della tecnologia AI di offrire benefici senza precedenti all’umanità.

Comprendiamo anche i gravi rischi posti da queste tecnologie. Questi rischi vanno dall’ulteriore radicamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, alla perdita di controllo dei sistemi autonomi di intelligenza artificiale che potenzialmente potrebbero portare all’estinzione umana.

Le stesse aziende di intelligenza artificiale hanno riconosciuto questi rischi, così come i governi di tutto il mondo e altri esperti di intelligenza artificiale.

Siamo fiduciosi che questi rischi possano essere adeguatamente mitigati con sufficiente guida dalla comunità scientifica, dai responsabili delle politiche e dal pubblico. Tuttavia, le aziende di intelligenza artificiale hanno forti incentivi finanziari per evitare un’efficace supervisione, e non crediamo che strutture su misura di governance aziendale siano sufficienti a cambiare questa situazione.

Le aziende di intelligenza artificiale possiedono informazioni non pubbliche sostanziali sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno solo deboli obblighi di condividere alcune di queste informazioni con i governi e nessuno con la società civile.

Non pensiamo che tutti possano essere affidabili nel condividerle volontariamente. Finché non ci sarà una sorveglianza governativa efficace di queste aziende, i dipendenti attuali ed ex sono tra le poche persone che possono renderli responsabili nei confronti del pubblico.

Tuttavia, ampi accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, tranne che alle stesse aziende che potrebbero non riuscire ad affrontare questi problemi.

Le normali protezioni per gli informatori (si fa riferimento a dipendenti che si impegnano a manifestare le loro preoccupazioni sulle pratiche aziendali ritenute pericolose ndr) sono insufficienti perché si concentrano sull’attività illegale, mentre molti dei rischi che ci preoccupano non sono ancora regolamentati.

Alcuni di noi temono ragionevolmente varie forme di rappresaglia, date le precedenti esperienze in tutta l’industria.

Non siamo i primi ad affrontare o parlare di questi problemi. Chiediamo quindi alle aziende di intelligenza artificiale avanzata di impegnarsi in questi principi:

  1. Che l’azienda non si accorderà o farà rispettare alcun accordo che vieti “diffamazione” o critiche all’azienda per preoccupazioni relative al rischio, né reagirà alle critiche relative al rischio ostacolando alcun beneficio economico acquisito;
  2. Che l’azienda faciliterà un processo verificabilmente anonimo per consentire ai dipendenti attuali ed ex di sollevare preoccupazioni relative al rischio nei confronti del consiglio di amministrazione dell’azienda, dei regolatori e di un’organizzazione indipendente appropriata con competenze rilevanti;
  3. Che l’azienda sosterrà una cultura di critica aperta e consentirà ai dipendenti attuali ed ex di sollevare preoccupazioni relative al rischio sulle proprie tecnologie al pubblico, al consiglio di amministrazione dell’azienda, ai regolatori o a un’organizzazione indipendente appropriata con competenze rilevanti, purché i segreti commerciali e altri interessi di proprietà intellettuale siano adeguatamente protetti;
  4. Che l’azienda non reagirà contro i dipendenti attuali ed ex che condividono pubblicamente informazioni confidenziali relative al rischio dopo che altri processi hanno fallito. Accettiamo che ogni sforzo volto a segnalare preoccupazioni relative al rischio debba evitare di rilasciare informazioni confidenziali inutilmente.

Pertanto, una volta che esiste un processo adeguato per sollevare anonimamente preoccupazioni al consiglio di amministrazione dell’azienda, ai regolatori e a un’organizzazione indipendente appropriata con competenze rilevanti, accettiamo che le preoccupazioni debbano essere sollevate tramite tale processo inizialmente.

Tuttavia, fintanto che tale processo non esiste, i dipendenti attuali ed ex dovrebbero mantenere la libertà di segnalare le loro preoccupazioni al pubblico.

Aggiungiti alla community di iapertutti.it

Entra nella community TelegramWhatsApp e iscriviti alla newsletter settimanale per ricevere news e approfondimenti sul mondo dell’intelligenza artificiale e chattare con altri appassionati.

Cita questo articolo