Sponsor
|
LAVORO - EFFETTI IA/LAVORO - OCSE: INTERVENTI PUBBLICI "URGENTI" REGOLAMENTARE IA SU LAVORO E DIRITTI LAVORATORI, DEFINIZIONI STANDARD, APPLICAZIONE LINEE GUIDA PROTEZIONE DATI...ESSENZIALE COOPERAZIONE INTERNAZIONALE
(2023-09-07)
"D’altro canto, sono necessari interventi pubblici urgenti per affrontare i rischi che l’IA può comportare se utilizzata sul posto di lavoro – in termini di privacy, sicurezza, equità e diritti dei lavoratori – e per garantire responsabilità, trasparenza e spiegabilità delle decisioni occupazionali che si basano su AI." afferma Stefano Scarpetta, Direttore della Direzione dell'occupazione, lavoro e degli affari sociali dell'OCSE, segnalando le linee guida e le misure necessarie a "governare " lo sviluppo dell'Intelligenza Artificiale Generativa.
"I governi, le organizzazioni internazionali e le autorità di regolamentazione devono definire un quadro per l’uso dell’intelligenza artificiale sul posto di lavoro. Ciò include la definizione di standard, l’applicazione di normative o linee guida appropriate e la promozione di un monitoraggio adeguato di queste nuove tecnologie. L’OCSE ha svolto un ruolo pionieristico in questo ambito sviluppando i Principi OCSE per un approccio responsabile al sostegno dell’intelligenza artificiale affidabile, che sono stati adottati nel maggio 2019 dai paesi membri dell’OCSE (e hanno ispirato i principi del G20 sull’intelligenza artificiale), poi da Argentina, Brasile, Egitto , Malta, Perù, Romania, Singapore e Ucraina.
Molti paesi dispongono già di normative pertinenti per far rispettare alcuni dei principi fondamentali di un uso affidabile dell’IA nelle imprese. La legislazione esistente, in particolare sulla protezione dei dati, prevede disposizioni che possono applicarsi all’IA. Tuttavia, negli ultimi anni, uno sviluppo importante è stata la proposta di quadri normativi specifici per la tecnologia che affrontano i sistemi ad alto rischio o gli impatti dell’IA, sebbene l’approccio vari in modo significativo da un paese all’altro.
L’utilizzo dei sistemi di IA in ambito professionale deve avvenire nel rispetto della normativa antidiscriminatoria, delle norme in materia di sicurezza e salute sul lavoro e di tutela della privacy dei lavoratori, e delle disposizioni relative alla libertà di associazione. Pertanto, tutti i paesi membri dell’OCSE hanno adottato leggi volte a proteggere i dati e la privacy. In Germania, Francia e Italia, ad esempio, è necessario concludere un accordo preventivo con i rappresentanti dei lavoratori sulla sorveglianza dei dipendenti che utilizzano le tecnologie digitali; Inoltre, esistono normative che impongono ai datori di lavoro di informare i dipendenti sulle politiche di monitoraggio elettronico. In alcuni paesi, come l’Italia, la legislazione antidiscriminatoria è stata applicata con successo nei procedimenti legali relativi all’uso dell’IA sul lavoro. Tuttavia, le disposizioni normative che non sono state sviluppate specificatamente per l’IA dovranno probabilmente essere adattate.
L’uso dell’intelligenza artificiale per supportare le decisioni che influiscono sulle opportunità e sui diritti dei lavoratori dovrebbe essere accompagnato anche da informazioni accessibili e comprensibili e da responsabilità chiaramente definite. L’ambizione di raggiungere responsabilità, trasparenza e spiegabilità incoraggia l’adozione di misure specifiche per l’IA che hanno implicazioni dirette per i suoi usi sul posto di lavoro.
Un esempio notevole è la proposta di legge dell’UE sull’IA, che adotta un approccio basato sul rischio per garantire che i sistemi di IA siano supervisionati da persone, sicuri, trasparenti, tracciabili e non discriminatori. Negli Stati Uniti, nell’ottobre 2022, l’Office of Science and Technology Policy della Casa Bianca ha pubblicato un documento intitolato Blueprint for an AI Bill of Rights, che stabilisce una tabella di marcia per l’uso responsabile dell’IA. Nel giugno 2022, il Canada ha presentato al Parlamento l’Artificial Intelligence and Data Act (AIDA), che richiede “spiegazioni in linguaggio semplice” di come i sistemi di intelligenza artificiale ottengono i loro risultati. Molti paesi, organizzazioni e aziende stanno inoltre sviluppando strutture, linee guida, standard tecnici e codici di condotta per un’IA affidabile.
Quando si tratta di utilizzare l’intelligenza artificiale per prendere decisioni che influiscono sulle opportunità e sui diritti dei lavoratori, i politici stanno già prendendo in considerazione alcune strade: adattare la legislazione sul posto di lavoro all’uso dell’intelligenza artificiale; incoraggiare l’uso di solidi strumenti di audit e certificazione; utilizzare un approccio che metta gli esseri umani nel circuito; sviluppare meccanismi per spiegare in modo comprensibile la logica alla base delle decisioni prese dall’IA.
Molti esperti sono generalmente preoccupati che il ritmo della risposta politica non stia tenendo il passo con la rapidissima evoluzione dell’intelligenza artificiale generativa e che la risposta politica manchi ancora di specificità e applicabilità.
In effetti, sono stati lanciati molti appelli all’azione nel campo dell’intelligenza artificiale generativa. L’Unione Europea ha annunciato l’intenzione di introdurre un codice di condotta volontario sull’IA, che dovrebbe essere adottato rapidamente.
La dichiarazione congiunta del Consiglio per il commercio e la tecnologia USA-UE del maggio 2023 ha concordato di porre particolare enfasi sull’intelligenza artificiale generativa come parte del lavoro sulla tabella di marcia degli strumenti di valutazione e misurazione per un’intelligenza artificiale affidabile e la gestione del rischio, e il primo ministro britannico ha annunciato tardi un vertice sulla sicurezza dell’intelligenza artificiale. 2023. La regolamentazione dell’IA solleva anche preoccupazioni per nuove sfide riguardanti la loro interoperabilità internazionale, che richiedono un’azione internazionale per promuovere l’allineamento delle definizioni chiave e la loro implementazione tecnica, ove applicabile.
Molti di questi appelli vengono affrontati nell’ambito del “processo AI Hiroshima” lanciato dai leader del G7 nel maggio 2023 con l’obiettivo di allineare i paesi (compresa l’UE) su un approccio concordato all’IA. L’OCSE è stata invitata a sostenere questo processo in corso.
Questa azione deve essere rapidamente integrata da piani di attuazione concreti, realizzabili e applicabili per garantire che l’IA sia affidabile. La cooperazione internazionale su questi temi sarà essenziale per garantire un approccio comune che eviti una frammentazione degli sforzi che danneggerebbe inutilmente l’innovazione e creerebbe un divario normativo che potrebbe portare a una corsa al ribasso." conclude il Direttore della Direzione dell'occupazione, lavoro e degli affari sociali dell'OCSE, Stefano Scarpetta. (07/09/2023-ITL/ITNET)
|
Altri prodotti editoriali
Contatti
|