Stati Uniti e Cina annunciano regolamenti per l'IA responsabile

Con una mossa inaspettata, sia gli Stati Uniti che la Cina hanno annunciato nuove normative relative allo sviluppo e alla diffusione dell'intelligenza artificiale (IA). Nonostante siano feroci rivali nel commercio tecnologico, entrambi i paesi condividono una preoccupazione comune per la responsabilità e il potenziale abuso dell'IA.

Martedì, la National Telecommunications and Information Administration (NTIA), una filiale del Dipartimento del Commercio degli Stati Uniti, ha emesso una richiesta pubblica formale di input su quali politiche dovrebbero plasmare un ecosistema di responsabilità dell'IA. La richiesta include domande sull'accesso ai dati, sulla misurazione della responsabilità e su come gli approcci all'IA potrebbero cambiare in diversi settori industriali come l'occupazione o l'assistenza sanitaria.

Nel frattempo, la China's Cyberspace Administration (CAC) ha pubblicato una bozza di una serie di regolamenti per l'IA, che copre argomenti come la convalida dei dati, la prevenzione della discriminazione e le valutazioni della sicurezza. Le aziende che sviluppano strumenti di intelligenza artificiale dovranno presentare valutazioni di sicurezza al governo prima di renderle disponibili al pubblico. Se vengono prodotti contenuti inappropriati dalle loro piattaforme, le aziende devono aggiornare la loro tecnologia entro tre mesi per evitare di riprodurre contenuti simili o affrontare multe, sospensioni o indagini penali.

In particolare, il CAC ha anche affermato che qualsiasi contenuto prodotto dagli strumenti di intelligenza artificiale deve essere in linea con i valori socialisti fondamentali del paese. Questo annuncio è arrivato lo stesso giorno in cui Alibaba Cloud ha rivelato un nuovo modello linguistico chiamato Tongyi Qianwen, che prevede di rendere disponibile come frontend in stile ChatGPT per tutte le applicazioni aziendali. Il mese scorso, i servizi Internet cinesi e il gigante dell'intelligenza artificiale Baidu hanno annunciato la propria alternativa a ChatGPT, Ernie bot.

Poiché l'uso dell'intelligenza artificiale continua a crescere in tutti i settori, queste normative possono avere un impatto significativo sullo sviluppo e sull'implementazione degli strumenti di intelligenza artificiale. Sia gli Stati Uniti che la Cina stanno adottando misure per garantire che l'intelligenza artificiale sia sviluppata e utilizzata in modo responsabile e responsabile, con particolare attenzione alla prevenzione di potenziali abusi e discriminazioni. Resta da vedere come questi regolamenti saranno implementati e applicati e se costituiranno un precedente da seguire per altri paesi.

annunciare regolamenti per l'IA responsabile
Stati Uniti e Cina annunciano regolamenti per l'IA responsabile


Regolamentazione e innovazione dell'IA

Mentre l'intelligenza artificiale (AI) continua a crescere ed evolversi, i governi di tutto il mondo sono alle prese con la questione di come regolamentare questa potente tecnologia. Mentre alcuni governi hanno preso una posizione chiara sulla regolamentazione dell'IA, altri hanno optato per un approccio più diretto.

Il mese scorso, il governo del Regno Unito ha annunciato che non delegherà la responsabilità della governance dell'IA a un nuovo regolatore unico, citando il desiderio di evitare una legislazione dura che potrebbe ostacolare l'innovazione. Invece, il governo ha esortato le autorità di regolamentazione esistenti a emanare le proprie leggi, adattate alle esigenze specifiche del loro settore.

Tuttavia, questo approccio è stato accolto con critiche da esperti del settore che sostengono che i quadri esistenti potrebbero non essere attrezzati per regolamentare la natura complessa e multilivello di alcuni strumenti di intelligenza artificiale. Di conseguenza, il consolidamento tra diversi regimi normativi può diventare inevitabile.

Nel frattempo, le autorità di regolamentazione dei dati nel Regno Unito e in Italia hanno emesso avvertimenti alle aziende tecnologiche in merito alla protezione delle informazioni personali durante lo sviluppo e l'implementazione di modelli di intelligenza artificiale produttivi in un linguaggio ampio. Il regolatore italiano della privacy dei dati ha persino vietato l'uso di ChatGPT a causa di presunte violazioni della privacy.

Inoltre, un gruppo di 1.100 leader tecnologici e scienziati ha chiesto una pausa di sei mesi dallo sviluppo di sistemi più potenti del GPT-4 appena rilasciato da OpenAI. Questa mossa riflette una crescente preoccupazione per il potenziale uso improprio dell'IA e la necessità di stabilire tecnologie di uso responsabile.

Secondo l'analista di Gartner Frank Buytendijk, governi e legislatori tendono a seguire un certo percorso naturale quando si tratta di innovazione tecnologica e regolamentazione. Inizialmente, vengono commessi errori man mano che la tecnologia viene utilizzata e sviluppata. Quindi, inizia a emergere la regolamentazione, che consente l'interpretazione della legge e della giurisprudenza per informare un uso responsabile. Infine, vengono stabilite tecnologie di uso responsabile.

Mentre l'IA continua a svilupparsi e plasmare il mondo che ci circonda, trovare il giusto equilibrio tra innovazione e regolamentazione sarà la chiave per sbloccare il suo pieno potenziale garantendone al tempo stesso un uso responsabile ed etico.

 

 

Posta un commento

0Commenti
Posta un commento (0)

#buttons=(Accept !) #days=(20)

Il nostro sito Web utilizza i cookie per migliorare la tua esperienza. Ulteriori informazioni
Accept !