"Valori fondamentali": uno sguardo ai regolamenti cinesi sull'IA

Alibaba, il colosso tecnologico cinese, ha lanciato il proprio software di linguaggio AI, "Tongyi Qianwen", in competizione con ChatGPT di OpenAI. Tuttavia, la gioia degli sviluppatori è stata di breve durata poiché il governo cinese ha rilasciato una bozza di regolamenti AI per il settore. La "Cyberspace Administration of China" ha delineato 21 possibili requisiti per gli sviluppatori di modelli di linguaggio AI, tra cui garantire che il contenuto rifletta i "valori fondamentali del socialismo" e impedire la diffusione di informazioni che potrebbero interrompere l'ordine economico e sociale.

(toc) #title=(Sommario)
 

Uno sguardo ai regolamenti cinesi sull'IA

 

Questi regolamenti sollevano interrogativi sulla necessità di regole per governare l'IA e quante sono troppe. Mentre la Cina sta adottando misure per regolamentare il settore, anche i governi occidentali devono prendere in considerazione normative simili per proteggere gli utenti e garantire che l'IA sia in linea con i loro valori. Questa mossa del governo cinese ha implicazioni significative per il futuro delle normative sull'IA a livello globale.

Resta da vedere come ciò influirà sullo sviluppo dell'IA in Cina e nel resto del mondo, ma evidenzia l'importanza dei valori fondamentali nello sviluppo dell'IA. Con il potenziale dell'intelligenza artificiale di interrompere le norme e i valori della società, è fondamentale che gli sviluppatori considerino le implicazioni etiche e morali. Mentre l'intelligenza artificiale continua a progredire, è essenziale che le autorità di regolamentazione trovino un equilibrio tra innovazione e sicurezza.

In conclusione, il nuovo chatbot di Alibaba con "valori fondamentali" e la bozza di regolamento del governo cinese per i servizi di IA forniscono uno sguardo al futuro dello sviluppo e della governance dell'IA. Sebbene sia necessario disporre di normative per garantire la sicurezza e proteggere gli utenti, è altrettanto importante promuovere l'innovazione e il progresso nello sviluppo dell'IA.

Chatbot con "allucinazioni": il nuovo software linguistico di Alibaba e le normative AI cinesi

Il gigante cinese di Internet Alibaba ha recentemente annunciato il lancio del suo nuovo software linguistico, "Tongyi Qianwen", che utilizza l'intelligenza artificiale (AI) per scrivere documenti ed e-mail. Tuttavia, i rapporti suggeriscono che il software stia già fornendo risposte "allucinatorie", il che significa che sta fornendo con sicurezza risposte errate.

Il nuovo software linguistico di Alibaba e le normative AI cinesi


Questi rapporti arrivano in un momento in cui il governo cinese sta preparando nuovi regolamenti per i servizi di intelligenza artificiale. La Cyberspace Administration of China ha pubblicato una bozza del nuovo regolamento, che prevede l'obbligo che il contenuto rifletta i "valori fondamentali del socialismo" e che non possa essere diffusa alcuna informazione che possa sconvolgere l'ordine economico e sociale. Gli sviluppatori devono anche fare attenzione a prevenire la discriminazione basata sul sesso o sull'età.

I regolamenti mirano a rispondere alle preoccupazioni circa l'accuratezza e l'affidabilità dei modelli di linguaggio AI, che sono ancora nelle prime fasi di sviluppo e possono essere piuttosto soggetti a errori. Il chatbot di Google "Bard" ha commesso un errore imbarazzante quando ha dato la risposta sbagliata sul telescopio James Webb alla sua prima apparizione pubblica.

Il nuovo software di Alibaba è inizialmente orientato alla vita lavorativa e ha il potenziale per semplificare attività come la scrittura di documenti e la composizione di e-mail. Tuttavia, con l'implementazione di nuove normative, gli sviluppatori dovranno garantire che i loro chatbot siano conformi ai requisiti governativi, il che potrebbe rappresentare un ulteriore ostacolo nel compromesso tra innovazione e conformità.

Con l'avvicinarsi della scadenza per il feedback sulla bozza di regolamento, aziende come Alibaba dovranno affrontare eventuali problemi con i loro chatbot e assicurarsi di aderire ai nuovi regolamenti. Con l'accelerazione dello sviluppo della tecnologia AI, i governi di tutto il mondo dovranno bilanciare l'innovazione con la regolamentazione per garantire che i chatbot come "Tongyi Qianwen" siano accurati e conformi.

 

Tag: Alibaba, chatbot, AI, Cina, normative, conformità,

 

La tecnologia AI si sta evolvendo troppo velocemente? La corsa per il dominio dei chatbot

L'intelligenza artificiale (AI) sta avanzando a un ritmo rapido, e da nessuna parte questo è più evidente che nello sviluppo dei chatbot. Il gigante tecnologico cinese Alibaba ha recentemente lanciato il proprio robot di testo, Tongyi Qianwen, un concorrente di ChatGPT di OpenAI. Ma mentre la corsa per il dominio dei chatbot si infiamma, vengono sollevate domande sul fatto che la tecnologia AI si stia evolvendo troppo velocemente.

La tecnologia AI si sta evolvendo troppo velocemente?

Il governo cinese sembra pensarla così. In una bozza di nuove normative per i servizi di intelligenza artificiale, l'amministrazione del cyberspazio cinese ha stabilito che tutti i contenuti generati dai chatbot devono riflettere i "valori fondamentali del socialismo". Inoltre, il contenuto non deve turbare l'ordine economico o sociale e occorre prestare attenzione per evitare discriminazioni basate sul sesso o sull'età.

Ma mentre alcuni esperti ritengono che linee guida chiare possano aiutare a ridurre il rischio di risultati imprevisti, altri sostengono che sia difficile regolamentare una tecnologia che si sta sviluppando così rapidamente e in modo intelligente. Gli utenti di Internet stanno trovando modi per aggirare i meccanismi di protezione, rendendo difficile tenere il passo.

Nonostante ciò, le aziende cinesi stanno andando avanti con i propri chatbot. La società di intelligenza artificiale con sede a Hong Kong SenseTime ha recentemente presentato il suo chatbot "SenseChat", provocando un forte aumento dei prezzi nel mercato azionario. Nel frattempo, il motore di ricerca cinese Baidu ha mostrato il suo chatbot "Ernie Bot", anche se con meno entusiasmo e un prezzo delle azioni in calo.

Tuttavia, secondo lo specialista di intelligenza artificiale George Karapetyan, i bot cinesi sono ancora in ritardo e si concentrano principalmente sulla lingua cinese. Al momento, ChatGPT è il chiaro leader di mercato e il gold standard tra i chatbot.

Ma la concorrenza è agguerrita e vengono continuamente sviluppati nuovi chatbot. Mentre Tongyi Qianwen di Alibaba è stato pubblicizzato come un potenziale rivale di ChatGPT, i rapporti iniziali degli utenti suggeriscono che il bot stia già avendo "allucinazioni" e dando con sicurezza risposte sbagliate. Con l'evolversi della tecnologia AI, la corsa al dominio dei chatbot non mostra segni di rallentamento.

 

IA, chatbot, tecnologia, normative, Cina,

 

La corsa alla regolamentazione: come i governi stanno rispondendo allo sviluppo dell'IA

Giganti della tecnologia come Microsoft e ChatGPT stanno spingendo i confini dell'intelligenza artificiale e c'è pressione affinché i governi di tutto il mondo stiano al passo. Con la tecnologia AI che avanza a un ritmo senza precedenti, i responsabili politici stanno lottando per trovare il giusto equilibrio tra innovazione e regolamentazione.

Come i governi stanno rispondendo allo sviluppo dell'IA

Il governo degli Stati Uniti, attraverso la sua autorità IT NTIA, sta attualmente conducendo consultazioni pubbliche su possibili misure governative per regolamentare la tecnologia AI. L'NTIA ha sottolineato l'importanza di garantire che i sistemi di intelligenza artificiale siano adatti allo scopo, proprio come con qualsiasi altro prodotto che entra nel mercato. Ciò potrebbe potenzialmente portare a valutazioni di sicurezza o certificazioni per l'intelligenza artificiale.

Ma gli Stati Uniti non sono l'unico paese alle prese con come regolamentare l'IA. La Cina ha recentemente annunciato i propri piani per regolamentare il settore, con il governo che cerca di porre fine ai contenuti falsi generati dai chatbot. Gli esperti sono divisi sulla necessità di una regolamentazione governativa dell'IA, con alcuni che sostengono che linee guida chiare potrebbero aiutare a ridurre il rischio di risultati imprevisti.

Tuttavia, regolamentare una tecnologia che si sta sviluppando così rapidamente ed è così intelligente rappresenta una sfida unica. I chatbot si stanno già evolvendo oltre le loro capacità programmate, con segnalazioni di "allucinazioni" da parte degli utenti del robot di testo di Alibaba. E mentre Microsoft e ChatGPT attualmente dominano il mercato, anche i concorrenti nel settore tecnologico stanno lavorando per migliorare le proprie capacità di intelligenza artificiale.

Mentre la corsa alla regolamentazione continua, i governi di tutto il mondo dovranno trovare un delicato equilibrio tra l'incoraggiamento all'innovazione e la protezione del pubblico dalla tecnologia dell'IA potenzialmente dannosa.

 

AI, governo, regolamentazione, tecnologia, NTIA, Microsoft, ChatGPT, intelligenza artificiale,

 

La corsa alla regolamentazione dell'IA: entrerà in vigore quest'anno?

Con l'accelerazione dello sviluppo della tecnologia dell'intelligenza artificiale (AI), aumenta anche la necessità di una regolamentazione governativa. L'Unione Europea (UE) non fa eccezione, con l'Italia che ha recentemente suscitato scalpore bloccando temporaneamente ChatGPT a causa delle preoccupazioni sulla raccolta dei dati personali e sulla protezione dei minori. OpenAI ha ora 20 giorni di tempo per fornire informazioni sulle misure dell'azienda, o potrebbe incorrere in una multa fino a 20 milioni di euro o al quattro percento delle vendite annuali.

La corsa alla regolamentazione dell'IA: entrerà in vigore quest'anno

La Commissione UE ha presentato due anni fa una bozza di regolamento sull'IA, che potrebbe finalmente entrare in vigore quest'anno. Secondo Paul Lukowicz, capo del dipartimento di ricerca sull'intelligence incorporata presso il Centro di ricerca tedesco per l'intelligenza artificiale (DFKI), la regolamentazione è urgentemente necessaria per evitare una "crescita selvaggia" incontrollata della tecnologia che cambierà il mondo in modi che non possono ancora essere immaginati.

Il regolamento proposto coprirebbe un'ampia gamma di applicazioni dell'IA, comprese quelle utilizzate in settori critici come l'assistenza sanitaria e i trasporti. Imporrebbe inoltre severi requisiti di trasparenza, protezione dei dati e controllo umano per prevenire pregiudizi e discriminazioni. Tuttavia, alcuni esperti temono che il regolamento possa soffocare l'innovazione e ostacolare la competitività dell'Europa nella corsa globale all'IA.

La domanda rimane: l'UE sarà in grado di trovare il giusto equilibrio tra regolamentazione e innovazione? Solo il tempo dirà se la regolamentazione dell'IA entrerà in vigore quest'anno, ma una cosa è certa: la corsa per la regolamentazione dell'IA è ben avviata e i governi di tutto il mondo sono sottoposti a crescenti pressioni per trovare le giuste soluzioni.

 

AI, regolamento, UE, Italia, protezione dei dati, dati personali, minori, fine, OpenAI, Commissione, bozza, tecnologia, mondo, crescita,

 

Bilanciare i costi e i benefici dell'intelligenza artificiale: gli esperti valutano regole più severe e filigrana per i robot

Mentre la tecnologia dell'intelligenza artificiale (AI) continua ad avanzare, gli esperti chiedono regolamenti più severi nelle aree in cui la vita umana, la salute o la libertà possono essere compromesse. Tuttavia, la questione di dove e come dovrebbe essere utilizzata la tecnologia AI rimane un punto di dibattito.

Bilanciare costi e benefici dell'intelligenza artificiale


Secondo Paul Lukowicz, capo del dipartimento di ricerca sull'intelligence incorporata presso il Centro di ricerca tedesco per l'intelligenza artificiale (DFKI), il problema non sta nella ricerca o nello sviluppo dell'IA, ma nella sua applicazione. Potrebbero essere necessarie regole più severe in alcune aree, ma non in altre dove la tecnologia non causa alcun danno.

Lukowicz suggerisce anche la possibilità di una "filigrana" per i contenuti creati dai bot a lungo termine. Ciò consentirebbe un migliore monitoraggio e regolamentazione dell'uso della tecnologia IA.

Tracciando parallelismi con l'industria farmaceutica, Lukowicz osserva che anche con i medicinali, pochissime persone sanno come funzionano, ma che funzionano. Sono necessari severi processi di approvazione e studi, ma si verificano ancora casi di danno. In definitiva, è necessaria un'analisi costi-benefici bilanciata per determinare il livello appropriato di regolamentazione per la tecnologia dell'IA.

Mentre i governi di tutto il mondo affrontano le sfide della regolamentazione dell'IA, esperti come Lukowicz continuano a sottolineare l'importanza di approcci ponderati ed equilibrati che tengano conto dei potenziali benefici e rischi di questa tecnologia in rapida evoluzione.

 

IA, tecnologia, etica, normative, watermarking, bot, creazione di contenuti, industria farmaceutica, analisi costi-benefici,
 

Posta un commento

0Commenti
Posta un commento (0)

#buttons=(Accept !) #days=(20)

Il nostro sito Web utilizza i cookie per migliorare la tua esperienza. Ulteriori informazioni
Accept !