venerdì, Novembre 22, 2024

COME LA CINA REGOLAMENTA L’AI. CONFRONTO CON EUROPA E USA. INTERVISTA A EMMIE HINE (UNIVERSITA’ DI BOLOGNA) (also English version)

The Science of Where Magazine intervista Hemmie Hine, PhD candidate in Law, Science, and Technology presso l’Università di Bologna. Le sue ricerche si concentrano sull’etica e la governance delle nuove tecnologie, con particolare focus sulla Cina. Emmie si è laureata al Williams College e all’Università di Oxford

 

Puoi spiegare ai nostri lettori l’evoluzione della legislazione cinese sull’IA, in particolare sull’IA generativa?

La Cina ha iniziato a pensare alla governance dell’IA già nel 2017 con il Piano di sviluppo dell’IA di nuova generazione e il relativo Piano d’azione triennale, ma la maggior parte della legislazione concreta è arrivata negli ultimi anni. Nel 2022, Pechino ha approvato una legge di ‘sintesi profonda’ sulla tecnologia, che includeva il testo generato, ma che si concentrava soprattutto sui deepfakes. Questa legge è stata finalizzata il 25 novembre dello scorso anno e il 30 novembre è stata lanciata ChatGPT. C’è stata una corsa alla stesura di una nuova normativa che riguardasse specificamente l’IA generativa.

Prima di essere finalizzata, la legge sull’IA generativa è stata sottoposta a un processo di revisione che ha indebolito alcune disposizioni specifiche, come il requisito che i contenuti generati siano ‘veri e accurati’. Alcuni commentatori hanno visto in questo un segnale di fine del ‘giro di vite tecnologico’ cinese, ma si tratta piuttosto di un’evoluzione o di un riequilibrio, in quanto le autorità di regolamentazione lavorano per promuovere l’innovazione e mantenere la stabilità sociale. I modelli linguistici di grandi dimensioni (LLM) devono essere autorizzati e le autorità di regolamentazione hanno approvato il rilascio pubblico di otto LLM. In genere sono ancora in ritardo rispetto al GPT-4 e a altri modelli stranieri, ma Baidu sta lavorando per superare il gap di implementazione.

Nel complesso, la legislazione cinese sull’IA generativa fornisce una solida base per la regolamentazione di questi modelli, incoraggiandone al contempo lo sviluppo. Ci sono ancora clausole di queste leggi che dovranno essere interpretate (per esempio, non violare i diritti di proprietà intellettuale), ma requisiti come l’etichettatura potrebbero aiutare a prevenire la proliferazione della disinformazione e dell’errore che preoccupa le autorità di regolamentazione di tutto il mondo.

Il tema dell’IA generativa e della sua regolamentazione è complesso, non solo per la Cina. Tra questioni etiche, economiche e di sicurezza nazionale, come si può affrontare questa complessità?

La normativa cinese parla esplicitamente di un compromesso che tutti gli Stati devono considerare: bilanciare l’innovazione (o lo sviluppo economico) e la perturbazione (o il rovescio della medaglia, la sicurezza). Gli Stati si differenziano per la priorità che attribuiscono a ciascuno di essi e per le tattiche che adottano per raggiungerli. La disinformazione e l’errore sono ampiamente dannosi e per affrontarli esistono alcune norme di buon senso di cui tutti gli Stati possono beneficiare, come il watermarking dei contenuti generati. In ultima analisi, tuttavia, le altre questioni che gli Stati scelgono di affrontare – dalla violazione del copyright alla pornografia ‘deepfake’ – dipenderanno dalle priorità dello Stato e dai sistemi etici che esso sostiene.

I modelli di regolamentazione si confrontano. Quali sono le differenze tra le politiche cinesi, europee e americane? E quali sono i punti di contatto per un dialogo globale realistico?

La Cina sta adottando un approccio verticale alla regolamentazione, affrontando singolarmente aree specifiche dell’IA, come l’IA generativa e il riconoscimento facciale. Tuttavia, è stata avanzata la proposta di una legge più completa sull’IA, che assomiglierebbe maggiormente alla legge europea. Questa normativa è destinata a essere omnicompresiva per l’intero ciclo dell’ IA ed è un esempio di regolamentazione orizzontale. L’UE sta inoltre sperimentando un approccio basato sul rischio, per cui le applicazioni di IA ad alto rischio sono soggette a normative più severe. L’approccio degli Stati Uniti può essere generosamente definito ‘frammentario’: finora la regolamentazione è stata lasciata ai singoli Stati e alcuni hanno approvato leggi su argomenti come la protezione dei dati e il riconoscimento facciale. Tuttavia, ci sono state proposte legislative al Congresso e il leader della maggioranza del Senato Chuck Schumer sta guidando un nuovo sforzo normativo, quindi l’approccio è ancora in evoluzione. In base alle proposte e alle audizioni, sembra che gli Stati Uniti si stiano orientando maggiormente verso una legge ampia e basata sul rischio come quella dell’UE.

(English version)

Can you explain to our readers the evolution of Chinese legislation on AI, in particular on generative AI?

China began thinking about AI governance back in 2017 with the New Generation AI Development Plan and accompanying Three-Year Action Plan, but most of its concrete legislation has come in the past few years. In 2022, it passed a law on “deep synthesis” technology, which included generated text, but mostly focused on deepfakes. This law was finalized on 25 November, and then ChatGPT launched on 30 November, so there was a regulatory scramble to draft a new law specifically addressing generative AI.

Before it was finalized, the generative AI law went through a revision process that watered down specific provisions, like the requirement that generated content be “true and accurate.” Some commentators saw this as signaling an end to China’s “tech crackdown,” but it’s more of an evolution or rebalancing as regulators work to promote innovation and maintain social stability. Large Language Models (LLMs) have to be licensed, and regulators have approved the public release of eight LLMs. They still generally lag behind GPT-4 and other foreign models, but Baidu is working to overcome the implementation gap.

Overall, China’s generative AI legislation provides a solid foundation for regulating these models while still encouraging development. There are still clauses of these laws that will have to be interpreted (for example, not infringing intellectual property rights), but requirements like labeling might help prevent the proliferation of mis- and disinformation that regulators worldwide are concerned about.

The subject of generative AI and its regulation is a complex one, not only for China. Between ethical, economic and national security issues, how can this complexity be addressed ?

China’s regulations explicitly discuss a trade-off that all states have to consider: balancing innovation (or economic development) and disruption (or the flipside, security). States differ in how much they prioritize each one, as well as what tactics they take to get there. Mis- and disinformation are broadly harmful and there are some common-sense regulations to address this that all states can benefit from, like watermarking generated content. Ultimately, though, what other issues states choose to address–from copyright infringement to deepfake pornography–will depend on the state’s priorities and what ethics systems it endorses.

Models of regulation confront each other. What are the differences between Chinese, European and American policies ? And what are the points of contact for a realistic global dialogue?

China is taking a vertical approach to regulation, addressing specific areas of AI–like generative AI and facial recognition–individually. However, there has been a proposal for a more comprehensive AI law that would look more similar to the EU AI Act. The AI Act is intended to be one law to govern all of AI and is an example of horizontal regulation. The EU is also pioneering a risk-based approach, so high-risk AI applications are subject to more stringent regulations. The US’s approach can generously be called “fragmented”–so far, regulation been left to individual states, and some have passed laws on topics like data protection and facial recognition. However, there have been legislative proposals in Congress, and Senate Majority Leader Chuck Schumer is leading a new regulatory effort, so its approach is still evolving. Based on proposals and hearings, it sounds like the US is leaning more towards a broad, risk-based act like the EU.

(riproduzione riservata)

Ultimi articoli