Artificial Intelligence Act, cos’è e perché le aziende europee sono contrarie

I firmatari della missiva contro l'”AI Act”: “Regole troppo rigide. A rischio la competitività e la sovranità tecnologica dell’Europa”

La stretta sull’Intelligenza artificiale targata Ue non piace alle aziende. Almeno a quelle, oltre 150, che hanno apposto la propria firma in calce alla lettera aperta arrivata sui tavoli di Parlamento europeo, Commissione e Consiglio dell’Ue. Scopo della missiva, spingere gli organi comunitari a rivedere i piani di regolamentazione dell’IA.

La lettera, ripresa dal Financial Times, punta il dito contro  il cosiddetto “Artificial Intelligence Act“, il regolamento con cui l’Ue intende monitorare i progetti di intelligenza artificiale nel Vecchio Continente e che ha già ottenuto, lo scorso 14 giugno, il primo via libera da parte del Parlamento europeo.

Tra i firmatari figurano i dirigenti di aziende del calibro di Siemens, Renault, Heineken e Airbus. Ad accomunarli il timore che le nuove regole possano “mettere a rischio la competitività e la sovranità tecnologica dell’Europa“, limitando le iniziative di intelligenza artificiale sul nascere.

Cosa prevede l'”AI Act”

A preoccupare gli estensori della missiva, sono soprattutto le regole previste per il controllo dei sistemi di intelligenza artificiale generativa, al pari dell’attuale ChatGpt, sviluppato da Open AI con il supporto finanziario di Microsoft. Secondo l’AI Act infatti, chi realizza modelli di intelligenza artificiale, indipendentemente dal campo di applicazione, dovrà registrare il prodotto finale presso l’Ue, sottoponendolo così a valutazioni del rischio e requisiti di trasparenza, incluso l’obbligo di rendere pubblici i dati protetti da segreto aziendale utilizzati per addestrare il modello stesso.

Il Parlamento Ue ha dato il primo via libera all'AI Act, il regolamento sull'intelligenza artificiale
Foto Pexels/ Jonas Horsch – Socialboost.it

Regole troppo stringenti, sostengono, che esporrebbero i fornitori di modelli di AI a costi di conformità e rischi di responsabilità sproporzionati, mettendo molti colossi in fuga dal Vecchio continente, verso altri mercati, in testa Stati Uniti e Cina.

“L’Europa non può permettersi di restare in disparte – si legge – l’attuazione di questi princìpi dovrebbe essere affidata a un organismo di regolamentazione dedicato composto da esperti. Una procedura da sviluppare in dialogo con l’economia”.

Già lo scorso marzo, Elon Musk, capo di Tesla, SpaceX e Twitter, insieme a mille tra ricercatori e manager di aziende della Silicon Valley, aveva chiesto alle compagnie che sviluppano soluzioni di intelligenza artificiale di “prendersi una pausa di almeno sei mesi per pensare alle possibili conseguenze di una tecnologia troppo avanzata e intelligente.

Dopo il primo via libera di Bruxelles, ora il testo si appresta a essere discusso dal cosiddetto “trilogo” (Parlamento, Commissione e Consiglio) per giungere, nelle intenzioni, a un testo definitivo e condiviso entro la fine dell’anno.

Impostazioni privacy