La Commissione Europea vuole regolare l’Intelligenza Artificiale, con l’AI Act ora approvato dal Parlamento europeo. Seppure alla base ci siano buoni propositi, l’iniziativa non avrà successo. L’unica cosa che i Governi oggi possono regolare è il contatto diretto con i propri cittadini.
Per questo motivo un punto apprezzato (quasi) unanimemente è il divieto del riconoscimento automatico dei cittadini europei tramite il riconoscimento biometrico in tempo reale e il fatto che chi interagisce con una AI debba essere avvertito. A questo dovrà essere affiancata una formazione dei cittadini europei sui suoi possibili utilizzi.
I punti dell’AI Act che non possono funzionare
Ci sono tuttavia una serie di richieste che invece non potranno funzionare, ad esempio:
- Made with AI. Si richiede che i prodotti dell’AI contengano un watermark per poterli riconoscere da oggetti prodotti dall’uomo, dando per scontato tuttavia che questi modelli producano il prodotto finale e che non vengano rielaborati successivamente, anche solo con un pixel dall’uomo. Se l’AI verrà utilizzato per creare il design di un vestito, il cliente finale che lo indosserà non saprà come sia stato progettato. Dall’altra parte anche tutti i servizi che già inseriscono un watermark nel testo prodotto non danno la certezza di poterlo identificare, ma solo un’indicazione di probabilità (oltre al fatto che esistono strumenti per rimuovere questi watermark).
- Copyright. Si richiede una trasparenza sui dataset utilizzati per allenare il modello. La trasparenza è sempre una buona cosa, ma l’obiettivo finale sembrerebbe in realtà esporre queste aziende a possibili ricorsi da parte dei proprietari delle informazioni, immagini e libri utilizzati, senza però chiarire quale siano i limiti di utilizzo lasciando che siano i tribunali a sviscerare la questione. Il tema dovrebbe invece essere affrontato direttamente prima di creare mille rivoli giudiziari che naturalmente contrasteranno tra di loro a seconda di dove verranno promossi https://archive.vn/lh8Lv: è possibile scrivere un libro dopo averne letti cento sul tema? È possibile dipingere un quadro dopo averne visti altri che ci hanno ispirato? Perché non dovrebbe essere possibile per una AI? Forse l’opt out sarà l’unica alternativa concreta. Ad esempio per molti modelli di dati utilizzati si può verificare su haveibeentrained.com se le proprie immagini sono state utilizzate e chiederne la rimozione, oppure singoli strumenti come Midjourney permettono di richiedere la rimozione dei propri contenuti dal db di training. Un altro modo di gestire la cosa potrebbe essere pensare a che tipo di accesso dare ai propri contenuti, se a pagamento come un libro, o con limitazioni di quantità come ha da poco fatto Elon Musk per i dati di Twitter proprio in ottica di limitarne l’utilizzo da sistemi AI. Un sistema, questo, molto simile a quello che oggi adottiamo nei confronti dei motori di ricerca indicando se i contenuti della pagina possano o meno essere acquisiti.
Ci sono inoltre dei principi che possono essere condivisibili e permettono alle aziende di proteggersi da future contestazioni, ma saranno difficili da codificare in leggi vista la veloce evoluzione degli strumenti:
- Progettare i modelli per evitare contenuti illegali. Il fatto di specificare la parola “contenuti” lascia trasparire il fatto che si ha una visione limitata di quello che già oggi possono fare questi modelli: non solo contenuti, ma anche azioni nel mondo reale. Come principio generale dovrebbe valere anche per i coltelli da cucina (…), sarà difficile progettare strumenti che non possano essere utilizzati in modo illegale. La responsabilità dovrà sempre essere di chi li utilizza in modo criminale, non dello strumento.
Tra le attività che il settore pubblico potrebbe fare nel contesto della formazione è una valutazione trasparente e continua di questi sistemi, ad esempio:
- Check dei bias dei sistemi AI. I controlli dei bias sui sistemi sono dei misuratori di qualità dei sistemi AI e distingueranno in futuro i sistemi che funzionano meglio da tutti gli altri. La tutela realmente importante per i cittadini è che i servizi erogati non si basino su bias generati da sistemi automatizzati: ad esempio, l’assicurazione medica dovrà sempre basarsi su informazioni e algoritmi trasparenti.
- Privacy. In alcuni casi i contenuti del dataset potrebbero ri-uscire da modello e se il modello ha letto dei dati privati potrebbe ripubblicarli nelle sue creazioni. Per questi casi come Google è riuscita ad oscurare facce e targhe del suo google street, sicuramente potranno esserci dei sistemi di offuscamento di dati sensibili ripubblicati.
AI Act, nessun modello di AI generativa è compliant
In seguito alla scrittura di questo regolamento da parte della Commissione Europea un gruppo di ricerca dell’Università di Stanford ha valutato i principali modelli generativi di AI presenti sul mercato e ha concluso che nessuno di quelli sul mercato sono compliant con quanto richiesto dalla Commissione Europea.
Il risultato immediato è che il lancio in Europa di Bard di Google (concorrente diretto di ChatGPT di Microsoft) è stato posticipato.
Come per lo stop di un mese di ChatGPT in Italia questa regolamentazione ha una sola conseguenza immediata: le aziende europee e italiane rimarranno indietro su queste tecnologie rispetto a quelle di altri Paesi che vendono comunque i loro servizi ai cittadini europei.
Conclusioni
Quello che appare chiaro è il fatto che probabilmente la tecnologia non è ancora abbastanza matura per essere regolata da leggi che prevedono multe fino al 7% del fatturato dell’azienda.
Infatti, negli Stati Uniti per ora ci si è limitati a linee guida.
Un indizio sul fatto che ogni popolo regolerà solo le interazioni dei propri cittadini (e solo per loro) i è che il riconoscimento biometrico automatico in Europa potrà essere applicato per le misure di gestione dell’immigrazione, ed infatti la Francia ha autorizzato l’uso di droni per il controllo della frontiera con l’Italia.
In un mondo globalizzato come il nostro l’impatto sull’economia di queste tecnologie sarà immediato comunque. Le leggi troppo restrittive premature identificheranno solo in quali Stati non si svilupperanno i nuovi unicorni dell’A.I.