“Se avessi voluto una tua opinione te l’avrei data” diceva Clint Eastwood nel film Gran Torino.
La Cina oggi dispensa le opinioni per tutti tramite l’AI.
La versione cinese di ChatGPT è stata creata da Baidu sotto il nome di Wénxīn yīyán (文心一言), ovvero un lemma composto dalle parole wén (cultura, lingua) xīn (cuore, centro) e yīyán (breve frase) e che rimanda al concetto di concentrato di sapere, è stato rinominato Ernie per gli occidentali.
Tutte le discussioni su contenuti sensibili fanno spesso riavviare la chat ed il database di addestramento è fornito dallo Stato tramite la Cyber Security Association of China che lo scorso dicembre ha pubblicato un database pubblico con 100 milioni di voci “verificate”.
Uno dei primi Paesi a regolare l’AI è stata proprio la Cina che nel luglio 2023 ha emanato le regole che sostanzialmente si concentrano sul fatto che non deve essere messo in discussione il governo, il socialismo e gli interessi nazionali.
Il rischio generale degli oggetti di AI è proprio il loro obiettivo di costruzione. Se infatti agli occhi occidentali il modello cinese è bizzarro, questo almeno è assolutamente palese; altri oggetti AI che stiamo utilizzando potrebbero avere altri obiettivi non scritti pubblicamente anche commerciali, non necessariamente politici. La buona fede fino a prova del contrario in questo caso forse non è la strada migliore.
Per questo motivo dovremo costruire a mio avviso oggetti AI che siano deputati alla verifica di qualità e difesa dalla manipolazione dei cittadini che interagiscono con queste chat e sistemi.
Ne ho parlato nel mio libro Gli Algoritmi del Potere. Come l’Intelligenza Artificiale riscriverà la politica e la società. (ed. Chiarelettere) https://amzn.to/3X0vvOv