In una manciata di giorni Philip Wang, un ingegnere informatico di UBER – ma Uber non ha niente a che vedere con l’iniziativa – ha presentato al mondo “thispersondoesnotexist.com”, un generatore artificialmente intelligente di volti di persone inesistenti e Open AI – l’organizzazione non-profit creata da Elon Musk, Reid Hoffman, Sam Altman e altri – ha annunciato GPT2, un generatore – anch’esso artificialmente intelligente – di news tanto potente che i suoi stessi creatori hanno deciso, in deroga alla filosofia della loro organizzazione, di non rilasciare al pubblico il software che lo anima preoccupati del fatto che potesse essere utilizzato per produrre quantità industriali di fake news mostruosamente realistiche.
Siamo così ufficialmente entrati nell’era del verosimile.
Basta collegarsi a “thispersondoesnotexist.com” e aggiornare due o tre volte la pagina per vedersi venire incontro i volti di persone solo apparentemente in carne ed ossa ma che, in realtà, esistono solo nella fantasia dell’algoritmo che le a generate.
Eppure, domani – a essere ottimisti perché più realisticamente dovremmo dire già oggi – quelle “non-persone”, quegli avatar dalle sembianze tanto umane da sembrare veri anche all’occhio più attento potrebbero essere attori di serie di TV di successo, carismatici leader di movimenti rivoluzionari, gole profonde di false-inchieste giornalistiche o, comunque, giocare milioni di “ruoli” nella dimensione digitale della nostra società che è, tuttavia, quella in cui oggi – e sempre di più domani – viviamo e vivremo completamente immersi.
Quegli avatar potrebbero rubare il nostro cuore in una chat di incontri, diventare nostri “amici” su Facebook e indurci a condividere con loro ogni genere di segreto, nostri soci in affari.
E se non bastasse, val la pena di cliccare qui e guardare il video pubblicato dal Guardian per raccontare, con le immagini, la potenza rivoluzionaria di GPT2.
Basta suggerire all’autore algoritmico diversamente intelligente una manciata di parole per ottenere che lui scriva, di getto – con il piglio del più compassato dei giornalisti di inchiesta o piuttosto con quello del più raffinato dei romanzieri – un articolo, il capitolo di un romanzo, un saggio scientifico o qualsiasi altro contributo “rassomigli” – a suo insindacabile giudizio – all’ispirazione che gli viene data.
E naturalmente, benché il pezzo sembrerà vero a chiunque lo legga non c’è nessuna ragione per ritenere che lo sia per davvero, che lo sia sempre e che sia obiettivo.
Nessun dubbio, al contrario, che se l’ispirazione fosse falsa, tendenziosa, polemica, il contributo artificiale lo sarebbe altrettanto.
Ed è per questo che i genitori di questo straordinario enfant prodige hanno scelto di chiuderlo nella sua cameretta fino a quando la società non sarà pronta a confrontarsi con lui, sempre ammesso che si possa, per davvero, riuscire a privare della sua libertà un genio di tal fatta.
Ve lo immaginate quanti quotidiani potrebbero scrivere un paio di GPT2? E quanti libri o trattati? Ma soprattutto ve lo immaginate cosa potrebbero scrivere? E l’ordine dei giornalisti di casa nostra come reagirebbe? E’ pronto a rilasciare il tesserino a uno di “loro”? E i diritti d’autore sul primo best seller che uscirà, prima o poi, da uno di questi algoritmi? A chi competeranno?
Uno scenario inquietante che, tuttavia, non dovrebbe spaventarci ma indurci a una serena riflessione sull’esigenza, sull’opportunità e sull’urgenza di identificare un set minimo principi e regole in grado di garantire, negli anni che verranno – ma probabilmente bisognerebbe dire nei mesi che verranno – una relazione pacifica, costruttiva, utile per la società nel suo complesso, nessuno escluso, tra “noi” uomini quasi d’altri tempi e i giovani robot con i quali dovremo vedercela.
Vanno, in effetti, in questa direzione gli sforzi che si stanno facendo a Bruxelles con la Commissione di esperti sull’intelligenza artificiale e, nel nostro piccolo – per una volta non così piccolo – quelli della Commissione al lavoro presso il Ministero dello Sviluppo economico.