A giugno ci sarà il G7 in Italia, precisamente in Puglia, dove è stato anticipato si parlerà anche di Intelligenza Artificiale; a sorpresa, è stata confermata la presenza del Papa, che interverrà proprio su questo tema. La notizia ha generato non poco scalpore, non solo perché sarà la prima partecipazione in assoluto del Pontefice, ma anche perché la Santa Sede è già intervenuta più volte a proposito dell’AI. Proprio il Vaticano ha lavorato al Rome Call, un documento che chiede l’applicazione di principi etici per l’utilizzo e diffusione dell’Intelligenza Artificiale.

 

La notizia dell’intervento del Papa e dell’interesse del Vaticano hanno riacceso il tema sulla sicurezza in ambito AI: cosa è stato fatto finora?

 

Non è strano che l’innovazione generi reazioni difensive: lo scorso anno fioccavano articoli sensazionalistici che parlavano di disoccupazione alle stelle, di chatbot che sostituiranno il lavoro umano, e qualcuno ha persino intravisto in lontananza la fine del mondo per colpa dell’AI. Il nuovo rappresenta l’ignoto, e genera timori e dubbi che finiscono per sciogliersi col passare del tempo, quando quella nuova tecnologia si trasforma in quotidianità.

 

Non tutti i dubbi sono, tuttavia, infondati: i deep fake e la diffusione di notizie false, le truffe informatiche e il cracking delle password sono problemi reali che, oltretutto, contribuiscono ad alimentare dubbi e perplessità.

 

Per ovviare a questi rischi sono già state introdotte nuove misure: prima di tutto, negli ultimi mesi del 2023 Italia, Germania e Francia hanno raggiunto un accordo: i tre Paesi hanno sottolineato che l’AI Act, il patto europeo su cui si sta lavorando dall’anno scorso, regolamenterà l’applicazione di questa tecnologia, delineando delle linee guida apposite.

 

A fine ottobre 2023, invece, il presidente americano Biden ha emanato un ordine esecutivo che obbliga gli sviluppatori a condividere i risultati dei test di sicurezza, al fine di garantire che non sussistano rischi; l’ordine va anche a introdurre requisiti per la tutela di opere coperte da copyright.

 

Nel novembre scorso, invece, si è tenuta a Londra l’AI Safety Summit, un vertice globale in cui si è parlato approfonditamente di sicurezza; ne è derivato la dichiarazione di Bletchley, un accordo in cui i paesi firmatari si impegnano a contrastare le minacce legate all’abuso dell’Intelligenza Artificiale, che possano mettere a rischio privacy e persino la sicurezza personale e il benessere psicologico delle persone, attraverso intrusioni nella sfera privata o la perdita del posto del lavoro. I paesi firmatari si impegnano a garantire trasparenza e un controllo continuo dell’applicazione degli standard definiti, creando centri di ricerca che approfondiscano questi rischi: non basta riconoscere il problema, occorre un monitoraggio continuo e il coinvolgimento dei Governi.

 

Nel 2023 abbiamo avuto, quindi, primi passi verso una messa in sicurezza dell’applicazione e dello sviluppo dell’Intelligenza Artificiale; attendiamo novità soprattutto da parte dell’Unione Europea, che con il prossimo G7 e l’AI Act si propone come pioniera nello sviluppo di una regolamentazione specifica.