Negli ultimi tempi, anche a seguito della presentazione di ChatGPT, si sono moltiplicati articoli con titoli sensazionalistici (e a volte apocalittici) contrari all’Intelligenza Artificiale, e nei salotti televisivi si è discusso ampiamente delle paure di lavoratori e non solo.

Alcune delle paure – di cui abbiamo già parlato qui – più diffuse nei confronti delle AI si possono così riassumere:

  • Le informazioni messe a disposizione non provengono da fonti verificabili, e potrebbero contribuire a diffondere sempre più disinformazione. Inoltre, è anche possibile creare immagini false che andrebbero a manipolare l’opinione pubblica.
  • Stanno aumentando le tipologie di reato legate allo sfruttamento delle AI, vedi il caso dei ghostbot, ovvero software che permettono di “resuscitare” profili appartenenti a persone defunte.
  • Il timore più diffuso è, senz’altro, quello della sostituzione del lavoro umano: in molti credono che ci abitueremo sempre più ad interagire con chatbot, fino a che la loro efficienza arriverà a rimpiazzare il lavoro di risorse (letteralmente) umane.
  • C’è stato anche chi ha paventato il rischio di estinzione della razza umana, ma non essendoci argomentazioni valide all’attivo per questa tesi possiamo rassicurare il lettore fin da subito, poiché non viviamo in un romanzo di Asimov e dunque al momento non parrebbe un rischio concreto, se non mero clickbait.

Si tratta di paure fondate, o della naturale diffidenza che si prova nei confronti del nuovo?

Per quanto riguarda i primi due esempi citati, in effetti, i dati ci confermano che si tratta proprio di rischi reali. ChatGPT ha rivelato – come ribadito anche qui – la tendenza a fornire risposte, a volte, errate o confuse.

Per quanto riguarda l’esempio dei ghostbot, invece, il rischio è diventato talmente elevato da essere oggetto di numerosi studi. L’Università di Belfast, ad esempio, ha proposto l’introduzione della clausola “do not bot me” nei testamenti, attraverso cui le persone possono richiedere che i propri profili social e i propri dati non vengano “riportati in vita” senza consenso

Ma contro questi e altri rischi connessi all’AI l’Europa è già corsa ai ripari: l’UE proporrà la prima normativa al mondo per la regolamentazione dell’uso dell’Intelligenza Artificiale, notizia di cui si sta parlando proprio in questi giorni. Lo scopo è quello di garantire che “i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose. Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale”.

Le nuove regole stabiliranno diversi obblighi a seconda della classificazione del livello di rischio: Inaccettabile o Alto. Inoltre porrà dei requisiti per l’AI generativa; entro fine anno dovremmo avere un accordo definitivo in merito.

In futuro si spera vengano regolarizzati altri aspetti, quali ad esempio la protezione dei dati e la sicurezza informatica, o la privacy: gli utenti hanno il diritto di sapere se stanno interagendo e fornendo i propri dati ad una persona fisica o ad un bot.

Altro aspetto da considerare sono i deepfake, ovvero dei falsi (siano essi foto, video o immagini) abilmente contraffatti dall’AI. Anche in questo caso il discorso è complesso: se è vero che l’AI potrebbe generare immagini ad arte che andrebbero ad alimentare fake news, o peggio, c’è da ricordare che la fotografia è sempre stata manipolabile. Fin dai tempi dello sviluppo in camera oscura, i fotografi sono stati in grado di alterare immagini, anche grazie all’abile utilizzo della prospettiva. Insomma, siamo sempre stati in grado di creare “falsi d’autore”, anche piuttosto pericolosi. Come spesso accade, non è lo strumento il problema, ma chi lo utilizza.

E per quanto riguarda la minaccia della sostituzione della specie umana? Da una parte, l’estinzione di certe categorie di lavori è un processo naturale derivante dall’innovazione tecnologica: è sempre successo nella storia dell’uomo, e la reazione è sempre stata quella dell’adattamento.

In fondo l’AI è ancora acerba rispetto ad alcune operazioni: si veda il caso della selezione del personale. Nonostante si propongano servizi di AI anche in questo ambito, il rischio di valutazioni rigide che non permettano di cogliere sfumature importanti è alto, andando a rifiutare candidati validi per colpa di un algoritmo. Insomma, resta ancora difficile andare a rimpiazzare la complessità umana.

Sicuramente, sarà necessario andare incontro alle nuove esigenze del mondo del lavoro, fornendo una formazione adeguata che permetta ai lavoratori appartenenti a queste categorie di reinserirsi – ma ciò dovrebbe avvenire a prescindere dalla diffusione delle AI, viste le difficoltà incontrate da molti lavoratori ai tempi dell’Industria 4.0, in particolar modo in paesi a bassa alfabetizzazione informatica come l’Italia.

I rischi legati all’abuso dell’AI non sono maggiori dei rischi legati ad un sottoutilizzo: perdita del vantaggio competitivo e stagnazione, soprattutto. Le aziende ancora poco digitalizzate restano indietro rispetto ai propri competitor, mostrando schemi rigidi e mancanza di iniziativa. La risposta a queste paure, insomma, è necessario che sia costruttiva e che non ci si limiti ad un ceco rifiuto.

Infine, citiamo il fisico italoamericano Federico Faggin intervenuto all’Università Cattolica di Milano: “L’AI ci farà fuori se non prendiamo coscienza di chi siamo (…) Se invece pensiamo di essere più di una macchina, allora ci comporteremo come qualcosa di più di una macchina (…) È la coscienza che fa la differenza tra robot ed esseri umani”. Dobbiamo ricordare che la creatività, l’intuito e soprattutto l’empatia sono caratteristiche umane inafferrabili, impossibili da riprodurre, e dunque insostituibili.