ROMA – Il rischio esiste, pochi lo negano, soprattutto in ambito governativo. Sul mondo dell’intelligenza artificiale è partita una gara, con angoli di prospettiva diversi, proiettata a definire un quadro di limiti al suo utilizzo.
Prima di domandarsi quale sia il potenziale impatto sul mondo della previdenza e dell’assistenza, va focalizzato l’approccio. Il Parlamento Europeo il 14 giugno 2023 ha votato la bozza dell’AI Act primo passo, dopo due anni di gestazione, verso un approccio globale al tema. Lavorare sul rischio, e non sul singolo ambito di intervento, appare efficiente, visti i risultati in ambito finanziario della stessa metodica. Entro fine anno, strettoie negoziali permettendo, si vorrebbe giungere ad una definizione dei sistemi a rischio inaccettabile, alto, limitato e minimo. Le lobby sono al lavoro e sicuramente tenteranno di limitare le norme.
Intanto in Cina è entrato in vigore il 15 agosto l’Ordine numero 15, diviso in 5 sezioni e 24 articoli, prima vera normativa mondiale. L’approccio è permeato di controllo sociale e socialista.
L’IA viene incoraggiata e supervisionata a patto che sia inclusiva e prudente (art. 3), non violi la privacy, i diritti di immagine e intellettuali (art. 4), ma soprattutto impone in caso di scoperta di contenuti illegali la loro pronta eliminazione. La Cyberspace Administration of China (CAC) sarà il garante.
Al di là dell’evidente controllo sociale e socialista applicato dal gigante asiatico, del dibattito in corso negli Stati Uniti e del procedimento europeo, per tutti resta un dilemma: essere troppo rigidi rischia di rallentare l’economia e favorire altri mercati. Il punto in cui verrà posta l’asticella sarà probabilmente temporaneo, siamo destinati ad un aggiustamento costante, visto l’enorme applicazione potenziale delle nuove frontiere tecnologiche.
Ma torniamo all’Europa. I settori del lavoro (e quindi della previdenza), della sanità (e quindi dei fondi sanitari), dell’istruzione e della finanza vengono collocati nella fascia di rischio alto. L’IA applicata a questi settori verrà catalogata in un apposito database, certificata e monitorata. E qui cominciano le domande. Certificare migliaia di produttori non sarà semplice, monitorare tutti gli avanzamenti tecnologici quasi impossibile. È noto che l’attività di aggiornamento e manutenzione di una banale app si verifica diverse volte in un solo anno. E chi userà i nuovi strumenti per scegliere quale tutela sanitaria o previdenziale avere quale certezza avrà sulla terzietà e affidabilità degli strumenti.
Chi potrà mai governare lo scenario dei prossimi anni con un mercato affollato di strumenti di ricerca e catalogazione?
Ancor più delicata la questione delle comparazioni, sempre più gradite dai consumatori. Chi e come controllerà le piattaforme nelle quali verranno messe a confronto soluzioni diverse?
I controlli di legalità, non discriminazione, aderenza ai valori fondanti europei vengono dichiarati, vedremo come verranno applicati. Certo l’Unione Europea si è distinta per la normativa sulla privacy, per l’attenzione e le multe connesse alle posizioni dominanti, uno schema di fondo sicuramente positivo.
Ma chi ha provato ad usare Chatgpt, nella forma rilasciata gratuitamente, ha notato come su questioni complesse come quelle del welfare, gli errori fossero innumerevoli e gravi. Tre anni è il tempo previsto per l’entrata in vigore di un quadro normativo europeo, tre anni nel mondo della tecnologia sono un’epoca, tutta da capire la validità di norme in parte superate, probabilmente, dalla realtà.
In risposta agli occidentali ChatGpt di OpenAI, Bard di Google e molti altri, la Cina ha messo in campo Ernie Bot di Baidu, Tongyi Qianwen di Alibaba, Hunyuan Aide di Tencent e SenseChat di SenseTime, per limitarsi ai grandi nomi. Le start up di intelligenza artificiale generativa sono attualmente 21 negli Usa, 22 in Cina, anche se gli investimenti messi a terra dagli americani sono cinque volte superiori.
L’amministrazione americana ha comunicato di aver ottenuto «l’impegno volontario» delle sette più importanti aziende del settore a gestire i rischi dell’Intelligenza artificiale. Biden stesso ha incontrato il presidente di Microsoft Brad Smith, Kent Walker (Google), l’ad di Anthropic Dario Amodei, l’ad di InflectionAI Mustafa Suleyman, il presidente di Meta Nick Clegg, il presidente di OpenAi Greg Brockman, l’ad di Amazon Web Services Adam Selipsky. Tutti si impegneranno a condurre verifiche e test «sia interni che esterni», che «coinvolgono anche esperti indipendenti» sui sistemi di Intelligenza artificiale, prima e dopo la loro diffusione, e a cooperare con ricercatori e con la società civile per prevenire o correggere potenziali vulnerabilità che riguardano la biosicurezza, la cybersicurezza, effetti sociali come la disinformazione, e per «mitigare» le possibilità di discriminazioni e i danni alla privacy.
L’amministrazione Biden afferma che i principi di «sicurezza, protezione e fiducia» dovranno guidare il futuro dell’Intelligenza artificiale e spera che anche altre aziende capiranno l’esigenza di seguire l’esempio di queste sette.
Una sorta di bollino di qualità digitale garantirà l’utente sulla provenienza di ciò che sta leggendo o vedendo e quindi saprà se si trova di fronte ad un prodotto artificiale senza intervento umano.
Certo l’angolatura statunitense appare più cauta rispetto a quella europea, legata ad una moral suasion che molti analisti giudicano insufficiente, ma di mezzo ci sono enormi investimenti e la supremazia digitale sul mondo. Non va sottovalutata l’opinione dell’informatico Kai-Fu Lee, nel suo libro AI Superpowers: China, Silicon Valley, and the New World Order: nella competizione con gli Stati Uniti, la Cina potrebbe avere la meglio grazie alla creazione rapida di prototipi, alla raccolta di dati sui consumatori e al sostegno del governo. Infine l’ipotesi che alcune start-up si spostino in aree dove la regolamentazione è inesistente o blanda appare probabile.
Sul piano della comunicazione giornalistica le minacce, se possibile, aumentano. La comunità dei media da tempo denuncia una serie di distorsioni che potrebbero in futuro divenire pane quotidiano degli utenti. Se il valore democratico di una stampa libera è indiscutibile, poco si è detto e scritto sugli effetti di una informazione generata artificialmente nel campo del welfare.
Nel frattempo Newsguard ha identificato dei siti inaffidabili, senza intervento umano, che operano in italiano. Sono quasi 300 quelli individuati fino ad oggi, di cui 36 in lingua italiana. Con ogni probabilità si tratta dell’inizio di un’onda lunga che vedrà, nel giro di qualche mese, la presenza nel mondo di migliaia di soggetti che generano informazione tramite Bot, in via automatica probabilmente guidata da interessi di ogni sorta. Se oltre il 50 per cento degli utenti, secondo una serie di rilevazioni concordanti, ritiene che le informazioni che riceve debbano essere gratuite, un messaggio chiaro, onestamente critico e terzo, giungerà ad una porzione limitata della società.
Se volessimo stilare delle raccomandazioni in relazione alla protezione del welfare, alla luce delle limitate informazioni esistenti sul lavoro di sviluppo IA in corso e sulle enormi potenzialità prospettiche, potremmo azzardare:
• stimolare le istituzioni, e in particolare i Vigilanti, a mettere in campo per tempo staff di controllo dei flussi di mercato;
• seguire con grande attenzione e partecipare al dibattito in sede europea in vista della creazione del primo quadro di norme;
• creare un bollino di qualità, che probabilmente diverrà obbligatorio nel lungo periodo, in modo da distinguere le proposte previdenziali o sanitarie (di welfare in generale) provenienti da soggetti certificati;
• lavorare con maggiore attenzione nell’ambito della cybersecurity, non solo in termini difensivi, monitorando continuamente l’eventuale uso improprio del proprio “marchio”;
• investire sulla diffusione della cultura previdenziale, anche alla luce di possibili proposte truffaldine o non trasparenti;
• rendere sempre più evidente, soprattutto nel web, il perimetro degli operatori istituzionali, anche con iniziative di sistema che diventino punto di riferimento per chi si affaccia al mondo del lavoro.
Andrea Camporese
CHI È ANDREA CAMPORESE
Laureato in filosofia, già presidente Inpgi, dell’Associazione degli Enti Professionali privati e Privatizzati (Adepp) e della Associazione europea degli Enti Previdenziali dei Professionisti. Giornalista professionista Rai per oltre 20 anni, svolge attività di ricerca nel settore del welfare, della previdenza e della tecnologia applicata.
È stato chiamato da Mefop Spa (società per lo sviluppo del Mercato dei Fondi Pensione partecipata dal Ministero dell’Economia e delle Finanze) ad esprimere un’analisi sul futuro delle professioni, del welfare e della previdenza. Questo articolo è stato, infatti, redatto per il Centro Studi del Mefop. (giornalistitalia.it)