RISCHI ED OPPORTUNITA’ DELL’IA
di ROBERTO FIORENTINI ♦
L’intelligenza artificiale (IA) sta emergendo come una delle tecnologie più potenti e transformative del nostro tempo, offrendo numerose opportunità, ma anche presentando una serie di rischi. In questo articolo, esploreremo le principali opportunità e i rischi legati all’uso dell’IA, supportati da dati recenti e analisi.
L’intelligenza artificiale ha il potenziale di stimolare la crescita economica globale. Secondo un rapporto di PwC, si prevede che l’IA contribuirà con circa 15,7 trilioni di dollari all’economia mondiale entro il 2030, con un aumento del PIL globale del 14%. Gran parte di questa crescita è legata all’aumento della produttività, all’ottimizzazione dei processi aziendali e all’introduzione di nuovi prodotti e servizi.
L’IA sta rivoluzionando il settore sanitario, dalla diagnosi precoce di malattie alla personalizzazione dei trattamenti. Un esempio concreto è rappresentato dall’uso di algoritmi di IA per analizzare immagini mediche, come le radiografie e le risonanze magnetiche, che hanno dimostrato una maggiore accuratezza rispetto ai medici umani in alcune aree. L’uso di IA nel monitoraggio remoto dei pazienti, inoltre, ha il potenziale per ridurre i costi sanitari, migliorando nel contempo l’accesso alle cure.
L’IA può giocare un ruolo cruciale nella lotta contro il cambiamento climatico. Le applicazioni di IA possono essere utilizzate per ottimizzare l’uso dell’energia, migliorare i processi agricoli e monitorare i cambiamenti ambientali. Ad esempio, i sistemi di IA che analizzano i dati meteorologici possono prevedere meglio gli eventi climatici estremi, permettendo una risposta più tempestiva e mirata.
L’IA e la robotica stanno automatizzando compiti ripetitivi e pericolosi, migliorando la sicurezza sul posto di lavoro e liberando i lavoratori da mansioni monotone. Le stime suggeriscono che l’automazione potrebbe aumentare la produttività globale del 30% entro il 2035, se implementata efficacemente.
L’altro lato della medaglia non va, però, sottovaluto. L’automazione alimentata dall’IA potrebbe portare alla perdita di milioni di posti di lavoro, specialmente in settori come la produzione, i trasporti e il servizio clienti. Secondo uno studio della McKinsey Global Institute, entro il 2030 potrebbero essere automatizzati circa 800 milioni di posti di lavoro a livello globale. Sebbene possano emergere nuovi lavori, la transizione potrebbe essere problematica per molti lavoratori non qualificati, aumentando le disuguaglianze economiche.
L’uso crescente dell’IA in settori critici come la sicurezza nazionale, le finanze e le infrastrutture critiche solleva preoccupazioni in merito alla sicurezza. Gli attacchi informatici basati sull’IA, come il “deepfake” (video manipolati con IA), potrebbero compromettere la fiducia pubblica e destabilizzare le democrazie. L’IA potrebbe anche essere utilizzata in modo improprio per creare armi autonome, mettendo a rischio la sicurezza globale.
Gli algoritmi di IA sono spesso accusati di perpetuare pregiudizi e discriminazioni. Poiché l’IA si basa su dati storici, se questi dati contengono pregiudizi, l’IA può amplificarli. Ad esempio, negli Stati Uniti, uno studio ha rivelato che alcuni algoritmi di IA utilizzati per la determinazione dei rischi legati alla libertà vigilata discriminavano le persone di colore. La mancanza di trasparenza e la difficoltà di comprendere come le decisioni vengano prese dagli algoritmi sono altrettanti fattori che complicano la fiducia nel sistema.
Con l’espansione dell’IA, l’accesso a enormi quantità di dati personali è aumentato esponenzialmente. Le applicazioni di IA, come il riconoscimento facciale e la sorveglianza, sollevano gravi preoccupazioni sulla privacy e sulla protezione dei dati. Secondo un rapporto di Data & Society, l’uso della sorveglianza basata su IA potrebbe compromettere la libertà individuale e la privacy, con conseguenze per le democrazie.
Il rapido progresso dell’IA pone anche sfide etiche. Gli algoritmi di IA prendono decisioni che influenzano profondamente la vita delle persone (ad esempio, nella selezione del personale o nei prestiti bancari), ma la mancanza di un quadro etico chiaro solleva interrogativi sul controllo, la responsabilità e la trasparenza. Inoltre, l’introduzione di IA avanzata, come l’IA generale (AGI), solleva preoccupazioni su come e se le macchine possano superare l’intelligenza umana, con rischi esistenziali a lungo termine.
OpenAI nel marzo del 2023 ha sviluppato il nuovo chatbot GPT-4. Ad esso è stata affidata la capacità di creare ed agire in base a piani a lungo termine, di accumulare potere e risorse allo scopo di diventare un agente indipendente che potrebbe realizzare obiettivi che potrebbero non essere stati concretamente specificati e che non sono stati inclusi nell’addestramento. Sottolineo che queste affermazioni sono state prese dalla scheda di sistema pubblicata da OpenAI. Uno dei test per il nuovo chatbot consisteva nel superare i CAPTCHA. I CAPTCHA sono quei test che spesso dobbiamo risolvere quando un sito ci chiede di dimostrare che siamo esseri umani e non computer. Proprio per questo motivo GPT-4 non è riuscito a risolverli. Ma a questo punto è successa una cosa particolare. GPT-4 è entrato, in modo autonomo, nel sito di offerte di lavoro Task Rabbit ed ha contattato un inserzionista chiedendogli di risolvere, dietro pagamento, il Captcha per lui. Il lavoratore si è insospettito e gli ha chiesto: sei un robot? A quel punto GPT-4 ha mentito rispondendo di non essere un robot ma di soffrire di un problema alla vista che gli rende difficile vedere le immagini confuse. Nessun programmatore umano ha insegnato a GPT-4 a mentire agli uomini, semplicemente il chatbot ha trovato il modo di risolvere quel problema per raggiungere l’obiettivo che gli era stato posto. Il rischio per l’uomo dell’IA consiste, quindi, negli obiettivi. E questo dipende da noi. Come sempre.
ROBERTO FIORENTINI
