Il “Capitalismo della Sorveglianza”: dall’innovazione alla dominazione digitale. – Parte terza
di PAOLO POLETTI ♦
- Le “piattaforme”.
In conclusione, l’intelligenza artificiale promette di trasformare le nostre vite in modi profondi e vari.
Se da un lato offre opportunità incredibili per il progresso e il miglioramento della qualità della vita, dall’altro richiede una riflessione critica sulle implicazioni etiche e sociali che comporta.
Navigare in questo nuovo mare richiederà un impegno collettivo per garantire che i benefici dell’AI siano distribuiti equamente e che le sfide vengano affrontate con responsabilità e cura.
Svolgiamo alcune considerazioni.
Il 57% di quello che ci propone Netflix deriva dalle profilazioni, dai “consigli”. Il 30% degli acquisti su Amazon deriva da “consigli”.
Si tratta di potentissime “piattaforme”, che l’AI renderà molto più pervasive.
Le piattaforme, infatti, non sono “neutre”: hanno un enorme potere economico e “politico”, perché possono modificare desideri e valori. A volte, dopo un acquisto, viene suggerito “potrebbe interessarti anche…” E viene presentato un altro prodotto o servizio. Io non ci avevo mai pensato, ma quando lo vedo mi dico “ecco cosa mi serviva!”. La piattaforma identifica ciò che desidererò.
Questo apre al tema della “personalizzazione”: le piattaforme raccolgono dati, costruiscono un profilo di ciascuno di noi e ci propongono notizie, beni, servizi che possono interessarci ed in questo modo non solo polarizzano la nostra attenzione, bensì massimizzano la nostra permanenza in termini di pubblicità e profitti.
E parliamo non solo di Netflix o Amazon, ma anche di YouTube, una nuova televisione che propone i video più confacenti alle nostre aspettative. Magari di ispirazione sempre un po’ più radicale rispetto alle nostre posizioni.
Gli amministratori delegati di Meta, TikTok, X e altre società di social media hanno recentemente testimoniato davanti alla commissione Giustizia del Senato americano.
Oltre a Mark Zuckerberg, hanno testimoniato davanti al Congresso Shou Chew, amministratore delegato di Tik Tok; Evan Spiegel, amministratore delegato di Snap; Linda Yaccarino, amministratrice delegata di X e Jason Citron, amministratore delegato di Discord. Soltanto Zuckerberg e Chew, però, hanno accolto l’invito della commissione a presentarsi. Gli altri tre sono stati citati in giudizio in modo formale. Questo fa capire quanto sia difficile per la politica dialogare con le grandi aziende della rete. Ogni limitazione, ogni freno o riserva sono visti dalle Big Tech come un attacco alla propria libertà e, soprattutto, come un freno allo sviluppo e alla crescita del giro d’affari.
L’udienza si è concentrata sulla sicurezza dei bambini che usano le loro piattaforme ed alla luce delle tecnologie di personalizzazione, un argomento che ha suscitato crescente preoccupazione tra i legislatori. “Stanno distruggendo vite umane e minacciando la democrazia. Queste aziende vanno domate e il peggio deve ancora venire”, ha accusato il senatore repubblicano della South Carolina Lindsey Graham riferendosi alle Big Tech. Il livello dello scontro politica-imprese rimane alto e, per una volta, sembra essere bipartisan. «La costante ricerca, da parte delle aziende, del profitto rispetto alla sicurezza di base mette a rischio i nostri figli e nipoti», ha detto il presidente della commissione Giustizia Dick Durbin, senatore democratico eletto nell’Illinois.
Parole accolte dagli applausi di decine di genitori con le foto dei loro bambini morti o traumatizzati dai social.
Questa udienza ha seguito una serie di eventi preoccupanti che hanno coinvolto minori e l’uso dei social media.
Mark Zuckerberg, CEO di Meta, gruppo che riunisce Facebook, Instagram, Messenger e WhatsApp, ha porto le proprie scuse alle famiglie i cui figli sono stati vittime dei social media. Questo gesto è stato ampiamente riportato dai media e ha suscitato un’ampia discussione.
L’elemento più estremo di personalizzazione, tuttavia, sono gli assistenti digitali: Alexa, Siri, Google Assistant. Secondo la UE, ci sono circa 4,2 miliardi di assistenti in esercizio (ognuno di noi ne ha più d’uno).
Google ha annunciato che lancerà un nuovo assistente: Gemini, che abbina a Google Assistant il programma più avanzato di Ai di cui dispone. Google lo chiama Tutor personale, che dovrebbe assisterci in ogni aspetto della nostra vita.
Mark Andreesen (l’inventore del browser), nello spiegare come l’AI “salverà il mondo”, ci dice:
- “ogni bambino avrà un tutor di intelligenza artificiale che è infinitamente paziente, infinitamente compassionevole, infinitamente competente, infinitamente utile. Il tutor AI sarà al fianco di ogni bambino in ogni fase del suo sviluppo, aiutandolo a massimizzare il suo potenziale con la versione macchina dell’amore infinito;
- ogni persona avrà un assistente/allenatore/mentore/allenatore/consulente/terapista AI che è infinitamente paziente, infinitamente compassionevole, infinitamente competente e infinitamente disponibile. L’assistente AI sarà presente in tutte le opportunità e sfide della vita, massimizzando i risultati di ogni persona”.
La stessa cosa è stata ribadita dal CEO di Google.
Assistiamo all’utopia dell’assistente che risponde ad ogni nostra domanda che diviene realtà.
Non credo alle teorie di Andreesen, anche se devo ammettere che le sue previsioni, in passato, si sono rivelate quasi sempre corrette.
Il tema è: il modello di business delle piattaforme attuali, per quanto personalizzate, è la pubblicità e la vendita. Ma quello degli assistenti personalizzati quale sarà?
Una possibile risposta sta proprio nel modello di business del “capitalismo della sorveglianza” che, applicato all’AI, rischia di intensificare l’estrazione dei dati personali e la manipolazione degli utenti attraverso relazioni sintetiche.
Oltretutto strumenti così potenti saranno controllati da soggetti privati: il timore di una manipolazione delle scelte individuali non è peregrino, come l’ipotesi che l’azione sfugga di mano generando conflitti.
Azeem Azhar esperto globale di intelligenza artificiale e tecnologie “dirompenti”, ha chiesto ad una serie di personaggi della Silicon Valley le probabilità che l’AI uccida tutta l’umanità. Secondo Musk, il 20/30%. Secondo Dario Amodei, ex vicepresidente della ricerca in Open AI ed ora co-fondatore e amministratore delegato di Anthropic, la società dietro il modello di chatbot/linguaggio Claude, il 10/25%. Secondo Geoffrey Hinton, ecx Google, psicologo cognitivo e scienziato informatico britannico-canadese, considerato il pioniere delle ricerche sull’apprendimento profondo e le reti neurali, il 10%. Secondo Lina M. Khan, presidente della Federal Trade Commission degli Stati Uniti, il 10%. La media degli altri ricercatori sondati sul tema è del 30%.
Occorre uno spirito critico verso la tecnologia, perché il potere enorme di queste piattaforme venga regolato.
Con il Regolamento (UE) 2022/1925 “Digital Markets Act” l’Unione Europea ha tentato di limitare i comportamenti anticoncorrenziali da parte delle grandi piattaforme online, definite “gatekeeper”, società che controllano l’accesso a importanti piattaforme digitali, come motori di ricerca, social network, sistemi operativi, e mercati online, e che possono agire come veri e propri “cancelli” attraverso cui merci, servizi e informazioni devono passare per raggiungere i consumatori. Tra i divieti, quello di combinare dati personali raccolti attraverso i loro servizi con altri dati senza il consenso esplicito degli utenti e l’obbligo di consentire agli utenti di disinstallare qualsiasi software o app preinstallati.
La Commissione europea ha designato per la prima volta sei gatekeeper, ossia Alphabet, Amazon, Apple, ByteDance, Meta e Microsoft.
È un errore appaltare le nostre attività di pensiero creativo e critico alle macchine generative. Ma abbiamo l’occasione per rilanciare la conversazione su come decidiamo ciò che vale.
Il tema è non solo etico, ma anche “politico”: le 5 big tech che sviluppano i modelli di AI sviluppano congiuntamente un volume d’affari pari al quarto PIL del mondo e possono disegnare un futuro.
Diventa necessario investire in cultura.
L’adozione delle tecnologie di AI non è scontata e richiede accettazione esplicita e cultura da parte delle persone.
La tecnologia procede senza bisogno di convincere, dato che le innovazioni si adottano naturalmente nel tempo, ma l’AI rappresenta un’eccezione, poiché è un fatto di cultura, di costruzione/interpretazione del mondo, che può generare una potenziale resistenza o rigetto da parte della società, ovvero una sua acritica accettazione, con effetti manipolatori.
Quindi, l’impegno è quello di dotarci degli strumenti adatti a capire.
Anzi, chi la utilizza dovrà «pensare di più»: vuol dire che l’attività di interpretazione, senso, valutazione, deve rimanere propria delle persone. Famiglie, scuola, imprese, P.A., associazionismo, dovranno coltivare l’intelligenza individuale e collettiva. Perché? Per utilizzare al meglio la AI, porre le «domande giuste» e mantenere il pensiero critico necessario a valutarne le risposte!
Le persone, inclusi gli addetti ai lavori, non conoscono a fondo l’AI, in parte proprio a causa della velocità di sviluppo tecnologico, che supera la capacità di assorbimento culturale della società. C’è bisogno di un approccio multidisciplinare per comprendere l’AI, spiegando che la cultura è il mezzo principale per elaborare e trasmettere concetti, per cui chi lavora nel settore dell’AI dovrebbe ascoltare e incorporare le percezioni culturali per migliorare sviluppo e accettazione sociale delle tecnologie.
L’AI diventa inevitabilmente parte integrante della cultura e della costruzione del mondo, per cui dovrebbe essere compresa attraverso strumenti culturali adeguati. Anzi, si dovrebbe prestare maggiore attenzione all’intersezione tra essa e la cultura, in particolare riguardo all’impatto dei prodotti e servizi AI sulla nostra vita.
Un’ulteriore considerazione: ricordiamo che le tecnologie riguardano il «come» fare qualcosa
Il «perché» farlo attiene alla valutazione dei nostri bisogni. Se abdichiamo a questa valutazione, il «come» prevarrà e chiederemo alla tecnologia di compiere azioni solo perché ne è in grado. Questo è già successo con i Social Media. Con la AI sarebbe particolarmente pericoloso.
- Regolamentazione e futuro.
L’UE, con l’AI Act, cerca di garantire un uso responsabile dell’AI, ma restano incognite sull’innovazione e la competitività. L’AI rappresenta una trasformazione epocale che richiede regolamentazione efficace e consapevolezza collettiva per bilanciare progresso tecnologico ed equità sociale.
L’ascesa del capitalismo della sorveglianza e lo sviluppo dell’intelligenza artificiale sono fenomeni strettamente intrecciati. Le grandi aziende tecnologiche hanno utilizzato l’AI per raccogliere, analizzare e monetizzare i dati personali su scala globale, incrementando il controllo sulle scelte degli utenti e ridefinendo i rapporti di potere nell’economia digitale.
L’intelligenza artificiale è il motore che consente al capitalismo della sorveglianza di evolversi e perfezionarsi, rendendo i sistemi predittivi sempre più sofisticati. Gli algoritmi di deep learning analizzano enormi quantità di dati comportamentali per influenzare decisioni individuali, modellare preferenze e massimizzare il coinvolgimento degli utenti sulle piattaforme digitali. Questo processo alimenta non solo la personalizzazione estrema dei contenuti, ma anche le strategie di microtargeting pubblicitario e la manipolazione delle interazioni online.
Le implicazioni etiche e sociali di questa convergenza sono profonde:
- espansione della sorveglianza: l’AI amplifica le capacità di monitoraggio e analisi dei comportamenti, riducendo la privacy degli individui;
- concentrazione del potere: poche aziende dominano il mercato dell’AI e dei dati, rafforzando il loro monopolio economico e decisionale;
- Bias algoritmico e discriminazione: i modelli AI, addestrati su dataset imperfetti, possono perpetuare e amplificare pregiudizi sociali e culturali;
- dipendenza tecnologica: l’integrazione dell’AI nei processi decisionali umani può portare a una delega crescente di responsabilità alle macchine, con conseguenze impreviste.
Di fronte a queste sfide, il dibattito sulla regolamentazione dell’AI e sulla trasparenza nell’uso dei dati diventa cruciale. L’UE, con l’AI Act, cerca di imporre norme per garantire un equilibrio tra innovazione e tutela dei diritti individuali, ma la velocità con cui le tecnologie avanzano richiede un adattamento costante delle politiche di governance.
L’intelligenza artificiale e il capitalismo della sorveglianza non possono essere considerati separatamente: l’uno alimenta l’altro in una dinamica che ridefinisce il modo in cui viviamo, lavoriamo e interagiamo. Comprendere questa interdipendenza è essenziale per sviluppare soluzioni che preservino la libertà individuale e promuovano un uso etico della tecnologia.
Conclusione
Il capitalismo della sorveglianza rappresenta una delle trasformazioni più radicali del XXI secolo, con implicazioni economiche, sociali e politiche ancora poco comprese. Mentre la tecnologia continua a evolversi, la sfida principale sarà bilanciare innovazione e diritti umani, garantendo che il progresso digitale non diventi un mezzo di controllo totale della società.
PAOLO POLETTI

Dopo aver letto i tre articoli, posso affermare che è stata condotta un’analisi lucida e approfondita sull’argomento. Questa lettura ha rafforzato ulteriormente la mia convinzione di come il mondo, e tutti noi, stiamo diventando sempre più marginali rispetto al potere concentrato in poche mani—che siano tre, cinque o dieci individui. I più potenti, attraverso una manipolazione algoritmica sempre più sofisticata, stanno veicolando informazioni micro-targettizzate, specifiche e mirate, progettate per “colpire” ogni tipologia di gruppo sociale. Qual è l’obiettivo finale? Influenzare il consenso elettorale, quello stesso consenso che li legittima a governarci e a proclamare: ‘È la democrazia, bellezza!’ M.R.
"Mi piace""Mi piace"
la storia che ci profilano per poi proporci nuovi acquisti consoni al nostro profilo non sarebbe una novità assoluta, una buona commessa cerca istintivamente di profilare la sua cliente e proporle abiti che possano piacerle, ma in più è capace di blandirla, cosa che la Ai per il momento non fa.. Almeno quando compro un abito non mi dicono che mi sta bene ( e magari è una bugia) né insistono, sempre per ora..
"Mi piace"Piace a 1 persona