Primo contributo su IA- Definizione di base. Algoritmo, definizione e nuove caratteristiche

di MATTEO VECCHI ♦

 

Questo primo contributo risulterà un po’ tecnico ma ritengo sia necessario chiarire dei concetti di base prima di procedere con ulteriori riflessioni ed analisi che seguiranno nei prossimi numeri.

Buona lettura!

 

Il seguente contributo ha come obiettivo lo studio e l’approfondimento circa l’utilizzazione degli algoritmi, dei big data e del machine learning process all’interno del decision making process.

Ad oggi il legislatore sembra essersi limitato a circoscrivere l’attenzione sulla mera sostituzione del cartaceo – mediante l’utilizzo del digitale – introducendo garanzie formali e sostanziali assicurate anche per via dell’intervento del diritto europeo, spesso maggiormente capace di cogliere le implicazioni dovute all’utilizzazione di procedure digitalizzate, soprattutto ove il programma informatico incida su dati personali (si pensi al regolamento sulla tutela della privacy).

Risulta tuttavia necessario, al fine di procedere in maniera corretta, chiarire sin da ora come tutti e tre i termini di cui sopra siano strettamente interconnessi tra loro e conducano all’ampio genus della digitalizzazione. A tale scopo, sembra opportuno evidenziare le definizioni di tali concetti.

Con il termine “algoritmo” si intende una procedura utilizzata per risolvere un problema o eseguire un calcolo. Gli algoritmi agiscono come un elenco esatto di istruzioni che eseguono specifiche azioni in sequenza basate su hardware o software, sempre utilizzando un input iniziale unito a un set di istruzioni volto a produrre un determinato output. L’output è l’ultimo passaggio di un algoritmo e consiste normalmente nella produzione di nuovi dati numerici o letterali.

Per “big data” si intendono dei set di dati complessi, che contengono molteplici informazioni sui più svariati campi. Questi rappresentano il “nutrimento” dell’algoritmo, in quanto gli forniscono ciò di cui ha bisogno per poter arrivare alla produzione del risultato (appunto, l’output).

Il machine learning, infine, è un ramo dell’intelligenza artificiale (IA) e dell’informatica che si concentra sull’uso di dati e algoritmi per imitare il modo in cui gli umani imparano, migliorando gradualmente la precisione con la quale un hardware o software andrà ad eseguire un dato compito.

Di recente al machine learning si è affiancato il Natural Language Processing (NLP). Vi è una sostanziale differenza tra i due sistemi in quanto il primo lavora principalmente con i numeri e risolve problemi matematici coinvolgendo le tecniche numeriche, mentre il secondo rientra tra le tecnologie che analizzano il linguaggio e vengono maggiormente applicate nel campo dell’IA in quanto fanno uso di strumenti di calcolo a basso livello per creare un’intelligenza in grado di replicare ed emulare il comportamento ed il linguaggio umano.

 

Perché le procedure di profilazione sono diventate uno dei business più redditizi.

 

La profilazione, nell’ambito dell’informatica e del trattamento dei dati personali, si riferisce al processo di utilizzo di dati personali per analizzare, valutare o prevedere determinati aspetti riguardanti una persona.

In una giornata tipo, BlueKai (nota piattaforma di gestione e raccolta dati) conduce più di 75 milioni di aste online che coinvolgono informazioni personali. Questa società, rivendica la proprietà di 750 milioni di profili-utente di individui che navigano regolarmente in Internet, gestendo oltre 30.000 attributi relativi a questi utenti. BlueKai afferma la sua posizione come il più grande mercato di dati di terze parti al mondo, ma è solo una delle oltre mille aziende che partecipano al settore spesso definito “il nuovo petrolio”: i dati personali.

Il sorgere di problematiche legate ai dati personali, la loro commercializzazione ed il susseguente utilizzo da parte di terze parti apre scenari nuovi e di cui è difficile comprendere appieno gli effetti. Si pensi banalmente all’utilizzo e alla rielaborazione che viene fatta da parte delle piattaforme di streaming. Non basta riconoscere che i dati personali non sono semplicemente un bene commerciabile standard. Essi devono assurgere alla funzione di dogma. La strada intrapresa, tuttavia, non sembra essere questa.

Che il dato personale immateriale sia diventato un bene fungibile e spendibile è acclarato. Si pensi ai c.d. paywall sui siti d’informazione che consentono la lettura (invero parziale) dell’articolo solo dopo aver acconsentito alla raccolta dei dati mediante cookies..

Il Comitato Europeo per la Protezione dei Dati (EDPB) ha confermato questa posizione nelle sue linee guida sul consenso. A livello nazionale, alcuni Paesi, come la Germania, la Spagna e il Belgio, hanno vietato esplicitamente i cookie wall. Altri Paesi, come l’Italia, il Regno Unito e l’Irlanda, non hanno ancora preso una posizione definitiva. E tutto ciò nonostante risulti violato il principio del consenso libero, che è un principio fondamentale del GDPR.

I cookies possono contenere informazioni altamente sensibili e rivelatrici dell’identità di un individuo, ragion per cui il loro trattamento è soggetto ai vincoli legali imposti dalle normative sulla protezione dei dati e sulla privacy.

In molti paesi, la privacy e il diritto di determinare l’utilizzo delle proprie informazioni personali sono considerati diritti fondamentali.

Secondo il Data Bridge Market Research, il mercato della garanzia dei servizi di telecomunicazioni (TSA) crescerà a un TCCA del 9,80% dal 2022 al 2030, da 6,77 miliardi di dollari a 14,31 miliardi di dollari. Diventa evidente, perciò, la necessità di garantire la matrice open source degli algoritmi che regolano il funzionamento e la trattazione dei dati sanitari dei dispositivi robotici, specialmente nel momento in cui tali dati possono essere trasmessi a terzi, che siano professionisti o tecnici. È possibile immaginare di richiedere ai produttori degli apparecchi l’invio delle istruzioni e dei codici sorgente a un’organizzazione pubblica (come l’EMA).

Si delinea, quindi, una prospettiva secondo la quale risulta più saggio parlare di controllo sui dati personali piuttosto che di proprietà. Il Garante europeo della protezione dei dati già in un parere del 2015 ha evidenziato l’inadeguatezza del concetto giuridico di proprietà nel cogliere tutti i profili sensibili dei dati personali. Tale parere non a caso propone l’utilizzo di diversi strumenti concettuali (e tecnici), come la creazione di archivi di dati personali accessibili solo ai soggetti autorizzati (secondo un principio già esistente nell’ordinamento dell’Unione Europea).

Occorre, dunque, trovare soluzioni tecniche e giuridiche in grado di tutelare la dignità dell’individuo e il suo diritto all’autodeterminazione, al contempo garantendone la capacità.

Inevitabile, quindi, la necessità di dialogo con i c.d. gate keepers, soggetti fondamentali nella gestione e nella raccolta dei dati nonché nella promozione e adozione degli algoritmi stessi, in quanto sfruttano quella che sta a tutti gli effetti diventando una situazione di monopolio tra superpotenze e di possibile conflittualità con le istituzioni nazionali e sovranazionali.

 

All’interno del prossimo contributo analizzeremo un po’ più da vicino i server e come sia cambiato il rapporto tra pubblico e privato nella dimensione digitale. Grazie per aver letto fin qui!

MATTEO VECCHI