Social e digital, l'esperto Matteo Grandi: l'algoritmo decide per noi, ecco come salvarci

Mercoledì 16 Dicembre 2020 di Matteo Grandi
Social e digital, l'esperto Matteo Grandi: l'algoritmo decide per noi, ecco come salvarci

Gli algoritmi oggi fanno parte della nostra vita. La porta d’ingresso principale sono stati i social. Ma non solo: anche i nostri acquisti online, il frigorifero smart che fa la spesa al posto nostro, il navigatore... Pensare di cambiare gli algoritmi è una piccola utopia. Però possiamo cambiare noi. Possiamo modificare i nostri bìas cognitivi per avere il sopravvento sulle macchine e per evitare che l’intelligenza artificiale, che promette grande potenziale ma nasconde innumerevoli rischi, possa invece avere il sopravvento su di noi. Oggi, come scrive molto lucidamente Massimo Chiriatti nel suo “Humanless” (Hoepli), gli algoritmi stanno diventando egoisti. L’impatto che hanno sulle nostre vite è dirompente. Lo spiega bene anche un altro saggio, quello di Ed Finn, direttore del Center for Science and Immagination all’Università dell’Arizona, intitolato “Che cosa vogliono gli algoritmi” (Einaudi).

E il punto focale è sempre lo stesso: dall’uso del navigatore a quello della carta di credito cediamo costantemente agli algoritmi la gestione delle funzioni amministrative delle nostre esistenze. Una quantità infinita di dati sensibili.

Il libro di Finn spaziando da “Snow Crash” di Neal Stephenson all’“Encyclopédie” di Diderot, da Adam Smith al computer di Star Trek, esplora il divario tra orizzonte teorico ed effetti pratici, esaminando lo sviluppo degli assistenti intelligenti come Siri, l’estetica algoritmica di Netflix, la rivoluzionaria economia dei bitcoin, le mappe di Uber, la crescita esponenziale di Facebook o l’obiettivo di Google di anticipare ogni nostra esigenza e intenzione e molto altro ancora. Perché in fondo il tema è questo: gli algoritmi scelgono per noi ma, contestualmente, ci portano a scegliere ciò che vogliono loro. Come fanno? Attraverso l’intelligenza artificiale e grazie ad aggiustamenti marginali dei pesi numerici che gli permettono di analizzare i dati a una velocità non sostenibile dagli umani. Ecco il primo vulnus: quei dati sono analizzati in assenza di contesto. All’algoritmo mancano per definizione le valutazioni soggettive, qualitative ed etiche che sono alla base delle decisioni umane. Ma visto che l’algoritmo impara a una velocità esponenziale e manca della consapevolezza del contesto, la sua crescita comporta un alto rischio di deviazioni ed errori destinati a propagarsi velocemente.

Il telescopio più potente del mondo parla italiano: sarà attivato nel 2025 nel deserto di Atacama in Cile

Xiaoice, la fidanzatina virtuale più desiderata della Cina, “intontita” dopo aver iniziato a fare sexting

Tornando a Massimo Chiriatti, una sua ragionata analisi: «Spesso citiamo il potere dei dati paragonandoli alla ricchezza per chi possiede il petrolio, ma esso si è generato dalla stagnazione secolare di fossili ed è in quantità finite. I dati, invece, sono illimitati e si creano esponenzialmente dall’azione di macchine e persone. Dal lato della qualità, una goccia di petrolio è uguale all’altra. Mentre il dato ha sempre una storia, non è fungibile: ognuno è diverso dall’altro. I dati sono beni immateriali e quindi impalpabili, per ottenere valore dalla loro personalizzazione dobbiamo elaborarli per estrarre informazioni e ottenere la conoscenza desiderata». In pratica i dati per poter avere valore devono essere utilizzati il più presto possibile. Ed è proprio qua che il fattore umano si fa rilevante. Per attenuare il rischio dell’egoismo degli algoritmi è necessario monitorare costantemente che i risultati elaborati dalle macchine siano neutri ovvero non influenzati dall’autore o dai contenuti. Di fatto questa attività di vigilanza è l’aspetto strategicamente più sensibile dell’intera catena perché è l’unico elemento che può riportare al centro il giudizio umano. E se la decisione ultima è rimessa al giudizio umano quel giudizio avrà sempre più valore. In caso contrario anche un algoritmo estremamente efficiente può ingenerare problemi sociali. Per la semplice ragione che il suo funzionamento non è finalizzato all’interesse dell’individuo o all’utilità sociale, ma solo all’efficienza sistemica e industriale di cui l’algoritmo è parte funzionale.

Come uscirne? Imparando a non utilizzare la tecnologia in modo passivo. Il primo passo è pretendere assoluta trasparenza circa l’uso dei dati utilizzati. Conoscere è la prima forma di autodifesa. Un’autodifesa che potremmo, paradossalmente, attuare con l’imprevedibilità: se fossimo particolarmente geniali o avessimo una personalità molto complessa o imprevedibile, non rientreremmo nelle formule programmate e con noi l’algoritmo sarebbe spuntato perché non sarebbe messo in condizione di leggere in modo coerente le nostre azioni online. Banalizzando: navigare su un sito che non ci interessa, mettere un like a un post che disapproviamo, non risolverebbe il problema degli algoritmi egoisti ma ci potrebbe tutelare dai meccanismi predittivi di algoritmi che hanno la pretesa di comprenderci e l’obiettivo di condizionarci.

© RIPRODUZIONE RISERVATA

Ultimo aggiornamento: 12 Maggio, 16:33 © RIPRODUZIONE RISERVATA
Potrebbe interessarti anche
caricamento

PIEMME

CONCESSIONARIA DI PUBBLICITÁ

www.piemmemedia.it
Per la pubblicità su questo sito, contattaci