Parlare, interagire, esprimere opinioni, negoziare. Capacità che erano considerate prerogative dell'uomo. Eppure la cosiddetta intelligenza artificiale, basata sull'idea di...
OFFERTA SPECIALE
OFFERTA SPECIALE
OFFERTA SPECIALE
Tutto il sito - Mese
6,99€ 1 € al mese x 12 mesi
Poi solo 4,99€ invece di 6,99€/mese
oppure
1€ al mese per 3 mesi
Tutto il sito - Anno
79,99€ 9,99 € per 1 anno
Poi solo 49,99€ invece di 79,99€/anno
È un po' come quando due bambini sviluppano tra loro una sorta di linguaggio in codice per non farsi capire dagli adulti o per gioco. Ciò avviene perché proprio nei più piccoli l'utilizzo e le regole dell'espressione sono meno radicate, il che li rende creativi. Se ciò accade nelle macchine, è perché chi le ha programmate non ha insegnato a rispettare le regole della grammatica e della sintassi. È ciò che è accaduto a Bob e Alice, i due chatbot (robot che interagiscono) di Facebook.
Il fine dell'esperimento che li riguardava era di far sì che ognuno di loro fosse in grado di negoziare con l'altro. Una capacità tipica dell'essere umano, perché non prevede solo una conoscenza approfondita del linguaggio, ma anche una serie di valutazioni tratte dal vissuto: contrattare vuol dire saper gestire un conflitto, insistere, mentire o esagerare e infine trovare un compromesso. Compiti complessi che Alice e Bob stavano imparando a svolgere. Perciò le due macchine sono state messe l'una di fronte all'altra, e a forza di parlare e di confrontarsi, non avendo un limite imposto con precisione sono arrivate a esprimersi in un inglese sempre più simile a un linguaggio binario, solo che invece dell'1 e dello 0 a ripetersi erano una serie di parole. Ogni volta che un robot modificava un termine, l'altro lo imparava e lo registrava come regola da seguire, e in breve tempo il dialogo è diventato incomprensibile.
«Se l'idea che delle macchine possano inventare una loro lingua può sembrare allarmante per chi non è addetto ai lavori - ha spiegato in un post il ricercatore Facebook Dhruv Batra - è una circostanza già osservata in passato negli studi sull'intelligenza artificiale». Che sia una ragione sufficienti per stare tranquilli, è un altro discorso.
© riproduzione riservata
Leggi l'articolo completo su
Il Gazzettino