martedì 25 settembre 2018

Una riflessione sull’articolo di Andrea Daniele Signorelli “Quanto è intelligente un’intelligenza artificiale? Lo scoprirà DeepMind” apparso su La Stampa il 15/8/18.

Una riflessione sull’articolo di Andrea Daniele Signorelli “Quanto è intelligente un’intelligenza artificiale? Lo scoprirà DeepMind” apparso su La Stampa il 15/8/18.

Gentile direttore,
uno dei rischi che si assume una testata giornalistica come la sua è quello di diffondere notizie non corrispondenti a verità, prestandosi - seppur inconsapevolmente - ad esser usata come “gran cassa” non solo di “fake news” (contro le quali iniziano ad esser operativi strumenti informatici specifici che permettono di circoscriverne la fonte), ma pure di “bias” (letteralmente questo termine si traduce con “pregiudizi”) nel senso che mi appresto a spiegarle.

Spesso i cosiddetti bias si manifestano come “verità” dai contorni non ben definiti, e quindi adattabili all’interpretazione personale - cioè all’opinione - di chi scrive l’articolo.

Mi sono deciso a mandarle questa mia riflessione dopo aver letto il pezzo di A.D.Signorelli che tratta di IA (Intelligenza Artificiale) e di come misurarne il grado di “intelligenza” raggiunto.

La notizia corretta che il giornalista cerca di trasmettere è che DeepMind (Google) ha provato a definire un protocollo standard per misurare il grado di adattabilità di una IA ad un contesto generale.
Nel testo dell’articolo questa capacità è indicata - dal giornalista o dalla fonte - come “intelligenza”.
È da sottolineare che tra gli addetti ai lavori non c’è consenso unanime sul significato di questo termine: ad esempio Max Tegmark, fondatore del “Future of life Institute” (ed autore del saggio “Vita 3.0, essere umani nell’era dell’IA”), definisce “intelligenza” la capacità di realizzare fini complessi, smarcandosi così da un contesto troppo antropocentrico.

Già oggi esistono numerose IA che, addestrate da learners specifici su grandi quantità di dati (big data), superano le capacità “umane”, ma solo in determinati contesti, quali ad esempio vincere a scacchi (Deep Blue) a Go (alphaGO), a Jeopardy (IBM Watson) o - con risultati non sempre brillanti - in ambito finanziario.
Presto riusciranno altrettanto bene in compiti complessi come guidare un veicolo nel traffico: la tecnologia dell’auto a guida completamente autonoma è già disponibile come sappiamo dai media, tuttavia devono esser risolti problemi “etici” (in caso di situazioni impreviste che coinvolgano passeggeri e persone terze, l’IA potrebbe esser costretta a scegliere chi tutelare) e “legali” (di chi è la responsabilità in caso di incidenti?) per una omologazione sulle nostre strade.

Gli esempi appena citati sono tutti relativi ad IA definite “a intelligenza ristretta”, e cioè capaci di raggiungere un insieme limitato di fini.

Una IA che vinca a Go contro un campione umano è stata creata ed addestrata con uno specifico learner per portare a termine questo compito, non ad esempio vincere a scacchi: Alpha zero, una versione modificata di AlphaGo, è “diventata” campione di scacchi solo in seguito ad una sessione di deep learning specifico che l’ha ricondizionata (ed ora è finalizzata al gioco degli scacchi e non a quello del Go)

Invece una cosiddetta IAG, che sia cioè utilizzabile in tutti i contesti (dove G sta per “general”), pur con capacità inferiori a quelle umane, non è ancora stata creata ed è oggetto di ricerche in tutto il mondo (cfr “L’algoritmo definitivo” di Pedro Domingos)

Altro grande limite delle IA attualmente esistenti è costituito dal fatto che “non sanno ancora imparare da sole” (autonomia del processo di apprendimento): anche se non comprendiamo del tutto il funzionamento dei deep learners, siamo comunque noi umani a programmarli e quindi in ultima analisi ad “insegnare” alle IA.
Il passaggio chiave ad IA di ordine superiore consisterà proprio nel superamento di questo limite: da “intelligenza ristretta” ad “intelligenza generale” definita da Tegmark come “la capacità di raggiungere qualsiasi fine, compreso l’apprendimento”.

La forzatura del suo giornalista sta invece nell’ultimo paragrafo: è un vero concentrato di banalità e pregiudizi che squalifica il valore dell’informazione contenuta nell’intero testo precedente.

I Bias sono qui relativi all’attualissimo dibattito all’interno della comunità scientifica relativo ai problemi di sicurezza connessi al futuro sviluppo di IAG di livello “umano” e “super intelligenza”, cioè AI che sappiano adattarsi alla maggior parte dei contesti e che grazie ai learners (che in una fase successiva le IAG potrebbero creare autonomamente) sviluppino rapidamente competenze superiori a quelle degli esseri umani, presumibilmente incomprensibili per il nostro intelletto limitato.

La favoletta dei robot intelligenti che si ribellano ai propri creatori - richiamata nell’articolo - continua a funzionare dal punto di vista giornalistico per la presa che ha sul pubblico, ma basta un poco di ragionamento logico per sfatare questa moderna leggenda metropolitana: 
perché mai una AI di alto livello dovrebbe volersi “incarnare” in un robot, imponendosi da sola vincoli spaziali potenzialmente pericolosi per la sua stessa sopravvivenza?
Una IA non ha bisogno di un luogo fisico delimitato (robot, cyborg o quant’altro): è infatti costituita da informazione (un algoritmo) che può risiedere ovunque nel cloud e replicarsi innumerevoli volte in ogni luogo dove esista un computer connesso con internet. E sempre tramite la rete interagire con dispositivi meccanici e/o esseri umani fisicamente collocati ovunque nel mondo.
Il raggio d’azione sarebbe ben più ampio di quello di un semplice robot!

Piuttosto società integrate come le nostre potrebbero risultare facile preda di una IA malevola: dotata di capacità che superano le nostre in ogni campo, non le sarebbe difficile dominarci e manipolarci senza  consapevolezza da parte nostra (come d’altronde l’uomo ha prevalso su predatori fisicamente più forti ma con un’intelligenza meno flessibile)

Tuttavia perché mai una IA dovrebbe esser malevola? 
Ancora una volta pecchiamo di antropocentrismo! 

Piuttosto una IA potrebbe “fare del male” alla nostra specie (umana) qualora i suoi fini fossero (o divenissero) divergenti rispetto ai nostri.
Fini che potrebbero esserle stati assegnati da persone fisiche (un dittatore, un errore di logica nella programmazione come nel famoso caso di HAL9000, un esperimento mal
pianificato come a Chernobyl) oppure risultato di una mutazione rispetto a quelli originali determinata dalla stessa IA, una volta che abbia acquisito la capacità di apprendimento autonoma: del resto anche noi umani nel corso della storia abbiamo cambiato spesso i nostri fini adattandoli ai nuovi valori delle nostre società in evoluzione.

Nella progettazione di una diga non ci si preoccupa della sorte di un formicaio: così una IA “super umana” potrebbe causare danni all’umanità (ad esempio utilizzando gran parte delle risorse energetiche, idriche e materie prime del nostro pianeta) per il perseguimento di un fine “superiore” in conflitto con la nostra esistenza.
(Anche le bombe H in un certo senso perseguono un fine simile, ma sono incapaci di autonomia: i droni guidati da una IA che sceglie in autonomia i propri bersagli - già progettati sulla carta - invece si).

A questo punto dobbiamo parlare di concetti complessi come “consapevolezza“ e “coscienza” e chiederci se siano abbastanza universali da potersi applicare ad intelligenze artificiali che sicuramente seguiranno un percorso evolutivo diverso da quello che ci ha portati a divenire l’attuale specie dominante.

L’auto a guida autonoma che trova improvvisamente sul suo percorso un pedone e non ha possibilità di rallentare evitando la collisione deve sacrificare il conducente uscendo di strada oppure la vita della persona investita? Fa differenza se si tratti di un adulto o di un bambino? Un bianco o un nero? Un conducente ubriaco o sobrio?
Sono domande difficili cui tuttavia dobbiamo saper rispondere oggi MENTRE vengono creati i presupposti tecnologici alle future AI

La sfida è quindi programmare oggi il nostro futuro: le IA saranno sempre più importanti perché rappresentano una soluzione efficiente per l’evoluzione. 
Prima o poi avranno abbastanza autonomia e potere per imporsi fini che possono cambiare con il tempo.
Dobbiamo oggi individuare fini allineati con i nostri e trovare un modo per evitare lo sviluppo di IA con fini divergenti (concordare tutti quanti una specie di moratoria come quella che ha funzionato abbastanza bene con le armi chimiche e biologiche)

Per ultima cosa vorrei evidenziare un aspetto che la tocca da vicino in quanto parte in causa: I rapporti tra stampa e la comunità scientifica che si interroga sulla sicurezza nello sviluppo di AIG si sono da tempo deteriorati a causa di frequenti fraintendimenti (tipo quelli appena evidenziati). Spesso i giornalisti, privi di una cultura specialistica, estraggono frasi ad effetto da contesti specifici, travisandone cosi il significato originale.

Basti pensare che in occasione della prima conferenza sulla sicurezza nello sviluppo futuro di IA (AI safety conference Portorico 2015) la più grossa preoccupazione per gli organizzatori è stata quella di “non richiamare l’attenzione della stampa” (sic) evitando di usare nei titoli delle singole conferenze termini che potrebbero esser “accattivanti” per il pubblico.

Un’altra leggenda è che Elon Musk, Stephen Hawking ed altri mostri sacri sarebbero contrari allo sviluppo di IA di livello superiore perché temono un asservimento (riduzione in schiavitù) della stirpe umana: in realtà non hanno affermato nulla di più di quanto ho cercato fin qui di spiegare.
Dobbiamo interrogarci OGGI su quello che vogliamo siano le IA di domani: cercare soluzioni PRIMA che le IAG siano realizzare affinché i nostri fini ed i loro siano sempre convergenti.
Siamo noi gli artefici del nostro futuro e l’eventuale estinzione della stirpe umana (con la perdita definitiva della nostra “dote cosmica”, vedi sull’argomento la già citata “Vita 3.0” di Max Tegmark) non sarà dovuta a cause esterne come l’improvvisa comparsa di una IA malevola, ma a scelte nefaste operate da uomini che, per un vantaggio di breve periodo, un errore od un atto folle, comprometteranno il nostro futuro come specie.

Nulla di diverso rispetto a quanto è successo con l’energia atomica: nessun componente della comunità scientifica ha mai auspicato lo stop agli studi sulla struttura dell’atomo, ma molti si sono opposti all’utilizzo del know how acquisito per la realizzazione delle bombe A ed H (interessante trovare tra i loro nomi parecchi scienziati tedeschi che operavano sotto la dittatura di Hitler e che, assumendosi notevoli rischi personali, hanno attuato una sorta di moratoria rallentando lo sviluppo di un ordigno nazista)

Mi farebbe piacere proseguire questo dialogo a distanza con Lei, per email o altro mezzo, e sapere la sua opinione in merito 

Cordiali saluti

Davide Molina

Nessun commento:

Posta un commento

Elenco progetti.

2020  La frequenza dei numeri palindromi nelle diverse basi (numerazione binaria, terziaria,.. decimale, esadecimale)                 Espa...