Una riflessione sull’articolo di Andrea
Daniele Signorelli “Quanto è intelligente un’intelligenza
artificiale? Lo scoprirà DeepMind” apparso su La Stampa il
15/8/18.
Gentile direttore,
uno dei rischi che si assume una testata
giornalistica come la sua è quello di diffondere notizie
non corrispondenti a verità, prestandosi - seppur
inconsapevolmente - ad esser usata come “gran cassa” non
solo di “fake news” (contro le quali iniziano ad esser
operativi strumenti informatici specifici che permettono
di circoscriverne la fonte), ma pure di “bias”
(letteralmente questo termine si traduce con “pregiudizi”)
nel senso che mi appresto a spiegarle.
Spesso i cosiddetti bias si manifestano
come “verità” dai contorni non ben definiti, e quindi
adattabili all’interpretazione personale - cioè
all’opinione - di chi scrive l’articolo.
Mi sono deciso a mandarle questa mia
riflessione dopo aver letto il pezzo di A.D.Signorelli che
tratta di IA (Intelligenza Artificiale) e di come
misurarne il grado di “intelligenza” raggiunto.
La notizia corretta che il giornalista
cerca di trasmettere è che DeepMind (Google) ha provato a
definire un protocollo standard per misurare il grado di
adattabilità di una IA ad un contesto generale.
Nel testo dell’articolo questa capacità
è indicata - dal giornalista o dalla fonte - come
“intelligenza”.
È da sottolineare che tra gli addetti ai
lavori non c’è consenso unanime sul significato di questo
termine: ad esempio Max Tegmark, fondatore del “Future of
life Institute” (ed autore del saggio “Vita 3.0, essere
umani nell’era dell’IA”), definisce “intelligenza” la
capacità di realizzare fini complessi, smarcandosi così da
un contesto troppo antropocentrico.
Già oggi esistono numerose IA che,
addestrate da learners specifici su grandi quantità di
dati (big data), superano le capacità “umane”, ma solo in
determinati contesti, quali ad esempio vincere a scacchi
(Deep Blue) a Go (alphaGO), a Jeopardy (IBM Watson) o -
con risultati non sempre brillanti - in ambito
finanziario.
Presto riusciranno altrettanto bene in
compiti complessi come guidare un veicolo nel traffico: la
tecnologia dell’auto a guida completamente autonoma è già
disponibile come sappiamo dai media, tuttavia devono esser
risolti problemi “etici” (in caso di situazioni impreviste
che coinvolgano passeggeri e persone terze, l’IA potrebbe
esser costretta a scegliere chi tutelare) e “legali” (di
chi è la responsabilità in caso di incidenti?) per una
omologazione sulle nostre strade.
Gli esempi appena citati sono tutti
relativi ad IA definite “a intelligenza ristretta”, e cioè
capaci di raggiungere un insieme limitato di fini.
Una IA che vinca a Go contro un campione
umano è stata creata ed addestrata con uno specifico
learner per portare a termine questo compito, non ad
esempio vincere a scacchi: Alpha zero, una versione
modificata di AlphaGo, è “diventata” campione di scacchi
solo in seguito ad una sessione di deep learning specifico
che l’ha ricondizionata (ed ora è finalizzata al gioco
degli scacchi e non a quello del Go)
Invece una cosiddetta IAG, che sia cioè
utilizzabile in tutti i contesti (dove G sta per
“general”), pur con capacità inferiori a quelle umane, non
è ancora stata creata ed è oggetto di ricerche in tutto il
mondo (cfr “L’algoritmo definitivo” di Pedro Domingos)
Altro grande limite delle IA attualmente
esistenti è costituito dal fatto che “non sanno ancora
imparare da sole” (autonomia del processo di
apprendimento): anche se non comprendiamo del tutto il
funzionamento dei deep learners, siamo comunque noi umani
a programmarli e quindi in ultima analisi ad “insegnare”
alle IA.
Il passaggio chiave ad IA di ordine
superiore consisterà proprio nel superamento di questo
limite: da “intelligenza ristretta” ad “intelligenza
generale” definita da Tegmark come “la capacità di
raggiungere qualsiasi fine, compreso l’apprendimento”.
La forzatura del suo giornalista sta invece nell’ultimo paragrafo: è un vero concentrato
di banalità e pregiudizi che squalifica il valore
dell’informazione contenuta nell’intero testo precedente.
I Bias sono qui relativi
all’attualissimo dibattito all’interno della comunità
scientifica relativo ai problemi di sicurezza connessi al
futuro sviluppo di IAG di livello “umano” e “super
intelligenza”, cioè AI che sappiano adattarsi alla maggior
parte dei contesti e che grazie ai learners (che in una
fase successiva le IAG potrebbero creare autonomamente)
sviluppino rapidamente competenze superiori a quelle degli
esseri umani, presumibilmente incomprensibili per il
nostro intelletto limitato.
La favoletta dei robot intelligenti che
si ribellano ai propri creatori - richiamata nell’articolo
- continua a funzionare dal punto di vista giornalistico
per la presa che ha sul pubblico, ma basta un poco di
ragionamento logico per sfatare questa moderna leggenda
metropolitana:
perché mai una AI di alto livello
dovrebbe volersi “incarnare” in un robot, imponendosi da
sola vincoli spaziali potenzialmente pericolosi per la sua
stessa sopravvivenza?
Una IA non ha bisogno di un luogo fisico
delimitato (robot, cyborg o quant’altro): è infatti
costituita da informazione (un algoritmo) che può
risiedere ovunque nel cloud e replicarsi innumerevoli
volte in ogni luogo dove esista un computer connesso con
internet. E sempre tramite la rete interagire con
dispositivi meccanici e/o esseri umani fisicamente
collocati ovunque nel mondo.
Il raggio d’azione sarebbe ben più ampio
di quello di un semplice robot!
Piuttosto società integrate come le
nostre potrebbero risultare facile preda di una IA
malevola: dotata di capacità che superano le nostre in
ogni campo, non le sarebbe difficile dominarci e
manipolarci senza consapevolezza da parte nostra (come
d’altronde l’uomo ha prevalso su predatori fisicamente più
forti ma con un’intelligenza meno flessibile)
Tuttavia perché mai una IA dovrebbe
esser malevola?
Ancora una volta pecchiamo di
antropocentrismo!
Piuttosto una IA potrebbe “fare del
male” alla nostra specie (umana) qualora i suoi fini
fossero (o divenissero) divergenti rispetto ai nostri.
Fini che potrebbero esserle stati
assegnati da persone fisiche (un dittatore, un errore di
logica nella programmazione come nel famoso caso di
HAL9000, un esperimento mal
pianificato come a Chernobyl) oppure
risultato di una mutazione rispetto a quelli originali
determinata dalla stessa IA, una volta che abbia acquisito
la capacità di apprendimento autonoma: del resto anche noi
umani nel corso della storia abbiamo cambiato spesso i
nostri fini adattandoli ai nuovi valori delle nostre
società in evoluzione.
Nella progettazione di una diga non ci
si preoccupa della sorte di un formicaio: così una IA
“super umana” potrebbe causare danni all’umanità (ad
esempio utilizzando gran parte delle risorse energetiche,
idriche e materie prime del nostro pianeta) per il
perseguimento di un fine “superiore” in conflitto con la
nostra esistenza.
(Anche le bombe H in un certo senso
perseguono un fine simile, ma sono incapaci di autonomia:
i droni guidati da una IA che sceglie in autonomia i
propri bersagli - già progettati sulla carta - invece si).
A questo punto dobbiamo parlare di
concetti complessi come “consapevolezza“ e “coscienza” e
chiederci se siano abbastanza universali da potersi
applicare ad intelligenze artificiali che sicuramente
seguiranno un percorso evolutivo diverso da quello che ci
ha portati a divenire l’attuale specie dominante.
L’auto a guida autonoma che trova
improvvisamente sul suo percorso un pedone e non ha
possibilità di rallentare evitando la collisione deve
sacrificare il conducente uscendo di strada oppure la vita
della persona investita? Fa differenza se si tratti di un
adulto o di un bambino? Un bianco o un nero? Un conducente
ubriaco o sobrio?
Sono domande difficili cui tuttavia
dobbiamo saper rispondere oggi MENTRE vengono creati i
presupposti tecnologici alle future AI
La sfida è quindi programmare oggi il
nostro futuro: le IA saranno sempre più importanti perché
rappresentano una soluzione efficiente per l’evoluzione.
Prima o poi avranno abbastanza autonomia
e potere per imporsi fini che possono cambiare con il
tempo.
Dobbiamo oggi individuare fini allineati
con i nostri e trovare un modo per evitare lo sviluppo di
IA con fini divergenti (concordare tutti quanti una specie
di moratoria come quella che ha funzionato abbastanza bene
con le armi chimiche e biologiche)
Per ultima cosa vorrei evidenziare un
aspetto che la tocca da vicino in quanto parte in causa: I
rapporti tra stampa e la comunità scientifica che si
interroga sulla sicurezza nello sviluppo di AIG si sono da
tempo deteriorati a causa di frequenti fraintendimenti
(tipo quelli appena evidenziati). Spesso i giornalisti,
privi di una cultura specialistica, estraggono frasi ad
effetto da contesti specifici, travisandone cosi il
significato originale.
Basti pensare che in occasione della
prima conferenza sulla sicurezza nello sviluppo futuro di
IA (AI safety conference Portorico 2015) la più grossa
preoccupazione per gli organizzatori è stata quella di
“non richiamare l’attenzione della stampa” (sic) evitando
di usare nei titoli delle singole conferenze termini che
potrebbero esser “accattivanti” per il pubblico.
Un’altra leggenda è che Elon Musk,
Stephen Hawking ed altri mostri sacri sarebbero contrari
allo sviluppo di IA di livello superiore perché temono un
asservimento (riduzione in schiavitù) della stirpe umana:
in realtà non hanno affermato nulla di più di quanto ho
cercato fin qui di spiegare.
Dobbiamo interrogarci OGGI su quello che
vogliamo siano le IA di domani: cercare soluzioni PRIMA
che le IAG siano realizzare affinché i nostri fini ed i
loro siano sempre convergenti.
Siamo noi gli artefici del nostro futuro
e l’eventuale estinzione della stirpe umana (con la
perdita definitiva della nostra “dote cosmica”, vedi
sull’argomento la già citata “Vita 3.0” di Max Tegmark)
non sarà dovuta a cause esterne come l’improvvisa comparsa
di una IA malevola, ma a scelte nefaste operate da uomini
che, per un vantaggio di breve periodo, un errore od un
atto folle, comprometteranno il nostro futuro come specie.
Nulla di diverso rispetto a quanto è
successo con l’energia atomica: nessun componente della
comunità scientifica ha mai auspicato lo stop agli studi
sulla struttura dell’atomo, ma molti si sono opposti
all’utilizzo del know how acquisito per la realizzazione
delle bombe A ed H (interessante trovare tra i loro nomi
parecchi scienziati tedeschi che operavano sotto la
dittatura di Hitler e che, assumendosi notevoli rischi
personali, hanno attuato una sorta di moratoria
rallentando lo sviluppo di un ordigno nazista)
Mi farebbe piacere proseguire questo
dialogo a distanza con Lei, per email o altro mezzo, e
sapere la sua opinione in merito
Cordiali saluti
Davide Molina
Nessun commento:
Posta un commento