giovedì 5 aprile 2029

venerdì 3 luglio 2020

"Gli astronomi sono tutti bastardi sferici": Zwicky, il precursore dell'energia oscura.


Nella galleria degli astronomi che si sono avvicendati all'osservatorio di Mount Wilson gestito dal Caltech, tra ritratti con pose serie o solenni - come si addice a uomini di scienza - spicca la smorfia di Fritz Zwicky, uno scienziato di origine svizzera ed "eroe incompreso" della materia oscura.


Zwicky, un soggetto difficile, decise si farsi ritrarre nella classica posa con cui accoglieva le matricole al Caltech di Pasadena, dove lavorò dal 1925 sino al 1974, l'anno della sua morte:

   "e tu chi diavolo sei?" era il suo benvenuto al povero malcapitato.

Pare ammettesse al proprio corso di fisica soltanto chi si mostrasse "sufficientemente devoto alle sue idee".

Non meno famoso era il suo detto: "gli astronomi sono tutti bastardi sferici; sferici perché da qualunque parte li si guardi rimangono sempre dei bastardi".
I quali ricambiavano definendolo un "irritante buffone", "genio autoproclamato", e così via.

Rileggendo le sue pubblicazioni non è raro trovarvi violenti attacchi verbali contro colleghi rei di aver espresso idee contrarie alle sue.

Negli anni '30 del '900 coniò il termine "stella di neutroni" ad indicare il possibile destino degli astri con massa superiore ad una determinata soglia, un valore che al termine del ciclo vitale impediva loro di collassare in nane bianche (visibili al telescopio ottico).
Aveva inventato questo concetto per spiegare i fenomeni ad altissima energia osservati dagli astronomi, le supernovae ed i raggi cosmici, ma lo riteneva utile anche a superare il "paradosso dei buchi neri" che infastidiva astrofisici ed astronomi del tempo: l'ipotesi, in seguito ad un collasso di corpi stellari con massa elevata, della formazione spontanea di oggetti astronomici con densità sufficientemente elevata tale da esprimere una forza gravitazionale in grado di impedire persino alla luce di sfuggirvi.

"Stelle di neutroni come cadaveri stellari" fu un'altra delle sue espressioni colorite.

Obiettivamente portava poche prove a sostegno della propria tesi, decisamente insufficienti a convincere buona parte dei suoi colleghi.
Con una mossa non convenzionale oggi in voga - soprattutto tra i virologi in tempo di Covid - si propose come primo "scienziato mediatico": non trovando sponda nel mondo scientifico decise di partecipare ad un programma radiofonico per pubblicizzare le proprie idee tra i non specialisti.
Dopo di lui, presentare al pubblico proprie tesi rifiutate dalla comunità scientifica è diventato un comportamento che accomuna molti uomini di scienza che sperano così di sfruttare l'effetto "ipse dixit" nei confronti di chi manca di conoscenze base per confutarle.

Nel corso degli anni '30 ed i primi anni '40 costituì con Walter Baade (astronomo arrivato dalla Germania) un affiatato duetto: condividevano lo stesso retroterra culturale, lingua e cultura tedesca, e mostravano massimo reciproco rispetto l'uno per l'intelligenza dell'altro.  
Questo tuttavia non impedì a Zwicky, durante la seconda guerra mondiale, di accusare pubblicamente Baade di essere un nazista (non lo era!): conoscendo bene il caratteraccio del primo, Baade per un certo periodo temette addirittura di venir ucciso dal collega.

Lavorarono alla definizione delle supernovae, termine da loro coniato di comune accordo, per indicare intensi lampi di luce osservati dai telescopi: a quei tempi - erroneamente - si credeva fossero esplosioni stellari avvenute all'interno della nostra galassia, ma negli anni '50 lo stesso Baade contribuì a rivelare fossero relative ad oggetti di altre galassie, con una potenza estrema (10^10 la luminosità del nostro sole).  
Zwicky e Baade intuirono un valore abbastanza corretto della potenza emessa, ma sbagliarono affermando che questa venisse trasportata da raggi ultravioletti e raggi X (oggi sappiamo che quasi tutta l'energia emessa viene trasportata dai neutrini).

Secondo Zwicky l'origine dell'enorme energia delle supernovae doveva esser ricercata nelle stelle di neutroni: l'implosione di una stella massiccia avrebbe comportato la contrazione del nucleo e la trasformazione della materia in gas di neutroni.
Oltre alla circonferenza si sarebbe così ridotta anche la massa di un valore pari al 10% rispetto a quello iniziale: questo differenziale si sarebbe trasformato in energia esplosiva contribuendo a riscaldare enormemente anche gli strati esterni della stella fino a farli esplodere e scagliarli nello spazio.  L'esplosione sarebbe coincisa con uno di quei lampi di luce che erano stati osservati e che lui e Baade chiamarono "supernovae".

Ma veniamo all'argomento di questo post: l'energia oscura.

L'astronomia - se escludiamo le recentissime tecniche di cattura dei neutrini e delle onde gravitazionali - si è sempre basata sulla raccolta e l'analisi della radiazione elettromagnetica: raggi gamma, raggi X, ultravioletti, luce visibile, infrarossa ed onde radio.
Già dai tempi di Galileo si sapeva tuttavia che "non tutto riluce": corpi freddi possono emettere pochissima radiazione, e di conseguenza - soprattutto se molto lontani - diventa impossibile rilevarne l'esistenza.
Quando Joseph Fraunhofer all'inizio dell'800 inventa lo spettrografo, improvvisamente un limite che pareva intrinseco alla natura umana - "non sapremo mai di cosa sia fatta una stella" - viene superato d'impeto.
L'analisi spettrografica, in certi casi, permette di confermare come la mancanza di luce possa significare la presenza di "materia oscura", quali polveri e gas che eclissano la visione di zone densamente popolate da stelle (spesso rilevabili come red shift relativi allo spettro degli astri retrostanti od dalla striatura dello stesso).
Verso la metà del secolo XIX Le Verrier ed Adams (indipendentemente l'uno dall'altro) intuirono il fatto che le masse perturbano i moti degli astri: fu così che venne identificato Nettuno, analizzando l'orbita di Urano.
Il termine "materia oscura" ha molti padri: dalla metà dell'800 in poi indicò un qualcosa dotato di massa sufficiente a perturbare i moti di astri e pianeti; fino a tempi relativamente recenti si pensò trattarsi di polveri, gas, pianeti oppure stelle in formazione.

Nel 1933, ed in seguito nel 1937, Zwicky pubblicò due articoli che segnano "il calcio di inizio" della partita relativa alla materia oscura, della quale ancora oggi si dibatte quale possa esserne la consistenza.
Analizzando i moti delle galassie notò come queste tendano a raccogliersi in ammassi, imprigionate dalla loro stessa gravità.
Ne concluse che le galassie, come i pianeti in orbita intorno ad una stella, si trovino a dover mantenere una determinata velocità per evitare sia di collassare tra di loro che di disperdersi nello spazio esterno.
Zwicky definì "teorema viriale" l'equilibrio tra massa e velocità che consente agli ammassi di rimanere stabili: stimando - con i mezzi ottici disponibili a quel tempo - quale fosse l'entità della massa relativa all'ammasso "Chioma di Berenice", concluse che il valore necessario a tenerlo insieme dovesse essere pari a 150 volte la massa degli oggetti visibili.

Anche questa volta molti "bastardi sferici" non lo presero sul serio.
Una delle critiche (corrette) sollevate in proposito alla sua ipotesi riguarda la presunta situazione di equilibrio in cui gli ammassi dovrebbero trovarsi, e della quale non c'è evidenza.

Per ottenere riscontri sarà necessario aspettare l'avvento dei radiotelescopi e l'individuazione della famosa "riga 21 cm".
Si tratta di una caratteristica dell'onda radio emessa da un atomo di idrogeno ogni volta che il suo elettrone inverte lo spin; situazione che capita una volta ogni dieci milioni di anni, ma dato il numero degli atomi di idrogeno in una galassia è un fenomeno frequente.
Le onde radio, a differenza della luce visibile, non vengono fermate da polveri o gas interstellari: in pochi anni vennero disegnate intere mappe celesti basate "sui 21 cm".

Analizzando i dati relativi ad altre galassie si scoprì in seguito che quelle a spirale - come la nostra via lattea - ruotano molto più velocemente di quanto previsto dalla legge di Keplero, dunque devono esser composte da una massa molto maggiore di quella visibile.

A questo punto Zwicky avrebbe potuto cantar vittoria ma ... guardate la sua foto: vi pare il tipo da accontentarsi?
Da vero bastian contrario qual'era sostenne - contro le sue stesse ipotesi - che una tal prova non era per nulla sufficiente a giustificare l'esistenza della materia oscura.

Solo nel corso degli anni '70 - quindi dopo la sua morte - Vera Rubin e Kent Ford effettuarono misure precise della velocità di rotazione della galassia "Andromeda" in punti a diversa distanza dal centro ("bulge") usando la tecnica del red shift.
Intuirono così che nelle galassie a spirale, in base alla rotazione osservata, per giustificarne la velocità fosse necessario stimare la presenza di una massa fino a 10 volte quella ricavabile dall'osservazione della radiazione elettromagnetica (nelle diverse lunghezze d'onda): tale massa doveva necessariamente esser distribuita su tutto il disco galattico, avvolgendolo in una probabile forma sferica.

Ancora una volta Zwicky aveva avuto un'intuizione corretta, anche se incapace di fornirne un adeguato supporto di prove empiriche.

"Mente sicuramente straordinaria, era tuttavia un poco ignorante in alcuni campi che invadeva d'impeto; privo di autocontrollo, talvolta si mostrava tozzo ed arrogante": è questa la sintesi della sua carriera che ne hanno fatto alcuni suoi allievi, diventati a loro volta astrofisici di razza.
Possiamo concludere affermando correttamente che Zwicky non conoscesse abbastanza bene le leggi della fisica per esser in grado di dimostrare la fondatezza delle proprie idee.
Oggi appare sorprendente che non si fosse accorto della connessione tra stelle di neutroni e buchi neri, cosa che avrebbe potuto intuire già nel 1933.

https://www.mtwilson.edu/mount-wilson-astronomers-2/


https://en.wikipedia.org/wiki/Fritz_Zwicky

venerdì 14 febbraio 2020

La frequenza dei numeri palindromi nelle diverse basi (numerazione binaria, terziaria,.. decimale, esadecimale)

Ho fatto uno errore! :-(     Ma posso rimediare :-)

In precedenza avevo erroneamente affermato che la frequenza relativa dei numeri palindromi a base dieci rispetto al totale dei numeri decimali rimane costante al 10%, indipendentemente dal numero di posizioni preso in esame ed a differenza di quanto accade qualora si considerino i palindromi nella numerazione binaria (la cui frequenza si dimezza ogni volta che vengono aggiunte due posizioni).

NB: con posizioni intendo la "lunghezza" di un numero: 10 si scrive in due spazi quindi 2 posizioni, 12300 in 5 spazi quindi 5 posizioni.

numerazione a base binaria (0 e 1 soltanto)   
2 posizioni    3 posizioni 
      10                 110         numeri non palindromi
      11                 101         numeri palindromi

numerazione a base decimale (da 0 a 9)
2 posizioni    3 posizioni
   43                 280          numeri non palindromi
   44                 454          numeri palindromi


totale numeri binari che possono esser scritti in 2 posizioni: 2  (10 e 11)
totale numeri binari che possono esser scritti in 3 posizioni: 4  (100, 101, 110 e 111)
totale numeri decimali che possono esser scritti in 2 posizioni: 90 (da 10 a 99)
totale numeri decimali che possono esser scritti in 3 posizioni: 900 (da 100 a 999)

Come il "tacchino induttivista" di Bertrand Russell, ho confidato che quanto verificato per un sottoinsieme di numeri valesse anche per l'insieme cui appartiene: è un errore di induzione, che mi da modo di raccontarvi qualcosa su come funziona la scienza e sulla sua attendibilità.
Nella favoletta di Russell, un tacchino viene portato in una nuova fattoria dove il cibo è distribuito ogni mattina alle 8:30.
Il tacchino è un tipo scrupoloso, aspetta sei mesi prima di decidersi ad affermare con sicurezza: "in questa fattoria mi danno da mangiare tutti i giorni della settimana alle 8:30".
Il poveretto non poteva sapere che proprio l'indomani, il giorno del ringraziamento, invece di ricevere cibo alla stessa ora gli sarebbe stato tirato il collo.

Verso la metà dello scorso secolo Karl Popper, filosofo della scienza, aveva individuato il punto debole del metodo scientifico.
Per quanti esperimenti si possano eseguire, sosteneva, non potrà mai esser raggiunta la certezza che un ulteriore esperimento non smentisca una teoria fino a quel momento verificata.
Intendeva cioè affermare che il metodo sperimentale possa soltanto invalidare una teoria, non dichiararla vera per sempre.
Unica eccezione è l'applicazione del metodo deduttivo, quello utilizzato nella dimostrazione dei teoremi matematici.
Ho già trattato questo argomento nel mio post su Bruno de Finetti (https://davidemolinapersonale.blogspot.com/2019/10/probabilita-certezza-ed-affidabilita.html).

Veniamo ora al mio errore ed alle sue cause.

Conteggiare la frequenza dei numeri palindromi in base binaria fino a 9 posizioni ha richiesto l'osservazione di 511 numeri binari.
Trovato il numero di palindromi corrispondenti a ciascuna delle posizioni da 2 a 9, e rapportatolo al totale dei numeri di ognuna, ottenni questa serie: 1/2 (2 posizioni), 1/2 (3 posizioni), 1/4 (4 posizioni), 1/4 (5 posizioni), 1/8 (6 posizioni), 1/8 (7 posizioni), 1/16 (8 posizioni), 1/16 (9 posizioni).
Ad ogni aumento di 2 posizioni, la frequenza dei palindromi sul totale si dimezza.  Avevo così ricavato la regola (già enunciata nel post precedente):
"partendo da 2 posizioni, dove osserviamo il 50% di numeri palindromi sul totale, abbiamo un dimezzamento della loro frequenza ogni volta che si aggiungono 2 posizioni".

Volevo poi capire cosa succedesse passando alla serie numerica con base decimale.
Immediatamente mi sono scontrato con la crescita esponenziale dei numeri da esaminare nella ricerca dei palindromi all'aumentare del numero di posizioni: l'osservazione dei numeri che si possono scrivere con 3 posizioni richiede l'analisi di un migliaio di essi (contro gli 8 se consideriamo la base binaria); proseguire l'indagine con i numeri a 4 posizioni significa esaminarne quasi 10.000.
Per questa ragione, relativamente ai decimali, mi ero fermato alla ricerca dei palindromi che si possono scrivere occupando fino a 3 posizioni, ed ho ottenuto le frequenze di 1/10 (2 posizioni) ed ancora di 1/10 (3 posizioni).
L'errore è stato pensare che tale frequenza valesse anche per un numero di posizioni maggiore: ho "indotto" che la regola riscontrata si potesse estendere a qualsiasi numero di posizioni.

Ma non è così.

Come mi sono accorto dell'errore?
Al termine del post precedente mi chiedevo quale fosse l'andamento delle frequenze nel caso di numeri palindromi espressi in notazione esadecimale (quella utilizzata dai sistemi operativi dei PC).
Non mi tornava il fatto che il sistema decimale dovesse avere qualcosa di speciale,  di "definitivo" (la frequenza sempre pari a 1/10), a differenza di quanto capitava usando il sistema binario: cosa sarebbe allora successo considerando le serie di numeri in base maggiore di 10?

Trattare numeri a base 11 richiede l'analisi di insiemi di numeri ancora più grandi di quelli necessari per i decimali.
Ho allora deciso di verificare cosa succeda nei sistemi a base intermedia: da 3 (sistema terziario) fino al 9 (sistema novenario).
In un foglio di excel ho creato una tabella con 1024 righe le cui colonne sono costituite dalle numerazioni nelle basi da 2 fino a 10.
Ho così potuto verificare che uno schema delle frequenze simile a quello rilevato per i palindromi binari (diminuzione dei valori percentuali delle frequenze di numeri palindromi ogni volta che aumenta di due unità il numero delle posizioni) lo si ritrova in tutte le numerazioni, anche se ad un "ritmo" diverso.

Ho ricavato - per ogni numero di posizioni - il totale dei numeri che sia possibile scriverci all'interno (con due posizioni, nel caso del sistema decimale possiamo scrivere i numeri da 10 a 99, e cioè 90 numeri); ecco la formula utilizzata:

      base del sistema numerico ^ numero di posizioni - base del sistema numerico ^ (numero di posizioni - 1)

che si può scrivere sinteticamente come:       B ^ N - B ^ (N - 1)

Ho poi contato quanti numeri palindromi si trovino per ogni numero di posizioni in ogni tipo di numerazione.
Rapportando infine questo numero sul valore calcolato B ^ N - B ^ (N - 1) ottengo la frequenza (dato un numero di posizioni, calcolo la percentuale di numeri palindromi sul totale dei numeri che si possono scrivere in quelle posizioni) .
Dal risultato ottenuto empiricamente (vedi immagine qui in fondo) ho ricavato la seguente formula che mi restituisce, per un sistema numerico a base B, la percentuale di palindromi P sul totale dei numeri che si possono scrivere in N posizioni:

                                                  1                                    
P =   -------------------------------------------------------------------------  
         base del sistema numerico ^| numero di posizioni / 2 |

                                                                              


                                                                           1
scritto in maniera più sintetica:     P =   ------------
                                                                    B ^ |N/2|

dove con |N/2| si intende solo la parte intera del risultato della divisione.


Difficile? No!!!!!!!

Mettiamolo in pratica:

caso 1:  quanti numeri binari palindromi ci sono tra i numeri binari che si possono scrivere in 7 posizioni (tipo "1011011" per intenderci)?
         R:  7:2 = 3,5   prendiamo il 3 (la parte intera del risultato) e lo utilizziamo come esponente della base della numerazione binaria, che è 2
               2^3 = 8     e lo mettiamo come denominatore della nostra frazione cui numeratore abbiamo detto essere l'unità:  1/8
               Un ottavo è la frequenza dei numeri palindromi binari che si possono scrivere in 7 posizioni.

caso 2: quanti numeri ottali palindromi ci sono tra i numeri che si possono scrivere in 4 posizioni (tipo "5821" per intenderci)?
         R:  4:2 = 2  cioè prendiamo il numero di posizioni e lo dividiamo per due, ed il risultato lo usiamo come esponente della base 8
              8^2 = 64   usiamo il numero ottenuto come denominatore della frazione che ha l'unità al numeratore:  1/64

caso 3: quanti numeri esadecimali palindromi ci sono tra i numeri che si possono scrivere in 3 posizioni (tipo "5F8" per intenderci)?
         R:  3:2 = 1,5   prendiamo 1 (la parte intera) e lo usiamo come esponente della base 16
              16^1 = 16   usiamo il numero ottenuto come denominatore della frazione che ha l'unità al numeratore:  1/16


L'altra domanda che mi ero posto riguardava la frequenza dei numeri palindromi nelle diverse basi indipendentemente dal numero di posizioni: nei primi 1000 numeri ci sono più palindromi nella numerazione a base binaria od in quella a base decimale?
Per comodità di calcolo consideriamo i primi 1024 numeri (2^10) e vediamo quanti palindromi binari e quanti decimali ci sono nell'intervallo.
I palindromi binari nei primi 1024 numeri sono 93; quelli decimali sono 90 fino a "999" cui dobbiamo aggiungere il "1001", dunque in totale sono+1=91.
La differenza con i binari non è grande (91 su 93) a lieve vantaggio dei binari.


martedì 25 settembre 2018

Una riflessione sull’articolo di Andrea Daniele Signorelli “Quanto è intelligente un’intelligenza artificiale? Lo scoprirà DeepMind” apparso su La Stampa il 15/8/18.

Una riflessione sull’articolo di Andrea Daniele Signorelli “Quanto è intelligente un’intelligenza artificiale? Lo scoprirà DeepMind” apparso su La Stampa il 15/8/18.

Gentile direttore,
uno dei rischi che si assume una testata giornalistica come la sua è quello di diffondere notizie non corrispondenti a verità, prestandosi - seppur inconsapevolmente - ad esser usata come “gran cassa” non solo di “fake news” (contro le quali iniziano ad esser operativi strumenti informatici specifici che permettono di circoscriverne la fonte), ma pure di “bias” (letteralmente questo termine si traduce con “pregiudizi”) nel senso che mi appresto a spiegarle.

Spesso i cosiddetti bias si manifestano come “verità” dai contorni non ben definiti, e quindi adattabili all’interpretazione personale - cioè all’opinione - di chi scrive l’articolo.

Mi sono deciso a mandarle questa mia riflessione dopo aver letto il pezzo di A.D.Signorelli che tratta di IA (Intelligenza Artificiale) e di come misurarne il grado di “intelligenza” raggiunto.

La notizia corretta che il giornalista cerca di trasmettere è che DeepMind (Google) ha provato a definire un protocollo standard per misurare il grado di adattabilità di una IA ad un contesto generale.
Nel testo dell’articolo questa capacità è indicata - dal giornalista o dalla fonte - come “intelligenza”.
È da sottolineare che tra gli addetti ai lavori non c’è consenso unanime sul significato di questo termine: ad esempio Max Tegmark, fondatore del “Future of life Institute” (ed autore del saggio “Vita 3.0, essere umani nell’era dell’IA”), definisce “intelligenza” la capacità di realizzare fini complessi, smarcandosi così da un contesto troppo antropocentrico.

Già oggi esistono numerose IA che, addestrate da learners specifici su grandi quantità di dati (big data), superano le capacità “umane”, ma solo in determinati contesti, quali ad esempio vincere a scacchi (Deep Blue) a Go (alphaGO), a Jeopardy (IBM Watson) o - con risultati non sempre brillanti - in ambito finanziario.
Presto riusciranno altrettanto bene in compiti complessi come guidare un veicolo nel traffico: la tecnologia dell’auto a guida completamente autonoma è già disponibile come sappiamo dai media, tuttavia devono esser risolti problemi “etici” (in caso di situazioni impreviste che coinvolgano passeggeri e persone terze, l’IA potrebbe esser costretta a scegliere chi tutelare) e “legali” (di chi è la responsabilità in caso di incidenti?) per una omologazione sulle nostre strade.

Gli esempi appena citati sono tutti relativi ad IA definite “a intelligenza ristretta”, e cioè capaci di raggiungere un insieme limitato di fini.

Una IA che vinca a Go contro un campione umano è stata creata ed addestrata con uno specifico learner per portare a termine questo compito, non ad esempio vincere a scacchi: Alpha zero, una versione modificata di AlphaGo, è “diventata” campione di scacchi solo in seguito ad una sessione di deep learning specifico che l’ha ricondizionata (ed ora è finalizzata al gioco degli scacchi e non a quello del Go)

Invece una cosiddetta IAG, che sia cioè utilizzabile in tutti i contesti (dove G sta per “general”), pur con capacità inferiori a quelle umane, non è ancora stata creata ed è oggetto di ricerche in tutto il mondo (cfr “L’algoritmo definitivo” di Pedro Domingos)

Altro grande limite delle IA attualmente esistenti è costituito dal fatto che “non sanno ancora imparare da sole” (autonomia del processo di apprendimento): anche se non comprendiamo del tutto il funzionamento dei deep learners, siamo comunque noi umani a programmarli e quindi in ultima analisi ad “insegnare” alle IA.
Il passaggio chiave ad IA di ordine superiore consisterà proprio nel superamento di questo limite: da “intelligenza ristretta” ad “intelligenza generale” definita da Tegmark come “la capacità di raggiungere qualsiasi fine, compreso l’apprendimento”.

La forzatura del suo giornalista sta invece nell’ultimo paragrafo: è un vero concentrato di banalità e pregiudizi che squalifica il valore dell’informazione contenuta nell’intero testo precedente.

I Bias sono qui relativi all’attualissimo dibattito all’interno della comunità scientifica relativo ai problemi di sicurezza connessi al futuro sviluppo di IAG di livello “umano” e “super intelligenza”, cioè AI che sappiano adattarsi alla maggior parte dei contesti e che grazie ai learners (che in una fase successiva le IAG potrebbero creare autonomamente) sviluppino rapidamente competenze superiori a quelle degli esseri umani, presumibilmente incomprensibili per il nostro intelletto limitato.

La favoletta dei robot intelligenti che si ribellano ai propri creatori - richiamata nell’articolo - continua a funzionare dal punto di vista giornalistico per la presa che ha sul pubblico, ma basta un poco di ragionamento logico per sfatare questa moderna leggenda metropolitana: 
perché mai una AI di alto livello dovrebbe volersi “incarnare” in un robot, imponendosi da sola vincoli spaziali potenzialmente pericolosi per la sua stessa sopravvivenza?
Una IA non ha bisogno di un luogo fisico delimitato (robot, cyborg o quant’altro): è infatti costituita da informazione (un algoritmo) che può risiedere ovunque nel cloud e replicarsi innumerevoli volte in ogni luogo dove esista un computer connesso con internet. E sempre tramite la rete interagire con dispositivi meccanici e/o esseri umani fisicamente collocati ovunque nel mondo.
Il raggio d’azione sarebbe ben più ampio di quello di un semplice robot!

Piuttosto società integrate come le nostre potrebbero risultare facile preda di una IA malevola: dotata di capacità che superano le nostre in ogni campo, non le sarebbe difficile dominarci e manipolarci senza  consapevolezza da parte nostra (come d’altronde l’uomo ha prevalso su predatori fisicamente più forti ma con un’intelligenza meno flessibile)

Tuttavia perché mai una IA dovrebbe esser malevola? 
Ancora una volta pecchiamo di antropocentrismo! 

Piuttosto una IA potrebbe “fare del male” alla nostra specie (umana) qualora i suoi fini fossero (o divenissero) divergenti rispetto ai nostri.
Fini che potrebbero esserle stati assegnati da persone fisiche (un dittatore, un errore di logica nella programmazione come nel famoso caso di HAL9000, un esperimento mal
pianificato come a Chernobyl) oppure risultato di una mutazione rispetto a quelli originali determinata dalla stessa IA, una volta che abbia acquisito la capacità di apprendimento autonoma: del resto anche noi umani nel corso della storia abbiamo cambiato spesso i nostri fini adattandoli ai nuovi valori delle nostre società in evoluzione.

Nella progettazione di una diga non ci si preoccupa della sorte di un formicaio: così una IA “super umana” potrebbe causare danni all’umanità (ad esempio utilizzando gran parte delle risorse energetiche, idriche e materie prime del nostro pianeta) per il perseguimento di un fine “superiore” in conflitto con la nostra esistenza.
(Anche le bombe H in un certo senso perseguono un fine simile, ma sono incapaci di autonomia: i droni guidati da una IA che sceglie in autonomia i propri bersagli - già progettati sulla carta - invece si).

A questo punto dobbiamo parlare di concetti complessi come “consapevolezza“ e “coscienza” e chiederci se siano abbastanza universali da potersi applicare ad intelligenze artificiali che sicuramente seguiranno un percorso evolutivo diverso da quello che ci ha portati a divenire l’attuale specie dominante.

L’auto a guida autonoma che trova improvvisamente sul suo percorso un pedone e non ha possibilità di rallentare evitando la collisione deve sacrificare il conducente uscendo di strada oppure la vita della persona investita? Fa differenza se si tratti di un adulto o di un bambino? Un bianco o un nero? Un conducente ubriaco o sobrio?
Sono domande difficili cui tuttavia dobbiamo saper rispondere oggi MENTRE vengono creati i presupposti tecnologici alle future AI

La sfida è quindi programmare oggi il nostro futuro: le IA saranno sempre più importanti perché rappresentano una soluzione efficiente per l’evoluzione. 
Prima o poi avranno abbastanza autonomia e potere per imporsi fini che possono cambiare con il tempo.
Dobbiamo oggi individuare fini allineati con i nostri e trovare un modo per evitare lo sviluppo di IA con fini divergenti (concordare tutti quanti una specie di moratoria come quella che ha funzionato abbastanza bene con le armi chimiche e biologiche)

Per ultima cosa vorrei evidenziare un aspetto che la tocca da vicino in quanto parte in causa: I rapporti tra stampa e la comunità scientifica che si interroga sulla sicurezza nello sviluppo di AIG si sono da tempo deteriorati a causa di frequenti fraintendimenti (tipo quelli appena evidenziati). Spesso i giornalisti, privi di una cultura specialistica, estraggono frasi ad effetto da contesti specifici, travisandone cosi il significato originale.

Basti pensare che in occasione della prima conferenza sulla sicurezza nello sviluppo futuro di IA (AI safety conference Portorico 2015) la più grossa preoccupazione per gli organizzatori è stata quella di “non richiamare l’attenzione della stampa” (sic) evitando di usare nei titoli delle singole conferenze termini che potrebbero esser “accattivanti” per il pubblico.

Un’altra leggenda è che Elon Musk, Stephen Hawking ed altri mostri sacri sarebbero contrari allo sviluppo di IA di livello superiore perché temono un asservimento (riduzione in schiavitù) della stirpe umana: in realtà non hanno affermato nulla di più di quanto ho cercato fin qui di spiegare.
Dobbiamo interrogarci OGGI su quello che vogliamo siano le IA di domani: cercare soluzioni PRIMA che le IAG siano realizzare affinché i nostri fini ed i loro siano sempre convergenti.
Siamo noi gli artefici del nostro futuro e l’eventuale estinzione della stirpe umana (con la perdita definitiva della nostra “dote cosmica”, vedi sull’argomento la già citata “Vita 3.0” di Max Tegmark) non sarà dovuta a cause esterne come l’improvvisa comparsa di una IA malevola, ma a scelte nefaste operate da uomini che, per un vantaggio di breve periodo, un errore od un atto folle, comprometteranno il nostro futuro come specie.

Nulla di diverso rispetto a quanto è successo con l’energia atomica: nessun componente della comunità scientifica ha mai auspicato lo stop agli studi sulla struttura dell’atomo, ma molti si sono opposti all’utilizzo del know how acquisito per la realizzazione delle bombe A ed H (interessante trovare tra i loro nomi parecchi scienziati tedeschi che operavano sotto la dittatura di Hitler e che, assumendosi notevoli rischi personali, hanno attuato una sorta di moratoria rallentando lo sviluppo di un ordigno nazista)

Mi farebbe piacere proseguire questo dialogo a distanza con Lei, per email o altro mezzo, e sapere la sua opinione in merito 

Cordiali saluti

Davide Molina

Elenco progetti.

2020  La frequenza dei numeri palindromi nelle diverse basi (numerazione binaria, terziaria,.. decimale, esadecimale)                 Espa...