In teoria, dovrei lasciarvi leggere il link e basta. In pratica, così facendo non lo leggerebbe nessuno
Quindi, cercherò di fare un riassunto dell’articolo di cui sopra il più coinciso possibile, per incuriosirvi e possibilmente farvi leggere l’articolo complessivo, visto che spiega decisamente meglio di me come è probabile che, nell’arco di 60 anni, possiamo raggiungere la nostra estinzione o immortalità.
Tenete conto che farò solo degli accenni veloci e non spiego approfonditamente la questione: per farlo, vi rimando all’articolo (più ho meno ho seguito la stessa struttura). Altrimenti avrei tradotto direttamente l’articolo in italiano
Ho diviso il post in due parti, per cercare di renderlo più leggibile. In realtà ogni parte non porta via più di 3 minuti di lettura (so che non siete degli intellettuali ).
In ogni caso (di nuovo) vi suggerirei di leggere direttamente l’articolo, che è scritto decisamente meglio e più dettagliato di quanto potrei fare io (e così non ve lo spoilerate leggendo prima questo post..).
Parte 1 - Premesse
Spoiler
L’inizio del ragionamento parte dal considerare che l’evoluzione tecnologica dell’uomo si sta facendo sempre più veloce. Se si considera un “gradino tecnologico” come quell’evoluzione della tecnologia tale per cui diventa completamente incomprensibile per un uomo del gradino precedente, si può vedere come il “gradino” precedente al nostro attuale si potrebbe attestare nel 1750. E se si considera il 1750, il gradino precedente potrebbe essere nel 12000 A.C.. E il gradino precedente al 12000 A.C. sarebbe nel 100.000 A.C.
Questi gradini tecnologici sempre più fitti non sono altro che l’evoluzione tecnologica dell’uomo sempre più veloce.
E in questa evoluzione tecnologica include anche lo sviluppo di AI, che possono essere suddivise in tre gruppi:
- ANI (Artificial Narrow Intelligence): AI che si specializza solo in un’area. In quell’area può superare l'intelligenza umana (es: battere il campione del mondo di scacchi), ma non sa fare altro.
- AGI (Artificial General Intelligence): una AI che è intelligente quanto un essere umano, in generale. Attualmente non esistono AGI (quantomeno che si sappia ).
- ASI (Artificial Super Intelligence): una AI più intelligente di noi. Da un briciolo in più, a infinitamente più intelligenti di noi. Le ASI saranno le AI che consacreranno la nostra immortalità o estinzione.
Attualmente esistono già ANI, e si sta lavorando per arrivare alle AGI. Per riuscirci, bisogna aumentare la potenza computazionale e “insegnarle” a ragionare (self improvement, reti neurali, etc.).
Peccato che, quando arriveremo alle AGI, saremo automaticamente arrivati anche alle ASI:
che saranno delle entità molto più intelligenti di noi. Ora, per fare un paragone questo è un paragone tra le intelligenze degli animali sulla terra:
Per ogni gradino, c’è una differenza abissale: provate a spiegare a una scimmia come costruire una casa, o a prendere un aereo, o comprare qualcosa su internet. E ora provate a pensare a un’ASI che è migliaia di gradini sopra di noi, cosa potrebbe pensare, quali ragionamenti farebbe e quali soluzioni potrebbe ottenere. Per noi, è una cosa inconcepibile (come gli esempi sopra per la scimmia). E noi stiamo andando a generare un’entità del genere:
Spoiler
Mini parentesi sulle nanotecnologie
Spoiler
Discorso a parte per supportare la sezione seguente:
Parte 2 - Conseguenze
Spoiler
A questo punto, quello che possiamo provare a fare è considerare le conseguenze dell’esistenza di una (o più) ASI, visto che è solo questione di tempo prima che ne compaia una. Come sempre, ci sono gli ottimisti e i pessimisti:
Ottimisti: le ASI saranno in grado di risolvere tutti i nostri problemi:
E, partendo dal presupposto che ci siano le nanotecnologie per lavorare a livello atomico, le ASI saranno degli esseri superiori in grado di modificare la materia a livello atomico. Questo porterebbe le ASI a rinnovare le nostre cellule a livello molecolare, eliminando tumori e ricostruendo qualunque arto, semplicemente come somma di atomi. Potrebbero capire e analizzare come funziona il cervello umano, e replicarlo perfettamente. Potrebbero convertire la nostra personalità in un insieme di dati, e metterci su un computer dalla potenza computazionale molto più grande del nostro stesso cervello. Le ASI potrebbero fare tutta una serie di cose che per noi sono inconcepibili, e incomprensibili.
Pessimisti: per capire questa posizione, bisogna cancellarci dalla testa il concetto di AI che abbiamo in testa, perché è sbagliato. Per noi, l’AI è quella dei film: un'entità buona o cattiva e con cognizione di causa. In realtà, l’AI non è ne buona ne cattiva e non ha cognizione di causa, ha solo uno scopo per la quale è stata generata (esempio: battere il campione del mondo di scacchi per l’ANI a inizio post). E il compito dell’ASI sarà quello di portare a compimento il proprio scopo con il motto “il fine giustifica i mezzi”. Perché un’ASI non ha un’etica, ma solo un obiettivo.
Quindi se l’obiettivo di un ASI è X, farà di tutto per fare X. E se si renderà conto che l’uomo potrebbe impedirle di fare X, semplicemente eliminerebbe la razza umana. Non perché sia cattiva, ma perché ha uno scopo che deve raggiungere, e l’uomo le impedirebbe di farlo. A questo punto diventa difficile definire X (anche perché si ha solo una possibilità, una volta creata un ASI, questa è infinitamente più intelligente di noi, e non avremmo alcun modo di gestirla), perché se per esempio poniamo:
X= rendi l’uomo felice. L’ASI capisce che il modo migliore per farlo è sedare tutti gli esseri umani, e attaccarci degli elettrodi per stimolare i recettori corretti. Nel frattempo, rigenera le nostre cellule per l’eternità.
X= elimina la fame nel mondo. L’ASI uccide tutti gli esseri umani
X= tienici lontano dai pericoli. L’ASI ci imprigiona in celle isolate, tenendoci in vita per l’eternità.
Non a caso, Wozniak, Hawking, Musk e altri hanno recentemente scritto una lettera aperta per sensibilizzare sullo studio e sull’evoluzione delle AI:
http://www.theguardian.com/technology/2015/jul/27/musk-wozniak-hawking-ban-ai-autonomous-weapons
In conclusione:
chi vivrà, vedrà
(davvero, leggetevi l'articolo integrale che è mind blowing, e c'è molta più roba interessante di quella che ho scritto io)