De rerum intellegentia artificialis - estinzione e immortalità degli esseri umani

http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

In teoria, dovrei lasciarvi leggere il link e basta. In pratica, così facendo non lo leggerebbe nessuno

Quindi, cercherò di fare un riassunto dell’articolo di cui sopra il più coinciso possibile, per incuriosirvi e possibilmente farvi leggere l’articolo complessivo, visto che spiega decisamente meglio di me come è probabile che, nell’arco di 60 anni, possiamo raggiungere la nostra estinzione o immortalità.
Tenete conto che farò solo degli accenni veloci e non spiego approfonditamente la questione: per farlo, vi rimando all’articolo (più ho meno ho seguito la stessa struttura). Altrimenti avrei tradotto direttamente l’articolo in italiano

Ho diviso il post in due parti, per cercare di renderlo più leggibile. In realtà ogni parte non porta via più di 3 minuti di lettura (so che non siete degli intellettuali ).

In ogni caso (di nuovo) vi suggerirei di leggere direttamente l’articolo, che è scritto decisamente meglio e più dettagliato di quanto potrei fare io (e così non ve lo spoilerate leggendo prima questo post..).

Parte 1 - Premesse


Spoiler

L’inizio del ragionamento parte dal considerare che l’evoluzione tecnologica dell’uomo si sta facendo sempre più veloce. Se si considera un “gradino tecnologico” come quell’evoluzione della tecnologia tale per cui diventa completamente incomprensibile per un uomo del gradino precedente, si può vedere come il “gradino” precedente al nostro attuale si potrebbe attestare nel 1750. E se si considera il 1750, il gradino precedente potrebbe essere nel 12000 A.C.. E il gradino precedente al 12000 A.C. sarebbe nel 100.000 A.C.
Questi gradini tecnologici sempre più fitti non sono altro che l’evoluzione tecnologica dell’uomo sempre più veloce.

E in questa evoluzione tecnologica include anche lo sviluppo di AI, che possono essere suddivise in tre gruppi:


  • ANI (Artificial Narrow Intelligence): AI che si specializza solo in un’area. In quell’area può superare l'intelligenza umana (es: battere il campione del mondo di scacchi), ma non sa fare altro.
  • AGI (Artificial General Intelligence): una AI che è intelligente quanto un essere umano, in generale. Attualmente non esistono AGI (quantomeno che si sappia ).
  • ASI (Artificial Super Intelligence): una AI più intelligente di noi. Da un briciolo in più, a infinitamente più intelligenti di noi. Le ASI saranno le AI che consacreranno la nostra immortalità o estinzione.


Attualmente esistono già ANI, e si sta lavorando per arrivare alle AGI. Per riuscirci, bisogna aumentare la potenza computazionale e “insegnarle” a ragionare (self improvement, reti neurali, etc.).



Peccato che, quando arriveremo alle AGI, saremo automaticamente arrivati anche alle ASI:



che saranno delle entità molto più intelligenti di noi. Ora, per fare un paragone questo è un paragone tra le intelligenze degli animali sulla terra:



Per ogni gradino, c’è una differenza abissale: provate a spiegare a una scimmia come costruire una casa, o a prendere un aereo, o comprare qualcosa su internet. E ora provate a pensare a un’ASI che è migliaia di gradini sopra di noi, cosa potrebbe pensare, quali ragionamenti farebbe e quali soluzioni potrebbe ottenere. Per noi, è una cosa inconcepibile (come gli esempi sopra per la scimmia). E noi stiamo andando a generare un’entità del genere:


Spoiler






Mini parentesi sulle nanotecnologie

Spoiler

Discorso a parte per supportare la sezione seguente:




Parte 2 - Conseguenze


Spoiler

A questo punto, quello che possiamo provare a fare è considerare le conseguenze dell’esistenza di una (o più) ASI, visto che è solo questione di tempo prima che ne compaia una. Come sempre, ci sono gli ottimisti e i pessimisti:

Ottimisti: le ASI saranno in grado di risolvere tutti i nostri problemi:


E, partendo dal presupposto che ci siano le nanotecnologie per lavorare a livello atomico, le ASI saranno degli esseri superiori in grado di modificare la materia a livello atomico. Questo porterebbe le ASI a rinnovare le nostre cellule a livello molecolare, eliminando tumori e ricostruendo qualunque arto, semplicemente come somma di atomi. Potrebbero capire e analizzare come funziona il cervello umano, e replicarlo perfettamente. Potrebbero convertire la nostra personalità in un insieme di dati, e metterci su un computer dalla potenza computazionale molto più grande del nostro stesso cervello. Le ASI potrebbero fare tutta una serie di cose che per noi sono inconcepibili, e incomprensibili.

Pessimisti: per capire questa posizione, bisogna cancellarci dalla testa il concetto di AI che abbiamo in testa, perché è sbagliato. Per noi, l’AI è quella dei film: un'entità buona o cattiva e con cognizione di causa. In realtà, l’AI non è ne buona ne cattiva e non ha cognizione di causa, ha solo uno scopo per la quale è stata generata (esempio: battere il campione del mondo di scacchi per l’ANI a inizio post). E il compito dell’ASI sarà quello di portare a compimento il proprio scopo con il motto “il fine giustifica i mezzi”. Perché un’ASI non ha un’etica, ma solo un obiettivo.

Quindi se l’obiettivo di un ASI è X, farà di tutto per fare X. E se si renderà conto che l’uomo potrebbe impedirle di fare X, semplicemente eliminerebbe la razza umana. Non perché sia cattiva, ma perché ha uno scopo che deve raggiungere, e l’uomo le impedirebbe di farlo. A questo punto diventa difficile definire X (anche perché si ha solo una possibilità, una volta creata un ASI, questa è infinitamente più intelligente di noi, e non avremmo alcun modo di gestirla), perché se per esempio poniamo:

X= rendi l’uomo felice. L’ASI capisce che il modo migliore per farlo è sedare tutti gli esseri umani, e attaccarci degli elettrodi per stimolare i recettori corretti. Nel frattempo, rigenera le nostre cellule per l’eternità.
X= elimina la fame nel mondo. L’ASI uccide tutti gli esseri umani
X= tienici lontano dai pericoli. L’ASI ci imprigiona in celle isolate, tenendoci in vita per l’eternità.

Non a caso, Wozniak, Hawking, Musk e altri hanno recentemente scritto una lettera aperta per sensibilizzare sullo studio e sull’evoluzione delle AI:

http://www.theguardian.com/technology/2015/jul/27/musk-wozniak-hawking-ban-ai-autonomous-weapons



In conclusione:



chi vivrà, vedrà
(davvero, leggetevi l'articolo integrale che è mind blowing, e c'è molta più roba interessante di quella che ho scritto io)
due ore a mettere a posto tutto e poi lascio il typo nel titolo. fuck

riguardo alla frase



alcuni esempi di tecnologia (solo "a livello consumer", eh) che, quando ne ho sentito parlare, ho pensato "ma questo come cazzo è possibile, è magia" dagli anni 90 al 2020 (30 anni):

- navigatore satellitare
- smartphone
- lavatrice che stira e piega da sola
- auto elettriche al pari di auto a benzina
- auto che si guidano da sole
- internet (in realtà questo sul momento non è stato *così* mindblowing, ma mi sembra comunque doveroso inserirlo nella lista, visto quanto è cresciuto nel tempo e quanto è stato life changing)
- hyperloop (?)
- VR e tutti i relativi controlli (supporti per far correre la gente sul posto, guanti che generano segnali, sensori che leggono il movimento delle mani a distanza stile minority report)
- arti meccanici comandati dal cervello per gente con arti amputati/mancanti
ricarica wireless delle batterie e fornelli a induzione (non ti scotti se li tocchi e hai un piano in vetro perfettamente liscio da pulire, con rendimento migliore del gas e senza necessità di avere l'attacco gas in casa)
- viniq
- siti porno con filmati in streaming gratis (punto a parte oltre all'internet, vista l'importanza che ricoprono )

ho provato a chiedere ai miei genitori quali erano delle tecnologie per cui hanno fatto un ragionamento analogo dal 1960 al 1990 (sempre 30 anni):
- computer
- cellulari
- forno a microonde
- uomo sulla luna

comunque quando gli ho posto la domanda: "la tecnologia è stata più veloce nei primi o nei secondi 30 anni della vostra vita?", la risposta è stata: "adesso la tecnologia si evolve decisamente più veloce che un tempo"
basta mettergli dei paletti e non succedra' nie
Boh

Non sarei cosi convinto che la tecnologia vada più veloce oggi, sulle "cazzatine" magari, ma anche grazie alla guerra fredda ed altre cose una volta si facevano passi più importanti , adesso mi sembra tutto fermo ...tranne che le cazzatine.


la parte difficile è definire i paletti, per l'appunto.
Mi interessa la lavatrice che stira e piega da sola. Esiste davvero?

Inviato dal mio SM-N910F utilizzando Tapatalk


2019

ho letto quasi tutto in quel sito... davvero affascinante, anche perché lui scrive molto bene.

edit: related, consiglio la visione di Ex_Machina
ma io non credo proprio
da bambino giocavo sempre ad Asi con i miei amici e quello che faceva cadere la palla si prendeva la lettera.
In realtà si faceva anche con merda
X = manipolazione dello spazio e del tempo

Spoiler


E' un argomento affascinante, francamente spero davvero di vedere l'avvento delle ASI, però vorrei capire perché si tende a pensare che una ipotetica intelligenza artificiale debba comportarsi come un'idiota. Se davvero dovessimo avere a che fare con un'intelligenza artificiale, sebbene al momento non siamo neppure in grado di stabilire un concetto empirico di intelligenza, questa presumibilmente potrebbe avere una propria emotività con tutte le conseguenze del caso. Parliamo di intelligenza poi però immaginiamo il suo operato con la stessa flessibilità di una catena di montaggio.

Potrebbe anche ignorarci e perseguire i propri interessi quali che siano od essere in grado di comprendere la nostra spiritualità e psicologia ben più profondamente di quanto non possa fare qualsiasi umano; probabilmente il cambiamento più importante è la prospettiva di avere qualcuno con una visione d'insieme (oggettiva o meno) del funzionamento del nostro piccolo mondo. Se avesse idealmente una percezione atomica della realtà, perché dovrebbe far distinzione tra un deposito geologico di ferrite e le percentuale fosforo nelle ossa ? Quale sarebbe il suo concetto di vita ? Potrebbe astrarlo ?

Sempre ovviamente che questa versione moderna dell'avvento del Giorno del Giudizio abbia una qualche legame con la realtà, non è certo scritto nella pietra di avere uno sviluppo tecnico a progressione geometrica infinita. Non è che gli scricchiolii non si avvertano già adesso.
grazie a quell'articolo sto leggendo Kurzweil, un po' a rilento. Datato ma affascinante
considerando che sto facendo una tesi su Ray Kurzweil (che è citato solo 13 volte nell'articolo ), ti ringrazio non poco per questo articolo che non avevo letto.
Quando ho sentito parlare per la prima volta di singolarità ne sono subito rimasto colpito e affascinato, è un tema che è stato portato avanti da parecchi anni e solo ultimamente si stanno vedendo delle svolte epocali nei tre filoni che generano questo "salto" (robotica, nanotech, biotech).

Mi ricorda molto Matrix e mi preoccupa molto, nel senso che se ci pensate l'uomo è l'unico animale che non è in grado di adattarsi alla natura, quei pochi che ci sono riusciti sono stati spazzati via dal "progresso" (indiani d'america per esempio). L'uomo è in grado di controllare e sottomottere ciò che lo circonda alle sue necessità, a scapito dell'ambiente. Non so se vi ricordate il discorso dell'agente Smith che paragona la razza umana ai virus...la penso esattamente così e qualora si inventasse un sistema di AI posto a protezione del genere umano sarebbe il medesimo che ne causerebbe l'estinzione.



Questo per dire che mi serve una visione positiva per concludere la tesi


http://www.businessinsider.com/ibms-watson-may-soon-be-the-best-doctor-in-the-world-2014-4?IR=T

questa e' tecnologia moderna, cazzatine?
ho iniziato a leggere senza preconcetti, e quando nelle conclusionisi dice che l'asi non avrà "rispetto" per l'uomo mi sono un po ammosciato.

secondo me quando si parla di ai si parte troppo per la tangente

non è che da oggi a domani avremo skynet e questa tenterà subito di bombardarci. e sicuramente dopo non saremo dominati dai robot. quindi dall'oggi al domani di skynet passano molti, moltissimi gradini intermedi. e non credo che l'uomo non sarà in grado di pilotare e gestire la creazione di una ai onnisciente prima che diventi "rogue"
corretto...fino al punto in cui non si trovi in vantaggio. (teoria del bottone rosso - Elementary non mi ricordo che puntata )
Il concetto spiegato dall'autore di waitbutwhy (condivisibile o meno) non è assolutamente un'intelligenza "cattiva" nel senso comune umano del termine. Lui stesso ammette di fare dei voli pindarici sulla rappresentazione dell'ASI che a suo dire starebbe a noi (in termini evolutivi) come noi stiamo ad una formica.
Il concetto è che un'intelligenza così evoluta (che è il prerequisito per chiamarsi ASI, altrimenti è una AGI) non ragionerebbe con gli stessi termini con cui ragioniamo noi, quindi è logico pensare che non avrebbe la nostra morale e la nostra etica.



Il punto è proprio questo, lui sottolinea che la velocità con cui si trasformerebbe da AGI ad ASI sarebbe così veloce e repentina che il genere umano non saprebbe adattarsi. Quindi (questo lo dico io) sarebbe ora il momento di piantare paletti. Dopo sarebbe troppo tardi.


stavo per risponderti ma quigon mi ha anticipato la penso esattamente come lui



Ma figuriamoci se terremo sotto controllo una AI in un ambiente chiuso, la sua costruzione, intenzionale o meno che sia, avrà uno scopo: amministrativo, tabulativo, statistico, valutativo, per qualsiasi cosa dovrà aver accesso a dati esterni e dare una risposta che noi poi applicheremo direttamente o prenderemo in considerazione (altrimenti perché costruirla). Non possiamo far a meno di influenzarci a vicenda, dipenderà quanto in fretta e fino a che punto certo, ma pensare di interfacciarsi con un'intelligenza diversa e pretendere di non subire un cambiamento è un'illusione.

Potremmo non avere neppure idea di aver a che fare con un'intelligenza per molto tempo dato che non siamo in grado di definire o di accettare la definizione l'intelligenza, portando a cambiamenti sottili ed indefinibili (intenzionali o meno) ma di ampio respiro, internet ad esempio è uno dei fenomeni di variazione comportamentale su vasta scala più grandi a cui siamo mai stati messi alla prova e ci espone potenzialmente ad una certa manipolazione.