De rerum intellegentia artificialis - estinzione e immortalità degli esseri umani


Se non rimane fermo all'esercizio di stile è una bella cosa.

Cmq io mi riferito non tanto alla singola invenzione quanto in generale.

Se si considera un lasso di tempo di 30 anni

1900-1930-1960-1990-2015
Ecco ho la sensazione che viviamo nel trentennio con invenzioni meno rilevanti , tante promesse pochi risultati .



-scritto dalla' Amiga 500-
Ora non voglio parlare male di quel blog perché lo seguo, però ragazzi quanto sfrontato ottimismo.

Le robe che dice riguardo alle nanotecnologie che ci dovrebbero essere entro il 2020 è tutto hype ridicolo. Pure ammettendo che intenda la fine della decade, qundi 2029, rimane, quasi tutto, hype ridicolo.

Oramai si confonde la ricerca scientifica con lo sviluppo di tecnologia funzionante e perfettamente fruibile, mentre i due mondi non potrebbero più distanti, soprattutto quando la tecnologia deve interfacciarsi con il vivente.
Riguardo alla velocità e la direzione dello sviluppo tecnologico bisogna anche considerare i fattori economici e di mercato. Credo che la tecnologia avanzi laddove ci siano i grossi investimenti in settori remunerativi.
Anni fa nessuno avrebbe previsto un tale sviluppo della tecnologia mobile.. mentre ci si immaginava una maggiore velocità nello sviluppo dei viaggi spaziali.
Non so, tutto molto affascinante, ma non è detto che tra 50 anni la tecnologia proceda nella medesima direzione attuale, non so se mi sono spiegato.
Mi sono bloccato sulla premessa.

Essere intelligenti secondo me ha poca attinenza con la velocità di calcolo.


Però mi sa che hai capito male cosa hai letto, oppure non è chiaro come viene esposto da Ficus, se leggi l'articolo originale capisci che dice esattamente il contrario.
Articolo gia' letto, interessantissimo e scritto molto bene. L'autore ha un modo di scrivere scorrevolissimo e piacevole.


anche perchè il nostro cervello sta sotto i 100 hz, però siamo ben più intelligenti di un computer. ho detto che la potenza di calcolo è uno degli aspetti che bisogna incrementare, ma di certo non è l'unico. e da solo non porta da nessuna parte (a livello di AI)

Mi riferivo alla gif nelle premesse, quando ho un pò di tempo mi leggo l'articolo per bene.


Lovecraft sarà fiero di noi quando creeremo il primo vero eldritch horror presente nell'universo al di là di ogni ragionevole dubbio.


buttare radiografie dentro un computer e sapere se hai un tumore e' un esercizio di stile? scoprire malformazioni cardiache che ad occhio umano sarebbe impossibile individuare e' esercizio di stile?


non direttamente ma c'è comunque correlazione se pensi che sappiamo "bene" come modellare un neurone. Il problema è modellare milioni di neuroni per "simulare" il cervello umano. Un aumento della capacità di calcolo permette di gestire più neuroni e quindi avvicinarsi ad un'intelligenza artificiale più vicina a quella umana.

ci son tante di quelle approssimazioni che praticamente quello che ho scritto ha la stessa valenza di quello che pensa Gina casalinga di Voghera.
il robottino programmato in java, lua, python, e la sua interfaccia proprietaria, il cervello con una cpu quantistica in grado di calcolare cose da fantascienza ma con il 99% delle restanti risorse hardware sprecato a far girare del software bacato che gira su livelli di altro software ancora più bacato.


a quel punto il cervello si scriverà il software da solo in maniera molto più ottimizzata, aumentato nel frattempo la potenza computazionale. rinse and repeat
discorso affascinante. Tutto sommato per parlare di "pericolo" per la razza umana se deve presupporre che tale ASI debba essere connessa a qualcosa che materialmente possa farci danno sotto il suo diretto controllo. Se non può accedere a nulla di materiale ma solo a dati e calcoli, (e restituire di conseguenza dati e calcoli o qualcosa di più evoluto ma pur sempre limitato all'essere media e non input per qualche macchinario) non dovrebbe essere insomma pericoloso no?

Ci sarebbe sempre una mediazione umana ad attuare o meno le sue scelte.
Buco perchè mi interessa, magari quando ho tempo scrivo due righe


perche secondo te gia coi dati non si posson fare abbastana danni?


ok ma si potrebbe sempre controllare il contenuto o "simulare" l'esito delle azioni con un computer iperevoluto ma non ASI o comunque diverso prima di dare in pasto quei dati al suo uso reale (vaccino, istruzioni per macchinari, nuove nanoparticelle, etc).

Una specie di sandbox ecco.


chiudere l'ai "in una scatola" è, difatti, una delle soluzioni ipotizzate per evitare di avere la figlia che ti porta skynet a cena


questa tua obiezione viene *esattamente* trattata nella seconda metà di questa pagina (cerca la frase "So what ARE they worried about? I wrote a little story to show you:"): http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html





per entrambi: inutile dire che suggerisco prima di leggersi il resto dell'articolo

Dipende chi ha accesso a questo supercomputer
(Non ho letto l'articolo per intero)

Non quello che fa o non fa

Spero che si capisca meglio adesso

-scritto dalla' Amiga 500-