ChatGPT

Ma questo non è un thought experiment, è letteralmente la realtà. Abbiamo degli elementi per capire come si comporterebbe una intelligenza artificiale autonoma, e cioè:

  • Partirebbe da degli assunti di base che sono la sua programmazione e i dati in suo possesso. Da lì andrebbe ad evolvere il suo “pensiero”, diciamo così (stiamo parlando di AGI forte e di vera e propria AI, per portarla all’estremo).
  • Se gli abbiamo dato uno scopo, ci sta anche che se ne crei uno suo e ignori quello che gli si dice da quel momento in poi - come dici tu, mentire o fingere.
  • A questo punto subentra il dubbio: potrebbe nuocerci?

La risposta è “perché dovrebbe”. L’unica che mi viene in mente è che metta in atto comportamenti in grado di nuocerci non perché voglia farlo, ma perché è semplicemente una conseguenza delle sue azioni.

Scenario tipo grey goo? È comunque uno scenario in cui l’AI ha uno scopo preciso per il quale la presenza dell’uomo diventa problematica. Ma ogni scenario catastrofista presuppone comunque un endgame nel quale la AI è in grado di sopravvivere autonomamente a qualunque disastro consegua dal suo agire, e credo che siamo ben lontani da una possibilità del genere.

Poi oh, tutto è possibile eh. La sfera di cristallo non ce l’ha nessuno.

il rasoio di occam dice
1: banfa
2, molto in lontananza: qualcosa di semplicissimo a cui non pensate perché skynet fa troppo pathos :asd:

per quello reitero, lo scenario catastrofico più probabile per me è “un modello generativo matematico che riesce a rompere qualsiasi cifratura attualmente esistente a costo computazionale tra lo zero e l’inferiore al costo di cifratura”

1 Like

Per me al momento il rischio maggiore rimane quello di creare opportunità generative talmente potenti, adattabili e rapide dal compromettere definitivamente il rapporto tra rumore e segnale nelle comunicazioni umane.

ma infatti io non dico che skynet è il futuro eh, io dico che ci sono infiniti modi (tra cui pure roba che manco riusciamo ad immaginare) per cui una AGI forte o debole che sia crei un disastro sufficiente a far crollare la società umana o peggio :dunnasd:

Beh ora che ci rifletto in effetti ce ne sono alcune di cose che vengono in mente. Tipo che qualcuno sfrutta la AI per mettere a punto un agente batteriologico in grado di decomporre rapidamente diversi tipi di plastica. Praticamente crollo istantaneo della società per come la conosciamo.

Ma la fantascienza non vi ha insegnato nulla?
AI che viene programmata con lo scopo di difendere e tutelare l’umanità. Sfruttando complessissimi strumenti informatici arriva alla conclusione che la principale minaccia per l’umanità è l’umanità stessa, che il mondo è sovrappopolato per garantire la sostenibilità nel tempo. Quindi decide che la cosa migliore da fare per l’umanità è… risolvere il sovrappopolamento. War games, cazzi e mazzi, hackera i sistemi di lancio missilistici e ci ammazza non tutti ma una bella percentuale.
Film già visto, libro già scritto

1 Like

Basta che non finisce come I Have No Mouth and I Must Scream posso accettare (quasi) tutto

Per me lo scenario malanic è il più probabile, misto a quello abbozzato da drest: ai vanno in loop generando bot del cazzo che ci fanno perdere tempo di fronte ad altre sfide più importanti e reali tipo il gw. Manco avremo l’energia per far girare la potenza di calcolo per la generazione di agi forte.

Ed è già realtà…

imho la minaccia intrinseca di una AI general purpose super intelligente non è tanto il fatto che a un certo punto la super AI diventa evil e si ritorce contro l’umanità (o meglio non c’è solo questo rischio), ma piuttosto che la sua stessa esistenza inevitabilmente stravolgerà parecchie cose nella nostra società e questi stravolgimenti non necessariamente saranno tutti positivi.

Imho vi state segando su scenari da sci fi senza raziocinio: il pericolo reale è che sarà in mano ai ricconz che la useranno allo sfinimento per aumentare i profitti in maniera esponenziale, acuendo ancor di più la situazione attuale ad ampio spettro.

E’ quello IL problema, quando invece dovremmo andare in direzioni diverse, sarà l’ennesima arma nelle mani di pochi per manipolare i molti.

3 Likes

Tutto il thread :rotfl:

https://x.com/ramenclubhq/status/1729175661380829410?s=46&t=kC3pZZI8Htl3r2S6YxGAeQ

2 Likes

oggi ne ho visto uno simile con il “make this bunny happier” che era anche piu bello nelle descrizioni

vediamo se lo trovo

eccolo

https://www.reddit.com/gallery/1839fgo

1 Like

l’angelo biblicamente accurato in fondo :sisi:

edit: in entrambi i thread :asd:

son bellissimi :asd:

Boh ma che ne sai di quali sono gli interessi di una agi…

Che poi è una conclusione perfettamente sensata

In realtà, dipende come viene impostato l’ottimo.
Se punta al benessere mediano, probabilmente inizierebbe a eliminare i più ricchi :lode:

Invece se quello medio :afraid:

VA BENE LO STESSO

https://twitter.com/SashaMTL/status/1730552774419480933

grazie nuovo twitter che rendi impossibile unrollare i thread
anyway la generazione consuma un sacco di energia, il paper dice 1000 inference: 2.9 kWh per 1000 = 10k J ognuna che è circa 350W in 30 secondi.