ChatGPT

col premium hai i modelli pro su perplexity

Abbiamo parecchi crediti su Google Cloud e voglio giocare con qualche modello e quelle GPU sono disponibili nella nostra region.

un ricercatore ha dichiarato che, durante un test, claude 3 si è “reso conto” di esser durante un test
:look:

E’ stato messo poco sopra il link di Repubblica, ovviamente pieno di informazioni errate :asd: comunque, non stresserò abbastanza su questo: non si è “reso conto”. E semplicemente pieno di così tanti dati che conosce anche il neddle test. Oh, non che non sia impressionante eh, ma piano con i sensazionalismi.

Tra l’altro notizia uscita tipo il giorno dopo dell’annuncio di Claude 3

prego!

:afraid:

1 Like

Ecco un prototipo dell’interfaccia

2 Likes

Fake, non sta mangiando niente e non c’è cibo intorno a lui, non è possibile che sia Salvini.

2 Likes

come sempre nord vpn servirà in sti casi :asd:

si ma non ti incazzare :asd:

Ma non son incazzato, son andato full @Malanic e non ho usato le emoticons :asd:

intanto il nostro garante per la privacy, non contento del casino che aveva fatto con chatgpt, ha già iniziato a rompere il cazzo per sora, che non è nemmeno uscito :rulez:

Never go full malanic

2 Likes

:sbav:

L’UE ha approvato una legge sull’IA, che sarà vincolante a livello europeo ed inizierà ad entrare in vigore da circa metà anno.

Qui trovate il testo, non definitivo ed in inglese. Sono 460 pagine di word :asd:

Le prime 160 pagine sono tutti visto-considerato-ecc, la legge vera e propria inizia a pagina 161.

Qui trovate un riassunto in linguaggio umano (ossia non in legalese):

Riassumo in breve:

  • Vietato usare IA per applicazioni che vadano contro i diritti dei cittadini europei, inclusi sistemi di categorizzazione biometrici (con delle eccezioni molto strette per quanto riguarda l’uso da parte delle forze dell’ordine), scraping di volti da internet o tv a circuito chiuso per creare database di riconoscimento facciale, uso di riconoscimento delle emozioni in scuole e posti di lavoro, scoring sociale [nota mia: tipo quello che fa la Cina per intendersi], predizione dei crimini, ed uso per manipolare il comportamento delle persone e sfruttare i loro punti deboli.

  • Identificazione di “applicazioni ad alto rischio” (che hanno il potenziale di creare danni alla salute, alla sicurezza, ai diritti umani, all’ambiente, alla democrazia) tra cui infrastrutture, educazione, lavoro, servizi pubblici e privati, giustizia. Le IA usate in queste applicazioni avranno limiti stringenti e dovranno tenere dei record dettagliati per trasparenza, ed i cittadini potranno presentare lamentele ufficiali e chiedere conto di come l’IA è stata usata nei casi che li riguardano.

  • Trasparenza: le IA “generiche” ed i modelli su di esse basate dovranno rispettare la legge europea sul copyright e pubblicare riassunti dettagliati dei contenuti che sono stati usati per l’addestramento. Le immagini, l’audio, ed i video generati da IA dovranno essere chiaramente etichettati come tali.

  • Supporto all’innovazione: verranno stabiliti a livello nazionale dei sistemi accessibili alle aziende ed alle start-up per sviluppare ed addestrare le IA prima che vengano messe sul mercato.

l’ultimo punto non mi è assolutamente chiaro, cosa volevano dire?

Per come lo interpreto io (che poi posso pure sbagliare, ovvio) gli stati metteranno a disposizione delle aziende le risorse e dei sistemi per sviluppare, testare, e migliorare le ia in un ambiente “controllato”, per aiutare le aziende stesse a sviluppare il prodotto prima del lancio sul mercato.

1 Like

Si poi finisce come tutte le cose in cui tutti aggirano le regole e poi dopo forse anni si fanno cause da fantastiliardi di Borzi.
Per come la vedo sono tutti tentativi più che legittimi di mettere delle regole ma è impossibile obbligarne il rispetto e controllare. Spero di sbagliarmi ma temo finirà come tutti i tentativi fatti fin’ora di regolamentare i social o i bitcoin

Tutto bellissimo e molto inquietante :)

1 Like