col premium hai i modelli pro su perplexity
Abbiamo parecchi crediti su Google Cloud e voglio giocare con qualche modello e quelle GPU sono disponibili nella nostra region.
un ricercatore ha dichiarato che, durante un test, claude 3 si è “reso conto” di esser durante un test
E’ stato messo poco sopra il link di Repubblica, ovviamente pieno di informazioni errate comunque, non stresserò abbastanza su questo: non si è “reso conto”. E semplicemente pieno di così tanti dati che conosce anche il neddle test. Oh, non che non sia impressionante eh, ma piano con i sensazionalismi.
Tra l’altro notizia uscita tipo il giorno dopo dell’annuncio di Claude 3
prego!
Ecco un prototipo dell’interfaccia
Fake, non sta mangiando niente e non c’è cibo intorno a lui, non è possibile che sia Salvini.
come sempre nord vpn servirà in sti casi
si ma non ti incazzare
intanto il nostro garante per la privacy, non contento del casino che aveva fatto con chatgpt, ha già iniziato a rompere il cazzo per sora, che non è nemmeno uscito
Never go full malanic
L’UE ha approvato una legge sull’IA, che sarà vincolante a livello europeo ed inizierà ad entrare in vigore da circa metà anno.
Qui trovate il testo, non definitivo ed in inglese. Sono 460 pagine di word
Le prime 160 pagine sono tutti visto-considerato-ecc, la legge vera e propria inizia a pagina 161.
Qui trovate un riassunto in linguaggio umano (ossia non in legalese):
Riassumo in breve:
-
Vietato usare IA per applicazioni che vadano contro i diritti dei cittadini europei, inclusi sistemi di categorizzazione biometrici (con delle eccezioni molto strette per quanto riguarda l’uso da parte delle forze dell’ordine), scraping di volti da internet o tv a circuito chiuso per creare database di riconoscimento facciale, uso di riconoscimento delle emozioni in scuole e posti di lavoro, scoring sociale [nota mia: tipo quello che fa la Cina per intendersi], predizione dei crimini, ed uso per manipolare il comportamento delle persone e sfruttare i loro punti deboli.
-
Identificazione di “applicazioni ad alto rischio” (che hanno il potenziale di creare danni alla salute, alla sicurezza, ai diritti umani, all’ambiente, alla democrazia) tra cui infrastrutture, educazione, lavoro, servizi pubblici e privati, giustizia. Le IA usate in queste applicazioni avranno limiti stringenti e dovranno tenere dei record dettagliati per trasparenza, ed i cittadini potranno presentare lamentele ufficiali e chiedere conto di come l’IA è stata usata nei casi che li riguardano.
-
Trasparenza: le IA “generiche” ed i modelli su di esse basate dovranno rispettare la legge europea sul copyright e pubblicare riassunti dettagliati dei contenuti che sono stati usati per l’addestramento. Le immagini, l’audio, ed i video generati da IA dovranno essere chiaramente etichettati come tali.
-
Supporto all’innovazione: verranno stabiliti a livello nazionale dei sistemi accessibili alle aziende ed alle start-up per sviluppare ed addestrare le IA prima che vengano messe sul mercato.
l’ultimo punto non mi è assolutamente chiaro, cosa volevano dire?
Per come lo interpreto io (che poi posso pure sbagliare, ovvio) gli stati metteranno a disposizione delle aziende le risorse e dei sistemi per sviluppare, testare, e migliorare le ia in un ambiente “controllato”, per aiutare le aziende stesse a sviluppare il prodotto prima del lancio sul mercato.
Si poi finisce come tutte le cose in cui tutti aggirano le regole e poi dopo forse anni si fanno cause da fantastiliardi di Borzi.
Per come la vedo sono tutti tentativi più che legittimi di mettere delle regole ma è impossibile obbligarne il rispetto e controllare. Spero di sbagliarmi ma temo finirà come tutti i tentativi fatti fin’ora di regolamentare i social o i bitcoin