AI Act - Un sommario delle regolamentazioni dell'Unione Europea

Arrivato per email stamattina, la regolamentazione dovrebbe entrare in vigore nel 2026

E’ un bel cazzo in culo per chi si occupa di sviluppo di modelli di machine learning con finalità commerciali, specialmente se l’azienda si occupa proprio di queli ambiti che l’AI Act riconosce come “high risk”.

Fortunatamente la mia azienda fa proprio (tra le varie cose) credit e HR :asdsad:

L’avevo menzionato quando era passato nel thread ChatGPT, ma quello postato da Crius è un ottimo sommario.

Ed è un’ottima cosa, soprattutto per quanto riguarda la categorizzazione dei sistemi e l’obbligo di disclosure riguardo a quali dati vengono usati per addestrarli.

1 Like

Il riassunto mi sembra molto allegro e “volubile”: i modelli di rischio delle compagnie assicurative, che erano il caso principe quando feci il corso dell’università di Helsinki sull’etica delle AI, sono considerabili social scoring e finirebbero sotto l’ombrello del rischio inaccettabile?

Sto facendo retorica perché sì, sono social scoring, ma mi sembra tutto scritto in maniera tale da lasciare la finestra aperta sulle definizioni

sarà come per il gdpr mesi e mesi di lacrime dei soldi “ommioddio stanno uccidendo l’internet libero” e poi alla fine era good?

No, questo te lo do per certo perché lavoro per un credit bureau e, se fosse così, chiuderemmo baracca :asd:

Rientra nei cosiddetti sistemi ad alto rischio, che necessiteranno di una governance appropriata, disclosure sulle logiche di costruzione del modello e modalità di recupero dei dati di training e una serie di altre obbligazioni che dovranno poi essere certificate da qualche organo che ogni paese dovrà mettere in piedi.

E come potete capire, voglio proprio vedere un ente certificatore “centrale” stare dietro a tale mole di lavoro.

Well… shit happens. È rischio di impresa.

Nel senso che non è garantito dalla costituzione che aziende possano condurre affari in spregio a regolamentazione che si fa più stringente, in risposta a nuove esigenze dei cittadini.

Tipo: una volta c’erano molti meno cazzi di sicurezza sul lavoro. Poi si è riconosciuto che la sicurezza del lavoratore andava tutelata e sono fioccate restrizioni e multe, e ce ne vorrebbero di più efficaci.

Il principio è ora lo stesso essenzialmente riguardo alla privacy. AI finisce nel mirino perché finalmente mette sotto gli occhi di tutti la fondamentale differenza di scala tra profiling manuale fatto con carta e penna da esseri umani, rispetto alla stessa cosa fatta coi datacenters.

Ben svegliati, direi. Anche prima dell’avvento del deep learning andava riconosciuto come problema, imho.

4 Likes

Beh è semplice: se il problema è il metodo tornereste allo stabellìo, alle visure, ai modelli hard fatti a mano, se il problema è il principio… beh, iniziamo a sventolare bandiera nera e ad affilare le asce bipenni :asd:

a me spaventa pià il DCA sinceramente

Si cazzo esattamente questo - QUESTO

2 Likes

Ehm, il credit scoring fa parte dei sistemi high risk, eh :asd: E’ esplicitamente riportato nell’AI Act.

Contestavo solo il “se no chiuderemmo baracca” che appariva come la giustificazione per la distinzione tra credit scoring e social scoring.

Chissenefrega se qualcuno chiude baracca. La discussione sarà stata nel merito della distinzione tra credit e social.