Società e AI – Etica e Morale nella ricerca

Il paper è questo.


https://dl.acm.org/doi/10.1145/3442188.3445922


Grazie

E' quello che ti ha linkato char, si'.

Sulla seconda parte: quello che dicevo e' che secondo me per parlare di etica di sistemi di machine learning (perche' di questo oggi si parla quando si parla di AI) per me bisogna partire da "etica sulla raccolta E utilizzo dei dati": chi puo' raccogliere? Chi puo' poi usare? E come? Quali assicurazioni sono necessarie sui dataset nei casi in cui l'entita' puo' partire con il training?

Partire dall'etica sull'uso del sistema e':
- Piu' complesso come problema in se'
- Piu' complesso nella pratica perche' ti ritrovi un sacco di "offuscamento" da parte delle aziende, offuscamento che - onestamente - non e' un problema solo per chi e' piu' esterno al settore in quanto anche chi e' "studiato" sugli argomenti non ha piu' idea esattamente di cosa sta trainando/perche' funziona in un certo modo => cosa puo' ragionevolmente fare e cosa no
- Secondo me comunque risolverebbe solo una parte del problema

Non a caso, T Gebru che comunque uno/a la voglia considerare e' una persona parecchio sveglia e ha di fatto "inventato" il field nella pratica, si concentra molto su questa parte.
La cosa interessante secondo me e' anche che se si ponessero limiti etici all'uso dei dati, forse il field si evolverebbe nella direzione di creare sistemi meno opachi in quanto semplimente buttare dataset enormi ad un modello con un layer addizionale [semplifico eh] non sarebbe piu' praticabile, e quindi ci si dovrebbe ingegnare a massimizzare il valore di meno dati.

Un approccio etico che parte da questo "lato" pero', se si guarda alle scelte che le persone fanno, mi sembra possa difficilmente portare a "restrizioni etiche" in quanto gli agenti => le persone comuni hanno zero problemi a condividere tutti i loro dati con quasi qualsiasi entita', e storicamente [ma ammetto di avere conoscenza storica limitata] mi sembra che sia stato difficile arrivare a policy etiche siglate dalle istituzioni che fossero molto diverse da quanto condiviso dagli agenti, ovvero: il re non mette fuorilegge le gare tra polli in quanto non etiche se tutti i sudditi le considerano divertenti e/o utili e/o "beh che problema c'e'".


Si, questo e' il problema fondamentale in questo ambito. La popolazione generale e' talmente ignorante dell'impatto che hanno queste tecnologie che non se ne cura. E se non se ne cura, perche' mai un governo qualsiasi dovrebbe tutelare la cosa?

Anche se va detto, gran parte del "non curarsi" e' frutto di un ottimo (e bastardo) social engineering per cui si e' affermata la "ma se non hai niente da nascondere..." che e' una cazzata grossa come una casa visto che non e' che devi avere qualcosa da nascondere ma basta anche che quello che oggi era accettato, domani non lo sia piu', e tu che hai condiviso sempre tutto, finisci in una lista di "non desiderabili" solo perche' non sei piu' nella maggioranza morale.


* 100%

Aggiungerei anche che andrebbero normati i campi applicativi e il processo di supervisione di un agente umano all'interno di sistemi altamente automatizzati.

Vuoi fare pre-screening automatico dei CV sulla base di dati storici etichettati? Ok, ma per legge il processo deve prevedere un approval umano, che sia accountable delle scelte effettuate (così che in caso di bias discriminatori e tutto il resto, si possa risalire ad una responsabilità individuale).

.edit. una sorta di DPO, ma responsabile per le scelte dei sistemi AI-based
Parlando per opinioni riportate, perché non ci lavoro ma ho contatto con chi ci lavora, il ML è campo definito da un "difetto" centrale fondante - offrire un ranking alla fitness di un comportamento.
Puro e semplice, se dai un obiettivo ad un processo di ML, la macchina userà tutti gli strumenti a lei forniti (volontariamente o meno, ma sopratutto, controllabili o meno) per ottimizzare quel singolo punto di valutazione. Guarda questa lista di outcome perversi:
et via dicendo. L'etica viene già chiamata in causa a partire dalla definizione del problema che in una determinata istanza va risolto, perché una definizione scritta senza un approccio etico di quale sia il task induce a comportamenti che, se vedessimo in essere umano, li definiremmo come patologicamente sociopatici.
paperclip maximizer

è un problema che fa il giro e diventa validazione, perchè se ci pensi a tutti i livelli della società, il comportamento emergente è in larga parte determinato dallo schema di incentivi (-> funzione obiettivo).

vorrei trovare del tempo per dare un input perchè con l'ai ci lavoro (in biomedtech quindi etica è decisamente rilevante) ed è un argomento interessante ma mi riservo il diritto di buttare un wot più tardi

intanto aggiungerei che almeno nel bio e per i sistemi anche solo vagamente intesi per l'uso in un setting clinico/healthcare, stanno virando tutti invariabilmente sulla explainability delle decisioni e dei modelli come requisito imprescindibile per la loro applicazione (che è una roba che mette un sacco di bastoni tra le ruote agli sviluppatori ma questa è un'altra storia )
Sì ma infatti sto cercando di fare uno sforzo per non deviare in LSC, perché imho è un parallelo immediato


Qui però si sta parlando di reinforcement learning, che è una branca del ML molto particolare.

Il 95% dei sistemi di ML in uso sono supervisionati (usano cioè dati storici etichettati per prevedere comportamenti futuri => da cui l'attenzione verso la data collection, i bias impliciti pre-esistenti nel dataset di training, etc etc...).
Sì io ero rimasto al reinforcement, supervised ed unsupervised come aree principali di interesse, ammetto di non essere particolarmente up to speed ma ogni utilizzo che non fosse supervised e che fosse applicato a problemi non strettamente tecnici mi sembrava avesse questo punto di debolezza.
Pure io ho solo dei basilari sul RL, ma almeno nel mio capo lo vedo confinato solo ai pre-print che leggo su arxiv, mentre gli applicativi industriali sono praticamente sempre e solo supervisionati

.edit. aggiungo che in questo momento c'è molto hype attorno al DL applicato ai grafi (GNNs), più che sul RL
Neuro aspetto il tuo WOT con ansia, fallo ELI5 che cerchiamo di non tagliar fuori troppa gente almeno (e io compreso che per quanto ci lavori, sicuramente non ci lavoro nel tuo campo)

Mi ricordavo di averlo visto un paio di anni fa, spiegava in due parole cosa succede quando il contesto non è progettato bene, e c’è un limite evidente attuale nella capacità umana di creare constraint rispetto a quelli che la realtà applica.


Come diceva Cecio, gran parte dei sistemi oggi sono offline (quindi no reinforcement learning) learning e supervised, quindi l'emergere di tecniche inaspettate per arrivare ad una soluzione e' minore, e il problema invece delle due e' capire quali sono i fattori che sono stati tenuti in considerazione per arrivare alla soluzione che e' stata "spinta" al sistema dall'inizio, tramite esempi generati da umani nel dataset.
Il video che tu hai postato e' invece legato a reinforcement learning (e nello specifico, credo model-free RL, ovvero dove in partenza non si conoscono tutte le "regole" del sistema, ovvero: posso muovermi fino a quel punto? E' diverso da quando conosci tutte le regole, tipo Go in cui parte dell'input sono quali mosse sono valide e quali no) (btw non l'ho guardato ma credo di ricordare quel paper), e in quel caso gli agenti hanno solo in segnale di "reward" come input da perseguire e devono imparare la policy intesa come cosa-fare-in-ogni-situazione che porta al massimo reward. In quel caso', si', si devono imparare e poi effettuare delle sequenze di azioni, e c'e' molto piu' chiaramente il feeling che il sistema "truffi", che e' in qualche modo quello che succede quando con supervised learning il sistema da un peso inaspettato a delle cose che gli umani ignoravano per risolvere lo stesso provlema [ma qui si apre un grande dibattito], ma e' piu' problematico perche' i comportamenti si rivelano in effetti non accettabili nella pratica.

La parte interessante e' che molte applicazioni "holy grail" di ML non e' chiaro quanto sarebbero raggiunte/raggiungibili tramite online-learning: per dire, c'e' un grande dibattito sulle macchine autoguidate (ma in generale su self-driving agents) in quanto in teoria molti dicono che sarebbe un ottimo caso di problema che si risolverebbe bene cosi', se non fosse che non puoi mettere Nmila macchine con algoritmi primitivi nel deserto del Nevada, aggiungere un paio di pedoni e guidatori pagati, e poi farli interagire finche' le macchine non imparano o gli umani non sono tutti morti Pero' e' chiaro che sempre piu' Tesla e altre si stanno buildando simulatori molto accurati su cui provare a fare la stessa cosa, e sembra aiutare l'affinamento degli algoritmi. In quel caso, il problema si propone: e se per fare molte cose positive l'algoritmo comincia a tipo parcheggiare nei vialetti privati, che facciamo, aboliamo i vialetti privati?

Teoricamente, questa cosa si risolve tramite injection di una policy "guida" accettabile early nel training, e durante la simulazione l'algoritmo di fatto a volte fa quello che dice la policy guida, a volte quello che dice la sua policy. Con il passare del "tempo", viene dato sempre meno peso alla policy guida e sempre di piu' alla policy in via di sviluppo, in modo che l'algoritmo possa slegarsi e trovare una sua soluzione potenzialmente piu' ottimale. Cosi' facendo, si "bruciano" alcune strade di comportamenti il prima possibile (tipo parcheggiarsi nei vialetti privati) in quanto la policy guida non lo fa, e ugualmente in teoria si guadagna in qualita' delle prime run, in quanto senza policy guida magari l'algoritmo passava 2 giorni ad andare in retromarcia in curva Il contro e' che introduce bias e quindi devi stare attento che non tarpi troppo le ali all'algoritmo che stai affinando, e ovviamente anche assemblare queste policy guida non e' facile. Credo che astrattamente questa cosa si pubblichi sotto il nome "imitation learning" ma appunto e' ormai un ingrediente comune di molti altri sistemi di reinforcement learning.
Vedo che siete tutti ferratissimi quindi ho poco da aggiungere.

Lato mio da cavernicolo posso dire che in agenzia ho implementato GPT-3 per analisi SEO e copywriting SEO-oriented, quindi:

- L'analisi competitor non è più quantitativa ma entra nel merito del qualitativo, tov ed npl. In pochi minuti posso scansionare centinaia di siti e capire queste informazioni da poter replicare in un sito che dovrà posizionarsi tra di essi
- Il copywriting NPL seo-oriented ci permette di sparar fuori paginate e paginate di articoli con un decimo dell'effort solito. Più o meno dici di cosa vuoi parlare e ti escono 2000 parole precise con NPL adeguato ed uso keyword ottimale per l'indicizzazione Google.

Erano lavori estremamente esosi e che ora ci stanno dando una grossa marcia in più.
Chiaro è che Google dovrà presto capire come filtrare i shitpost AI e con un algoritmo che ti fa articoli più che sensati ed anzi pure interessanti diventa estremamente difficile.
Nell'accezione peggiore possibile, un boilerplate generator che impacchetta un concetto più o meno esteso?


e' un cane che si morde la coda


Hai qualche esempio da postare?

L'algoritmo per rimuovere contenuti generati da un algoritmo.


Stiamo andando online col nuovo sito, mi segno di mandarti il link appena è su.
Praticamente tutti i contenuti sono stati generati in gpt3, aggiustati un pelino dal copy in carne ed ossa