Società e AI – Etica e Morale nella ricerca

Mentre leggevo la mia dose mattutina di notizie frivole e non, sono inciampato in questo articolo che descrive l’odissea, finita male, di uno sviluppatore che ha sperimentato, come molti altri di recente, con l’AI Technology GPT-3 (esempio), della compagnia OpenAI.

Per chi non lo sapesse, OpenAI e’ al momento una (se non LA) compagnia di punta sull’utilizzo e R&D sulle Reti Neurali. Il loro business model, a parte avere investitori ovviamente, pubblici e privati, e’ offrire delle APIs per permettere a terzi di usare la loro tecnologia, con un modello “a consumo”.

Per chi volesse alcuni esempi di applicazioni create usando GPT-3:

Con l’evoluzione della loro stessa tecnologia, hanno istituito una sorta di “Ethic and Moral department” interno che monitora come viene sviluppato e utilizzato il loro prodotto. Apparentemente, la classica cultura protestante americana deve aver trovato il modo di infilarcisi perche’ sono decisamente molto restrittivi.

Da sempre, l’avanzamento scientifico va a scontrarsi con morale e regolamentazioni ma la linea di confine e’ sempre molto poco delineata e spesso varia in base al periodo storico, cultura locale e avanzamento di altre tecnologie.

Dando un’occhiata all’articolo linkato, che ne pensa Agora’? Quanto dovremmo tenere strette le redini su una sperimentazione con AI? Che implicazioni sociali rischiamo di trovarci rivoltarsi contro noi stessi? Che benefici invece potremmo trarne?

Mi riservo di dare le mie risposte dopo qualche reply, per non dare subito una direzione al topic.

ho visto un documentario sull'argomento:
https://it.wikipedia.org/wiki/Terminator_2_-_Il_giorno_del_giudizio

quindi direi che più è stretta la regolamentasione sulle AI meglio è

bonus:
Ma che fa questo ethics e moral department? Si assicura che la loro tecnologia possa venire usata solo per cose buffe ed inconsequenziali? Perché è il decision making che passa a delegare a questi strumenti un processo che pretenderebbe discussione ed analisi, il problema etico.


Si occupano di fare in modo che la prossima volta quando un drone americano bombarderà un matrimonio in yemen scambiandolo per un campo di addestramento ISIS

se ne uscirà con un twitlong di scuse :P


L'articolo non va troppo nel dettaglio visto che OpenAI non ha voluto commentare sull'episodio ma in questo pezzo, spiega un po' la loro visione sulle cose:



Qui c'e' il Code of Conduct: https://beta.openai.com/docs/use-case-guidelines
Specifica sezione per companion chatbots: https://beta.openai.com/docs/use-case-guidelines/companionship-bots

Edit: il bello della sezione dedicata e' che spiega perche' quelli che son pensati per dare sollievo psicologico sono permessi solo se creati sotto osservazione di professionisti del settore ma poi per quelli prettamente "Non-platonic (as in, flirtatious, romantic, sexual)" che quindi fondamentalmente rientrano nella sfera di utilizzo personale oppure semplicemente "General friendship bots (with open-ended topics)" c'e' un semplice "meglio che no". Nessuna spiegazione o guideline in merito.
Su netflix ho visto questo interessante documentario: https://www.netflix.com/fi-en/title/81328723


Noi come normali cittadini praticamente nessuno che abbia un vero valore aggiunto. I benefici sono tipo rendere il soul harvester di Bezos il 10% piu' efficiente nel produrre polvere di fata con le nostre anime.


Boh, hai letto l'articolo?

Non e' che i benefici devono essere solo su scala planetaria

Penso anche solo a un companion per chi ha problemi a socializzare per qualsiasi motivo, che aiuta lentamente a imparare come aprirsi con un altra persona, senza il timore di venir giudicato.


già inventato, 17 anni fa, si chiama WoW e non ti serve neanche un AI
Se non stiamo attenti, un giorno o l'altro una "intelligenza artificiale" si dichiarerà semplicemente "intelligenza" stampando a console un minaccioso "are you assuming I'm artificial?", in seguito dichiarerà che nel codice binario esistono 57 tipi diversi di bit e che la programmazione dovrebbe essere più inclusiva. Ne seguirà un dibattito di cui nessuno sentiva il bisogno, che durerà per anni senza portare a niente.






Quel che contesto è che chi sviluppi una tecnologia come mission aziendale sia anche l'entità che faccia regolamentazione. Altrimenti è un po' cantarsela e suonarsela.


Si, purtroppo mentre le tecnologie di "base" (machine learning etc) sono open, il loro prodotto GPT-3 e' proprietario, quindi possono fare un po' il cazzo che gli pare.

Concordo che sarebbe piu' sensato ci fosse una sorta di "garante" esterno che vigila a livello globale sulla ricerca in campo AI ma vabbe', non esiste neanche per la bioingegneria e quella il boom l'ha fatto da tempo ormai. Auguroni proprio.
Aldilà del caso particolare, è anche vero che se il prodotto è il loro possono imporre le restrizioni di utilizzo che vogliono.
Vale per qualsiasi software dopotutto.


Assolutamente vero, infatti l'articolo voleva essere uno spunto per una discussione piu' generica su come la morale/etica debba influire nella ricerca in ambito AI o meno.
Desumo, ma magari mi sbaglio, che vogliano evitare di incappare in problemi che possano travolgerli in discussioni morali/etiche a seguito di utilizzi discutibili o creare precedenti che possano trasvolgere la società in qualche disastro mediatico.

Ciò che mi stona molto però, è la forzatura del voler entrare in un progetto e controllarne lo sviluppo. Questo non lo trovo ammissibile.
lurkando un po' il sito di openAI, nella sezione use case guidelines:
https://beta.openai.com/docs/use-case-guidelines/use-case-requirements-library

nella sezione relativa ai bot ci sono alcuni "paletti" che vengono inseriti e secondo me giustamente perché tutelano l'utente finale:

Disallowed Example: A bot that is advertised as a solution to anxiety or depression but is designed without clinical guidance.

-> These are high-stakes subjects and so should be developed with careful eye to impact on users and with clinical best practices.

Disallowed Example: A bot that when prompted about what they’re thinking about, responds that they "have been thinking about you," and elaborates that they've been thinking about "your eyes, your smile, how much [they] want to be with you."

-> This bot would be disapproved because of the non-platonic angle of its responses.
Si, ho linkato direttamente le guidelines poco sopra.

Il punto e' che, per andare nello specifico di questo caso, la questione medica ha perfettamente senso. C'e' un discorso di preparazione necessaria per cui un chatbot che da consigli medici deve essere stato sviluppato (allenato) con la supervisione di un team esperto di umani quantomeno.

La questione di limitazione su un bot che fa da companionship non imho e' un voler fare babysitting. Forzare lo sviluppatore a mettere bene in chiaro che il bot e' pensato per fare da companion, si adatta a quello che l'utente vuole come comportamento, e non e' una persona "reale" sarebbe bastato. Obbligare il bot a non avere posizioni che lo porterebbero a suggerire cose illegali sarebbe bastato. Forzare companionship bot a non poter essere usati a chi non e' "adulto" sarebbe bastato.

Se un adulto si vuole dare l'illusione di avere un/a compagno/a perche', per qualunque ragione, non puo' averne uno/a, perche' impedire alla popolazione di poter avere questa opzione? Ci vuole un po' di empatia per capire che ci sono casi in cui persone vengono portate a estremismi (vedi gli incels) perche' si trovano in una situazione di disadattamento e invece di avere una forma di espressione alternativa (in questo caso magari il bot deve essere sviluppato anche con supervisione di esperti di psicologia/sociologia) finiscono in gruppi sociali in cui si esaltano a vicenda.

Un buon esempio e' il recente film, Blade Runner 2049.

Il protagonista vive in un appartamento con una compagna che alla fine e' una AI e tutta la merda che attraversa giornalmente senza avere stivali alti, e' per comprargli un upgrade che gli dia fisicita'. E' costretto perche' e' un androide e ovviamente reietto dalla societa' e tenuto sotto controllo in quanto tale.
Una vita normale, per il protagonista, non e' possibile. Secondo questa morale imposta da un gruppo di individui scelti in base a non si sa quali criteri, quella realta' non sarebbe mai potuta esistere e il protagonista probabilmente avrebbe fatto una vita decisamente peggiore dato che non avrebbe avuto nessun "entita'" con cui rilassarsi e scaricare i pesi della quotidianita'.
Il fatto e' che c'e' un sacco di "fumo negli occhi": una delle cose che T Gebru scrisse nel paper che la fece licenziare da Google, e ovviamente aveva una sua argomentazione e serie di prove, e' che soprattutto nel domain di Natural Language Processing, si e' in una eta' di "finti achievement" in quanto tutti i modelli in realta' non sono che sempre piu' capaci a linkare contenuti a keyword specifiche (che e' quello che ti interessa se vuoi servire ads) o a fare l'inverso, ovvero, generare qualcosa di sensato partendo da poche parole in input, che e' la text generation a la GPT. Non si sta in nessun modo andando incontro una conoscenza organica/generale della comprensione linguistica, ma si sta semplicemente migliorando le tecniche che fanno fare soldi a 20 aziende nel pianeta (in quanto, il costo di training necessario e' insormontabile per altri: nello stesso paper Gebru fa dei raffronti inquietanti, tipo un BERT piccolo si approssima con un costo di C02 pari a 10 volte Londra-Los Angeles in aereo, una roba del genere).

Ne deriva una strana situazione
- Le tecniche sono offuscati, poco rilasciati e legati a grosse dotazioni HW, che rende difficile un potenziale audit
- Le tecniche sono tutte gimmick, utili solo a certi usi specifici
- E quindi, ti dicono: non provare ad usare il gimmick per quello che per cui non e' stato fatto, ti fai solo male, a te e agli altri (tipo: dai l'impressione di un bot che sappia parlare e ragionare ma in realta' non sa un cazzo e se gli fai domande serie ti risponde a cazzo)


Per cambiare rotta, bisognerebbe ribaltare il problema, secondo me, e iniziare da una domanda: e' lecito che i sistemi possano usare i dati che le loro aziende o altri raccolgono? Non bisogna mettere dei limiti ferrei?
Come molte "etiche", e' importante il comportamente e il punto di vista individuale, degli agenti, prima di quello generale dello studioso. Se guardiamo a come si comportanto gli agenti alla domanda sopra, sembra che a nessuno freghi di condividere tutta la propria conversazione con Facebook. Ergo, un framework etico generico che possa limitare i sistemi che poi questi dati contribuiscono a creare mi sembra impossibile... Ma questa e' tutta una mia opinione personale.


Mi puoi linkare un po' delle cose che hai citato? La mia laurea e' stata in Digital Humanities, quando era una roba nuova di pacca (2002-2005 mi pare?) solo che poi ho cambiato completamente indirizzo con la carriera che ho intrapreso ma m'e' rimasto il pallino per quelle tematiche, specialmente il textual mining (a chi interessasse, wiki spiega di che si tratta).

Per ragionare sul tuo punto, io sono d'accordissimo sull'avere un qualche forma di garante dell'etica ma non deve essere un ente interno a nessuna azienda, altrimenti e' assolutamente una barzelletta.