ChatGPT

Se il tuo dubbio è se sia penalmente rilevante, direi che molto probabilmente lo è quantomeno in Italia per l’art. 600-quater 1 c.p., che riguarda “immagini realizzate con tecniche di elaborazione grafica non associate in tutto o in parte a situazioni reali, la cui qualità di rappresentazione fa apparire come vere situazioni non reali”.

Se il tuo dubbio è se sia giusto punire quella fattispecie, qui si entra nel campo delle opinioni e ognuno può pensarla diversamente a seconda della propria sensibilità.

“Il possessore di contenuti pedopornografici fake generati dall’AI va penalmente perseguito?”

Non andrebbe perseguito né il produttore né il possessore. Per quanto assolutamente disgustosa o moralmente inaccettabile, non c’è il corpo del reato e non è stato fatto del male a nessuno, trattasi di pura fantasia, sono cose che non esistono.

Altrimenti andrebbero perseguiti anche gli autori di hentai con teens/animali, o anche (perché no) un banale testo scritto che possa stimolare la fantasia perversa.

Cioè saremmo di fronte al paradosso che nei film si possono rappresentare scene di omicidi/torture di ogni tipo nei minimi dettagli, ma dei contenuti pedo fake AI-generated diventano reato.

Buongiorno Void :asd:

E’ sostanzialmente il leak Google che anticipa la scelta di Meta di rilasciare open source Llama2, ma stiamo parlando di maggio di quest’anno. Che in ambito Generative AI è quasi un’era geologica fa :asd:

e me l’hanno appena girato. non avevo capito facesse riferimento a quello. mea culpa :asd:

Sì, la mia discussione verteva più sul piano filosofico che non specificamente tecnico giuridico.
Quindi per la legge se facessi un disegno macabro (scene di violenza, ammazzamenti, etc…) piuttosto realistico sarei perseguibile penalmente? :mumble:
Non cozza un po’ sta cosa con la libera espressività artistica?

C’è chi dice che questa cosa dell’AI potrebbe distruggere il mercato della pedopornografia (quindi addirittura un bene) ma mi sa tanto di quelli che elencano i benefici medici della marijuana solo perché vorrebbero legalizzarla :asd: Anzi secondo me è da tenere in considerazione il fenomeno opposto, la maggior distribuzione e minor reticenza nel creare tale immagini potrebbe favorire un’ondata di pedopornografia di ritorno.
Il problema però è più generale e esula da questo specifico campo. Si può condannare una persona per aver creato immagini finte seppur macabre e borderline? (intendo il solo crearle e possederle, non divulgarle e pubblicizzarle). Fino ad oggi il problema non si creava, o almeno nessuno l’ha mai creato, con i normali disegni. Disegni che, per quanto fatti bene, ovviamente rimanevano disegni. Ora l’AI apre questo nuovo aspetto. E è un attimo arrivare alla psicopolizia se non lo si regolamenta e lo si valuta con estrema cura :asd:

Si ma ripeto, gli omicidi/torture/splatter vari in tv vanno bene ma gli altri contenuti di fantasia no? E’ un paradosso grosso come una casa. Non sta in piedi :asd:

Il paragone con la marijuana non regge perché in questo caso si parla di cose reali.

No, il paragone con la marijuana era inteso come giustificazione dei benefici di una determinata cosa, indipendentemente dalla veridicità provata o meno. Non c’entra niente col focus del discorso :asd:
Sui film e quant’altro è esattamente ciò che sostengo

Si capisco, ma il problema della pedopornografia penso stia nel fatto che vengono commessi degli abusi su minori/bambini (o anche se non c’è l’abuso in senso stretto, c’è comunque coinvolto un minore in atti sessuali), quindi tolto questo aspetto si estingue anche il reato. A meno che non si voglia punire la fantasia sessuale di fare sesso con minori.

in Italia simulare minorenni in atti sessuali, anche solo disegni è illegale.

Per la Suprema Corte di Cassazione (Cass. pen. Sez. III, Sent., (ud. 13-01-2017) 09-05-2017, n. 22265) la detenzione di immagini di pornografia virtuale (disegni o rappresentazioni fumettistiche) che ritraggono soggetti minorenni intenti a subire pratiche ed atti sessuali, configura l’applicabilità dell’art. 600 quater c.p… Continua la Suprema Corte che “ la qualità di rappresentazione deve essere tale da far apparire come accadute o realizzabili nella realtà e quindi “vere”, ovvero verosimili, situazioni non reali, ossia frutto di immaginazione di attività sessuali coinvolgenti bambini/e

Ricordo anni fa c’era stato il problema anche con porno dove l’attrice/attore sembrano/simulano l’essere minorenni.

non ritrovo articoli ma ricordo questa discussione.

eh, boh, non essendoci una parte lesa, tenderei a inserire tutto quanto nella libertà di espressione, d’altra parte non è che non faccia schifo una persona che si sega sulle loli. però dovrebbe avere la libertà di fare schifo i guess.

in italia comunque c’è il precedente dei disegni, che sono appunto illegali anche mancando una parte lesa. probabilmente per assonanza andrà in quella direzione, un eventuale giudice.

La lezione dovrebbe essere che bisogna andare in un centro dove sia possibile avere una diagnosi completa piuttosto che da 17 diversi specialisti.

Oppure @Lord_Phobos può provare a usare chatgp

E’ uno strumento fondamentale a supporto di una professione, non sostituisce una persona ma la supporta perchè fa cose che la mente umana non può fare, come fare correlazioni su migliaia di informazioni. Anche nella mia professione (informatico) lo uso. Molte volte dice cazzate, ma è li che entra in gioco il professionista che deve valutare l’informazione ottenuta e correggerla/integrarla, ma oramai lo ritengo uno strumento indispensabile.

Sarebbe bello avere delle AI con un training dedicate a specifiche professioni, con un training accurato su fonti dati affidabili.

3 Likes

Fatto, ovviamente. Mi ha dato una quantità di possibili patologie assurda.

Immagino già orde di ipocondriaci che passano dall’uso di google per autodiagnosticarsi l’impossibile a chatgpt.
Cosa potrà mai andare storto?

1 Like

Capirai, tra miliardi di richieste può anche capitare ne azzecchi una. Però ovviamente basta per farlo diventare Dottore

Ma infatti la news e’ data con la solita faciloneria acchiappa click.
Anche la macchina per i raggi aiuta a diagnosticare con buona precisione le fratture :asd: eppure non credo sia una buona idea renderla self service a chiunque. Idem le AI.
Nelle mani si un buon medico che le sa usare (l input e’ essenziale per avere un output sensato) saranno uno strumento fantastico. Nelle mani dell utente boomer un flagello.
Gia ora c’e’ gente che cgiede a google : male al ginocchio livido sotto l ascella battito accelerato che malattia ho?
Immaginiamo lo scenario distopico di gente che npn va dal medico di base ma si rivolge a chatgpt.

1 Like

Basterebbe autorizzare chatgpt a rilasciare ricette per farmaci e prescrivere visite specialistiche.
Risolto di botto il problema dei medici di base.
A parte gli scherzi, ho interrogato il cervello artificiale su un problema tecnico per nulla banale che mi si è presentato sul lavoro e mi ha dato una risposta corretta.

Esistono da una parte i casi clinici da manuale, dall’altra la maggioranza dei casi clinici.
Esistono da una parte i pazienti con una singola malattia, dall’altra la maggioranza dei pazienti con multiple malattie che coesistono.

Se io avessi detto all’esame di Semeiotica che una appendicite poteva manifestarsi con dolore in fossa iliaca sx, sarei stato bocciato in tronco. Se lo chiedessi a ChatGPT mi direbbe di pensare ad una diverticolite o qualcos’altro ma non ad una appendicite.
Poi nel mondo reale ti capita la paziente giovane con anamnesi muta e dolore riferito alla fossa iliaca sx, cui fai fare un eco addome che indica una appendicite perforata.

Nel momento in cui i professori universitari e/o ChatGPT saranno in grado di diagnosticare correttamente un caso del genere, lascio la professione e vado a fare il contadino.

1 Like