[Drama] DeepFake Porn & Twitch

[QUOTE=elindur;20775288]Mi sorprende il fatto che non abbiate ancora parlato del caso più pericoloso di tutti, che uno stato usi un Deep fake per incriminarvi di un reato non commesso e togliervi così di mezzo nel caso siate una persona scomoda

Ovviamente anche togliendo il reato penale sarebbe ugualmente grave se tale mezzo di Isa per screditare una persona[/QUOTE]

l’ho detto io, ma non era penale :asd:

poi giga, boh, prendi una persona a caso che usi abbastanza instagram e dimmi che non c’è, mediamente, sufficiente materiale per fare qualsiasi cosa

[QUOTE=Luxifer;20775287]quindi ora il deepfake libera tutti i porno homemade/revenge perchè tanto “mai fatti, sarà un deepfake, nice-try”[/QUOTE]
In effetti, è l’effetto reverse logico
[QUOTE=elindur;20775288]Mi sorprende il fatto che non abbiate ancora parlato del caso più pericoloso di tutti, che uno stato usi un Deep fake per incriminarvi di un reato non commesso e togliervi così di mezzo nel caso siate una persona scomoda

Ovviamente anche togliendo il reato penale sarebbe ugualmente grave se tale mezzo di Isa per screditare una persona[/QUOTE]
Vale quello che diceva tra il serio ed il faceto luxifer, credo che d’ora in poi prove video e audio verranno prese molto più con le pinze e con a grain of salt, visto che il deepfake può alterare tutto; la valenza probatoria non sarà la stessa di ora.
Oppure col cazzo e ti inculeranno con la sabbia:asd:

[QUOTE=Shadlol;20775073]
Un altro è usare la AI per usare le foto digitali di Pjem e modellarle sulla faccia di un attore di film porno in modo da editare un filmato dove sembra che sia Pjem l’attore porno, e non parlo di uncanning valley ma di “cristo santo Pjem fa i porno???”[/QUOTE]

Il vero problema è che poi finisci sul filmato dove il vero Pjem pornizza e lui si difende dichiarando che si tratta di un deepfake.
Da qualsiasi parte la giri, Pjem vince sempre! :dunno:

[QUOTE=char;20775293]l’ho detto io, ma non era penale :asd:

poi giga, boh, prendi una persona a caso che usi abbastanza instagram e dimmi che non c’è, mediamente, sufficiente materiale per fare qualsiasi cosa[/QUOTE]Non saprei, per i Deep fake dei vip leggendo che servivano centinaia di foto, e si vedeva comunque che erano fake.
Poi certo, magari in futuro basteranno 20 foto, per dire, e 20 foto ce le metterò pure online anche se utilizzo internet con attenzione, rimane il problema della potenza computazionale/pagare chi te la affitta.
Il Revenge porn invece è a costo zero.
Da un lato ti serve potenza computazionale, dall’altro la ragazza che accondiscende a farsi fare video.
Nel secondo caso una volta fatto il danno sai chi denunciare, nel primo no, questo è uno degli aspetti da considerarsi anche, perché arrivare a chi ha richiesto un Deep fake ad un servizio online a pagamento credo sia molto problematico.
Però ripeto secondo me è una cosa che sarà comunque meno diffusa del Revenge porn classico.
Però non sono un informatico quindi potrei pure sbagliarmi, ad oggi non ho idea di quanto costi far fare un Deep fake a pagamento da un servizio online.

Inoltre credo che come ci siano reverse image search dovrebbe essere possibile risalire tramite algoritmo che fa un check sul video al video originale su cui è stato fatto il Deep fake, no?

Inviato dal mio moto g52 utilizzando Tapatalk

[QUOTE=Oath;20775280]ma infatti e’ moralismo, ma uno potra’ avere le perversioni che vuole? :asd:[/QUOTE]

Tu puoi avere tutte le perversioni che vuoi ma la pornografia con immagini non consensuali è illegale in tutti gli universi, marvel o meno.

Se vuoi vederti il porno con la tipa della porta accanto fatti tuoi, basta che lei abbia firmato un consenso informato altrimenti siamo fuori da quello che una società civile (e pure un forum online) può tollerare su.

[QUOTE=elindur;20775288]Mi sorprende il fatto che non abbiate ancora parlato del caso più pericoloso di tutti, che uno stato usi un Deep fake per incriminarvi di un reato non commesso e togliervi così di mezzo nel caso siate una persona scomoda

Ovviamente anche togliendo il reato penale sarebbe ugualmente grave se tale mezzo si usa per screditare una persona[/QUOTE]

Già abbiamo visto i danni solo fatti dalle fake news sui social in politica, pensa se una tv connivente manda un video del genere di un avversario politico

[YT]h56WLqdD-7I[/YT]

[YT]2WF218HnzYE[/YT]

[QUOTE=Pjem;20775227]Tra l’altro a parte l’aspettò revenge manco capisco la gente che si fappa su sta roba.
Voglio dire, avete tutto l’internet dove a tre click di distanza trovate un video di una persona ordini di grandezza più figa di qualsiasi roba che sarete mai in grado di scoparvi che si infila un pianoforte a mezza coda nel culo. Però si fappano sulla roba dove appiccicano la faccia di un’altra, non capisco davvero, cioè si eccitano solo perché è famosa, di attori o attrici porno fighissime ci riempi gli stadi, che è cringissimo[/QUOTE]

Magari proprio l’ampia ed immediata disponibilita’ ad alimentare la ricerca di soggetti e categorie diversificati. :asd:

[QUOTE=char;20775293]l’ho detto io, ma non era penale :asd:

poi giga, boh, prendi una persona a caso che usi abbastanza instagram e dimmi che non c’è, mediamente, sufficiente materiale per fare qualsiasi cosa[/QUOTE]

In realtà no perchè appunto fare un video credibile richiede una quantità di materiale sorgente molto cospicua e variegata. Vedi anche il deepfake che ho postato prima di Bankman di FTX: nonostante sia un personaggio pubblico il video è palesemente finto. Non è semplicemente credibile.

Comunque, il punto di Suck vi è sfuggito e in realtà è molto semplice. Ve lo spiego con un piccolo esercizio di fantasia.

Supponiamo che da domani tutte le applicazioni AI legate al mondo della finanza cessino di funzionare e produrre reddito e invece tutto il mondo delle applicazioni benevole e positive (ad esempio quelle mediche) funzionino ancora meglio.
Secondo voi si continuerebbe a pompare così tanto denaro e attenzione pubblica nel mondo dell’AI? La risposta è no, perchè appunto il grosso del “valore” prodotto (in generale, non solo dalle AI) nel mondo di oggi è pura fantasia, numeretti che si spostano in giro per il mondo da un computer a l’altro seguendo le “aspettative”.

Prima di rispondere avrei bisogno di visionare il materiale incriminato.

[QUOTE=Sergio Baracco!;20775336]In realtà no perchè appunto fare un video credibile richiede una quantità di materiale sorgente molto cospicua e variegata. Vedi anche il deepfake che ho postato prima di Bankman di FTX: nonostante sia un personaggio pubblico il video è palesemente finto. Non è semplicemente credibile.[/QUOTE]

questo?
https://gizmodo.com/sbf-sam-bankman-fried-deepfake-ftx-crypto-1849808634

a me non sembra non-credibile… poi ovvio che potrei essere io, ma a me non sembra palesemente fake

Qui si può vedere il video:
https://twitter.com/jason_koebler/status/1594720003923722240

Pur essendo ben fatto, l'audio è fuori sincrono e la mimica facciale non è credibile. E si tratta solo di pochi secondi di una persona che parla, non c'è azione. E qui ci hanno speso bei soldi e tempo visto che era una truffa.

[QUOTE=Shenlong;20775128]Tutta la roba nel campo biomedico per dire

Hai letteralmente i bioarti che ridanno funzionalità a persone che fino a pochi anni fa si sarebbero dovute rassegnare a rimanere handicappate tutta la vita

Oppure le macchine che ti dicono la % di avere una determinata malattia senza dover fare test ultrainvasivi.

Io ho dovuto rimettere una capsula dentale di recente…al tempo avevo dovuto fare impronta+provvisorio+definitivo e sperare andasse tutto bene con enorme spreco di tempo, soldi e fatica fisica.

Ora con l’IA abbinata allo scanner 3d ho fatto tutto in 2 sedute da 20 minuti.

Poi hai tutta la roba NLP e DL che hanno delle potenzialità incredibili.

E queste sono le prime cose che mi sono venute in mente in 5 minuti. Dire che l’IT produce spazzatura è un’uscita di un’ignoranza (nel senso di ignorare quello che sta succedendo all’interno del campo) spaventosa sopratutto quando il problema è al massimo quello completamente opposto: si produce della roba che funziona talmente bene e/o con potenzialità talmente elevate che c’è il rischio che in un futuro prossimo una fetta ampissima della popolazione sarà inoccupabile perchè resa obsoleta dalle macchine.[/QUOTE]

e le AI cosa c’entrano?

Immagino diventi endemico, non si puo' fermare temo, secondo me quello che succedera' e' semplicemente un cambiamento sociale, che e' gia in corso, per il quale, proprio come gia succede per articoli di news, si passera' dal video come prova definitiva, a prova non ammissibile in corte, o qualcosa di simile. Proprio come adesso si parte dal presupposto che roba letta a caso su internet sia una bufala si partira' dal presupposto che video di un certo tipo siano fasulli fino a prova contraria.

[QUOTE=Shadlol;20775050]Se non vivete sotto ad un sasso saprete benissimo cosa è successo qualche giorno fa.

In caso contrario…

[TWEET]1620091517259087874[/TWEET]

Lo streamer americano Atrioc durante una diretta live ha per sbaglio mostrato una tab del suo browser aperta su un sito famoso per fare deepfake porno di persone famose, tra cui alcune streamer tipo Sweet Anita o QTCinderella

Chiaramente è scoppiato un casino, come è giusto che sia, la domanda visto che il giochino del momento è ChatGPT e/o i generatori di immagini AI

non è che siamo andati un pelo troppo oltre con la AI? oppure essendo fotomontaggi #care? oppure invece no è alla stregua di un revenge porn?

Inutile dire che il sito è stato chiuso dal proprietario che ha fatto una semi apology

[/QUOTE]

Jesus sanctissimo non ho capito una fava di niente, non so cosa siano chaptcoso, ai, cinderella , atrioce e vaffanculi vari…e non ho nemmeno intenzione di googlare :asd:

Internet is for P0rn :v

per chi ignora

[yt]YRgNOyCnbqg[/yt]

[QUOTE=inglo;20775409]e le AI cosa c’entrano?[/QUOTE]
altre parole a vanvera :asd:

E' qua che si possono chiedere Deepfauke della Daddario ? Chiedo per un amico

[QUOTE=Frattacchia;20775418]Immagino diventi endemico, non si puo’ fermare temo, secondo me quello che succedera’ e’ semplicemente un cambiamento sociale, che e’ gia in corso, per il quale, proprio come gia succede per articoli di news, si passera’ dal video come prova definitiva, a prova non ammissibile in corte, o qualcosa di simile. Proprio come adesso si parte dal presupposto che roba letta a caso su internet sia una bufala si partira’ dal presupposto che video di un certo tipo siano fasulli fino a prova contraria.[/QUOTE]

praticamente si parte dal presupposto che qualsiasi cosa ci si possa scambiare per comunicare e discutere sia falsa, il che apre al credere a… cosa di preciso?

solo i paperz.

[QUOTE=Chimay;20775320]

Se vuoi vederti il porno con la tipa della porta accanto fatti tuoi, basta che lei abbia firmato un consenso informato altrimenti siamo fuori da quello che una società civile (e pure un forum online) può tollerare su.[/QUOTE]

Con la presente si autorizza il sig. Chimay (da qui definito “Il masturbante”) a praticare atti di autoerotismo con video fake riguardanti la signora della porta accanto (da qui definita “La masturbata”).
Si solleva altresì La Masturbata da qualsiasi danno a cose o persone possa derivare dall’attività onanistica del Masturbante.