Translatorgate: in giappolandia sostituiscono i traduttori con l'IA

Boomer spotted.

Guarda, io rettifico da 25 anni, e nel mio lavoro se non sei passato anni per le macchine manuali, dopo ti mancano proprio le basi su tutto il resto.

Detto da uno con esperienza in merito, quando si parla di centinaia di iterazioni, in quasi la totalita’ dei casi significa che qualcuno (directors o cliente solitamente) non sa che pesci pigliare, non che stan facendo polishing di una visione artistica ben definita. :asd:

Nessuno ha detto il contrario, é un meme ed é stato fatto in una notte perché quello era il tempo che avevo da dedicare a quel progetto.

Non centra l’ego, coglione, il discorso é che professionista o meno tre versioni di quel filmato in quel lasso di tempo difficilmente le avresti ottenute con i metodi convenzionali.

Ma hai problemi con i lunghi periodi?
Con l’interpretazione di testi ?
Con l’italiano?
:dunno:

Ho detto che le CNC ti danno la possibilità di saltare a piè pari le basi?

Boh, non mi pare, quota che ne discutiamo. :dunno:

Vabbe’ come al solito non capisci un cazzo di nulla. Il professionista non fa meme, i cazzari come te fanno meme e pensano di fare qualcosa di professionale o di analogo :asd:

Ma chi se ne fotte.

Qui non si stava parlando del risultato, il discorso era incentrato sui mezzi a disposizione per raggiungerlo a prescindere dal livello di professionalità.

Il filmato del nasale era solo un esempio.

Minchia sezione ritardo, presente.

Ti posso assicurare che il meme generator non fa parte del toolset di nessun professionista.

Nemmeno paint.
Ma chi ha parlato di meme generator?

Ci si arriverà, credo.
Ho scoperto in tempi recenti l’esistenza dei virtual influencer (esempio: Miquela - Wikipedia ), non credo la possibilità di avere attori virtuali sia da escludere completamente.

Se vogliamo tornare al discorso arte (qui si parlava di traduzioni), devo dire che “adesso” hai ancora ragione, lo condivido, ma vedendo gli sviluppi mi sbilancio a dire che nel giro di qualche anno l’AI potrà supportare anche gli artisti nell’output che devono fare, e ti permetterà di farlo a velocità 100x; come ti risposi nell’altro 3d, secondo me l’AI come artista non è da combattere ma da assorbire e affiancare agli altri strumenti.
Adesso il processo è ancora troppo aleatorio, ma quando potrai interagire con l’AI in maniera multimodale in real time e con feedback e sensori, ne vedremo delle belle in campo artistico, perchè l’AI sarà una forza moltiplicatrice dell’output di un artista.
Ma come tutte le automazioni, taglierà parecchi che sono sotto la media (commercialmente parlando, chi lo fa per se senza cercare profitto può continuare “alla vecchia maniera” quanto vuole che nessuno gli dice nulla).

sta per uscire l’s24 di samsung con chip AI integrato + software dedicato.
ci sono un botto di rumors in circolazione che indicano la presentazione al giorno del lancio della traduzione realtime delle telefonate. indubbiamente sarebbe una bomba clamorosa.

babelfish sta per diventare realta’. sarebbe un gran passo nel futuro.

Il filmato del nasale di quest’anno é stato generato da una istanza locale di facefusion installata tramite pinokio, tutto generato a partire da un’immagine statica.

Quello dell’anno scorso era fatto da un generator qualsiasi online, stile jib jab per intenderci.

La differenza si vede, sia in termini di tempo che di ottimizzazione tenendo presente che l’AI di quest’anno non era stata per nulla istruita e si vede nelle sostituzioni orizzontali (dove Margiaiah é sdraiata per capirci) e nelle transizioni.

Non é un lavoro professionale, non voleva esserlo, ma non c’é dubbio che sono tool destinati ad essere usati sia da amatori che da professionisti.

Basti pensare che nelle ultime versioni di photoshop sono già integrate e nel futuro andranno sempre più a snellire processi che ora sono lunghi e tediosi.

E magari se oggi un addetto agli effetti speciali deve saper utilizzare un green screen domani sarà semplicemente obsoleto.

Oppure gli archivi di immagini sotto copyright.

L’ultima offerta di omogeneizzati in uno dei miei supermercati é stata fatta con immagini di bambini che mangiano la pappa inesistenti e generati dall’AI. :dunnasd:

https://www.instagram.com/p/CnZDcs-Lfb6/?igsh=aTZsamJoY3VyZXoz

ho un collega gen z che fa 4K al mese creando immagini e animazioni osé di personaggi femminili presi da lol, dota, anime, etc.
ha iniziato così for fun e ora ha dovuto registrare una società visti i guadagni :asd:

oddio l’ultima immagine potrebbe essere un eating ass gone wrong

Alla prima é scoppiato un raudo in mano a capodanno e le hanno trapiantato un alluce di macaco :asd:

Le prime iterazioni di AI sucavano con dita e zampe :dunnasd:

ma hanno messo un prete a capo della commissione algoritmi e AI, fantastico

Non ho letto il thread

Non so se avete visto i video di rrobe che parla giapponese (o salvini francese mi pare), ma fra due tre anni scompare il doppiaggio del tutto come industria

Se solo ci fosse un modo per shortare pino insegno