[LSC] Late Stage Capitalism: thread lollino, depressino e rageino (Part 3)

A me non sembra proprio la stessa cosa quello che hai scritto :dunnasd:
Tutti coglioni contromano in autostrada eh?

parla di “responsbilità” nel partire da conoscenze pregresse, è una questione filosofica non pratica, perchè è ovvio che l’umanità funziona cosi, ed è ovvio che non è che bisogna sempre riscoprire la ruota, ma lui si fa una domanda etica, e cioè se chi parte da certe conoscenze si domanda se siano “giuste” o “etiche” , se domani arriva Musk2.0 con la pillola 2.0 che ti rimescola il DNA e ti fa diventare supermen, e te la vende a 300000€ , sarebbe lecito domandarsi se gli scienziati che hanno contribuito hanno pensato cosa stessero facendo e comprendendo l’etica che c’era dietro alle scoperte percedenti alle loro.

Ottima sintesi direi, sarà da vedere se il comparto seguirà logiche di sviluppo industriale o commerciale, la differenza tra la creazione di compagnie aeree e l’industria dell’automobile, in questo caso forse l’idea di avere un’auto volante parcheggiata in ogni garage; a mio avviso è presumibile uno scenario intermedio alla AWS, con servizi dedicati in cloud all’interno di cluster dedicati, potenzialmente pure molto concentrati.

Whitiger vs eike :afraid:

Consiglio per qualche video spiegazione del crollo del Nikkei ?

Ma daiiii :rotflfast:

Ma a me White piace e sono spesso d’accordo con lei, però mi sembra abbia una posizione un po’ troppo estrema sulla questione LLM (non solo per quello scritto in questi due giorni eh).
Sarà anche perché è una scrittrice, e quella roba ha inondato di fuffa il mercato :asd:

Devo proprio fare l’analisi logica del testo? Perché la faccio eh.

Non mi pare stiamo dicendo cose diverse.

Ma sono queste conclusioni che fanno la differenza.
Il non arrivarci mai, morta lì, o inaccessibile per il pubblico (quali servizi? Cosa?) e la conclusione.
Per me è un po’ troppo da “oracolo” come visione ed è molto netta appunto.

@Eike tutto quello che viene prodotto attualmente da ia generativa è mediocre. È impressionante perché "un computer da solo fa queste cose!!! :eek: " ma non si avvicina neanche lontanamente alla qualità di lavori fatti da umani, se non con un serio lavoro a post fatto appunto da umani.

Precog: no gli strumenti che usano ad esempio nel post-processing fotografico non contano perché non è generazione, è automazione di qualcosa che gli umani fanno.

Per me è tutto troppo acerbo per capire cosa succederà, quali servizi falliranno, cosa andrà storto e morirà affossato in un mare di merda e dove invece ci guadagneremo (come collettività).
Per esempio, sta roba per me è positiva:

https://www.thelancet.com/journals/landig/article/PIIS2589-7500(23)00153-X/fulltext

Dovesse rimanere anche solo questa roba da tutta la “fuffAI” che è saltata fuori, sarei solo che contento.
Questa roba non è per il pubblico generale, ma immagino che le applicazioni per il pubblico generale con l’AI siano poche (forse verrà usato come Google o roba così).

Si ma la gente pensa che l’IA è potentissima perche prima doveva fare copia incolla da wikipedia mentre ora puo dire “Chatgpt fammi la tesi di laurea” e lui la copia da Wikipedia SENZA NEANCHE AVERLO SPECIFICATO.
E’ questo il livello eh, e la gente e disposta a pagare per questa strabiliante e quasi magica innovazione :asd:

Beh, allora è allineato al 99% con la produzione umana.

2 Likes

Ma questa non è ai generativa, è ai analitica. E qui il costo è quando addestri il modello, una volta fatto gira su un pc senza consumare quello che consuma la gen ai.

1 Like

Ma la spinta è arrivata dall’esplosione dell’AI di questi anni, altrimenti sarebbe andata a rilento.
Cioè se le società hanno bruciato capitali alla ricerca del Sacro Graal dell’AI, gettando soldi a pioggia in giro, per me gli output positivi te li ritrovi a cascata in vari settori dove cercano di applicarla in maniera sensata e in modelli ridotti.

Guarda caso:

Yala, A., Lehman, C., Schuster, T., Portnoi, T., & Barzilay, R. (2019). A deep learning mammography-based model for improved breast cancer risk prediction. Radiology, 292(1), 60-66.

Non mi pare che nel 2019 si parlasse di ai, eravamo ancora alla blockchain e agli nft.

Anche l’articolo di the lancet, pubblicato 2023 ma lo studio è partito nel 2021.

La AI è stata integrata dopo al sistema che già avevano di screening.
Anche perché non credo abbiano inventato la macchina del tempo nel 2019 per valutare gli screening fatti nel 2021 e 2022 :asd:

Methods

ScreenTrustCAD was a prospective, population-based, paired-reader, non-inferiority study done at the Capio Sankt Göran Hospital in Stockholm, Sweden. Consecutive women without breast implants aged 40–74 years participating in population-based screening in the geographical uptake area of the study hospital were included. The primary outcome was screen-detected breast cancer within 3 months of mammography, and the primary analysis was to assess non-inferiority (non-inferiority margin of 0·15 relative reduction in breast cancer diagnoses) of double reading by one radiologist plus AI compared with standard-of-care double reading by two radiologists. We also assessed single reading by AI alone and triple reading by two radiologists plus AI compared with standard-of-care double reading by two radiologists. This study is registered with ClinicalTrials.gov, NCT04778670.

Findings

From April 1, 2021, to June 9, 2022, 58 344 women aged 40–74 years underwent regular mammography screening, of whom 55 581 were included in the study. 269 (0·5%) women were diagnosed with screen-detected breast cancer based on an initial positive read: double reading by one radiologist plus AI was non-inferior for cancer detection compared with double reading by two radiologists (261 [0·5%] vs 250 [0·4%] detected cases; relative proportion 1·04 [95% CI 1·00–1·09]). Single reading by AI (246 [0·4%] vs 250 [0·4%] detected cases; relative proportion 0·98 [0·93–1·04]) and triple reading by two radiologists plus AI (269 [0·5%] vs 250 [0·4%] detected cases; relative proportion 1·08 [1·04–1·11]) were also non-inferior to double reading by two radiologists.

Ma la cosa è confermata anche dall’altro studio:

https://pubs.rsna.org/doi/10.1148/radiol.232479

Dove hanno fatto lo studio in due parti:

In the first group, two radiologists read the mammograms of women screened between October 2020 and November 2021 before the implementation of AI. The screening mammograms of the second group of women performed between November 2021 and October 2022 were initially analyzed by AI.

In conclusion, our findings indicate that using an artificial intelligence (AI) system in population-based mammography screening improved screening performance and reduced workload. Future work should evaluate screening sensitivity, specificity, interval cancer rate, and the impact of higher ductal carcinoma in situ detection. Around November 2024, we will have full 2-year follow-up data for the cohort of women screened with AI. Further, in future work, we aim to quantify the effects of AI stratification, AI decision support, and radiologist access to prior screenings separately.

A questo punto direi di citare pure Watson, di IBM, l’automatizzazione del processo di analisi correlativa non è materia recentissima; antesignano concettuale dell’applicazione commerciale della AI attuali, di cui sono diretta estensione.

Le differenze non sono cosi’ nette. Per esempio, nel mare di fuffa che stanno facendo, schiaffando copilot letteralmente ovunque pure nelle cialde del caffe, l’integrazione con Teams e’ fenomenale - alla fine di ogni meeting ti scrive il riassunto, pure con action items vari, e lo fa bene, cosi’ non devi stare a prendere note e a scriverle a mano. Il copilot originale, quello di Github, spacca i culi come autocomplete, nel ruolo di evoluzione di Intellisense (non nel ruolo di fare cose da zero da solo, e’ inutile per quello ovviamente), e se non ce l’avessi gratis pagherei per averlo, o meglio farei pagare la mia compagnia per farmelo avere :asd:

Ovviamente non e’ roba da rivoluzione copernicana, e il 99% e’ fuffa e hype, ma vi svelo un segreto segretissimo, il 99% non solo di tutto il software, ma di tutto quello che produciamo because capitalism e’ fuffa :asd: L’1% che rimane sono miglioramenti incrementali che rimarranno e verranno usati perche’ genuinamente utili

Comunque tra qualche anno si vedrà anche se quella generativa avrà un impatto positivo o no, qualche studio c’è già, ma sono tutte ancora preliminari per una questione così delicata come la salute: