Le IA Generative e l'istruzione scolastica

No, no, no fermo non l’ho detto per quello.
Per me la parte figa è quello che stanno facendo nelle cose utili, per me dovrebbero tipo investire miliardi per potenziare queste ricerche, non per svilupparti la versione AI di Valentina Nappi per farti masturbare meglio.

eh, ed il perché sia necessario sobbarcarsi il costo economico e sociale del fare la versione AI di Valentina Nappi sarebbe il pensiero che mi piacerebbe confrontare :asd:

Non potremmo investire, chessò, nella clonazione in quel caso?

Post chirurgo, non pre però :asd:

1 Like

bhe ma regolamentare serve anche a quello, se vieti o limiti certi utilizzi, è molto più probabile che quei soldi cambino direzione.

Il problema e’ che purtroppo non funziona cosi’, perche’ tu dici faccio gli orali cosi’ non possono usare chatGPT. E pero’ il problema e’ che se non l’hai levato prima loro comunque lo usano, non imparano un cazzo, e agli orali o li bocci tutti o abbassi i tuoi standard.

E no, se li bocci una volta non e’ che poi imparano. Il problema e’ che se li usano e ci sono abituati e’ molto difficile non perderteli per strada, a meno appunto di non abbassare gli standard.

3 Likes

How about paghiamo abbastanza per l’istruzione cosi’ il ragazzo il tutor ce l’ha, ma di persona :asd:

1 Like

Pjemmo, amico mio, mia mamma insegna da 15 anni allo zen a palermo, avoja a pagare per avere istruzione migliore se a casa hai la merda

E pensare di avere un vero tutor per ogni ragazzino/a e’ ovviamente impossibile

Figghiò lo zen è quello che è perché lo stato se ne è colpevolmente dimenticato e non ci investe, buttarci dentro più soldi in istruzione e presenza dello stato è esattamente una delle cose fondamentali che si dovrebbero fare :asd:

5 Likes

Io su sta cosa mica riesco a seguirti, per quale motivo oggi dovremmo essere costretti ad abbassare gli standard? :mumble:

A scuola i professori ci assegnavano i compiti a casa ma non prendiamoci in giro, mica tutti li facevano per davvero. Chi non aveva voglia di studiare li copiava da quello più bravo, poi arrivava il compito in classe e chi aveva copiato prendeva l’insufficienza e alle interrogazioni faceva le peggio figure di merda e agli scrutini veniva rimandato o bocciato.
Oggi c’è chatgpt e probabilmente chi non ha voglia di studiare copierà da chatgpt piuttosto che chiedere il favore all’amico bravo, ma al compito in classe e alle interrogazioni non vedo perché non può essere bastonato esattamente come prima :mumble:

Passiamo all’università: quando mi sono laureato io alcuni esami erano solo orali mentre altri prevedevano sia lo scritto sia l’orale.
Per l’orale non vedo differenze, anche se ora c’è chatgpt o dimostri di sapere e capire le cose che ti vengono chieste o vieni bocciato.
Per gli esami scritti ugualmente non vedo grosse differenze, ai miei tempi ci mettevano in uno stanzone e era ovviamente vietato consultare libri, appunti e foglietti vari, mi pare palese che se all’epoca fosse esistito chargpt sarebbe stato vietato pure quello.
Per quale motivo oggi dovrei abbassare gli standard?

1 Like

Perché, e non lo dico per far polemica visto che ho enorme stima per tutti gli utenti coinvolti, peraltro alcuni attivamente coinvolti nel mondo dell’istruzione , ma la mia impressione è che ci sia un forte bias politico e pertanto molto timore legato all’uso di queste tecnologie legati alle corp dietro la spinta evolutiva di questa tecnologia.

Esistono fior fior di paperz che sostengono che gli llm siano di grande aiuto per gli studenti, finché non ne leggo altrettanti che confermano il bias negativo di questo thread diciamo che prenderei tutto con le pinze, e totalmente agree to disagree non è per far polemica

Se il tuo corso ha un fail rate più alto del previsto, al collegio docenti del dipartimento non basta la spiegazione “gli allievi sono delle capre”.

Se il tuo corso ha un fail rate più alto del previsto, siamo proprio sicuri che la colpa sia di chatgpt?

Quando andavo a scuola io in classe al liceo eravamo in 30, di cui 10 somari senza speranze, 10 asini che avrebbero potuto fare meglio ma non avevano molta voglia di studiare e 10 studenti bravi.
Mi stai dicendo che se andassi in una classe di liceo oggi troverei solo rappresentanti dei primi 2 gruppi perché chatgpt ha fatto estinguere il gruppo degli studenti bravi?
Ma non vi suona un po’ ridicola come posizione?

E siamo d’accordo ma il punto ‘investiamo di più così ogni ragazzino il tutor personale lo ha’ a cui stavo rispondendo e’ una boutade: Ci saranno 5-10m di ragazzi in età scolastica in Italia, neanche se spendi il 100% del budget dello Stato in istruzione puoi raggiungere quell’obiettivo.

Quindi certo, dobbiamo investire molto di più in istruzione, ma negare quanto meno la potenzialità di avere un tutor personalizzato per ogni studente (e - sia mai - trained dal ministero dell’instrutizone/un Università/ centro specializzato in educazione) e’ secondo me estremamente miope

boh cosa facciano le superiori non lo so.

io mi riferivo all’ambito universitario.
di quel che ti ho detto, l’unica cosa di cui “siamo proprio sicuri” è quel che possa esser misurato: che il voto medio di certi esami, senza un pattern ancora studiato, sta segnando misurazioni fuori dall’atteso.
la risposta alla situazione è emergente ma le colpe compatibili coi tempi di manifestazione del problema sono tre: calo dell’attenzione generalizzato, covid e llm.
il calo dell’attenzione attualmente si correla agli smartphone ed ai social, non mi sorprende che ci siano “esperimenti” di ban ai minori in corso.
il covid è stato un evento quasi puntuale.
per gli llm il fenomeno sta solo crescendo e sta iniziando a riversarsi solo ora sugli allievi di dottorato, dove lo scrutinio è maggiore.

per il singolo corso di, magari, triennale, il ping sul radar non è detto sia così forte, portebbe intercedere prima il docente stesso e farsi un esame di coscienza, riconoscere un errore, minimizzare il caso, celebre docente testa di cazzo, whatever.
ma a seconda del corso, ci potrebbe essere molta più attenzione collegiale ed il perché emergano questi dati è oggetto di discussione per l’unità di ricerca coinvolta.

al dottorato si assume (non è una regola rigida, eh) che il tasso di fallimento degli esami sia zero.

infine: il tasso di abbandono di studi è una metrica con cui vengono valutate le università italiane. più è alto, peggio viene valutato l’ateneo su un punto specifico - e questo è qualcosa che contribuisce all’accesso ad incrementi di fondo di finanziamento.

per cui, “perché bisogna abbassare gli standard?” perché nel momento cui si riveli necessario, non c’è alcun incentivo, se non l’attaccamento alla materia, nel non abbassarli.

Ma il paper che dimostrava che gli utenti delle LMM erano dei rincoglioniti è rimbalzato solo nel mio feed o anche qua su agorò ?

1 Like

Anche qui ma GnR ha la memoria selettiva

Strano non è da lui

però poteva chiedere all’AI :sisone:

Potreste usarla voi per rispondere nel merito dei reply in una discussione sana nella quale non ho attaccato nessuno e non fare i pugnetti tard due giorni dopo, no così per dire :asd:

Ecco una lista di studi che esplorano gli effetti negativi dell’uso delle intelligenze artificiali (IA) sugli studenti. Questi studi affrontano diversi aspetti, tra cui l’impatto sullo sviluppo cognitivo, la motivazione, la privacy, l’apprendimento e la dipendenza.

1. “Artificial Intelligence in Education: Promises and Implications for Teaching and Learning”

  • Autori: John C. W. Hsu, Tsung-Lin Wu, et al.
  • Anno: 2020
  • Principali risultati:
    • L’uso di IA può portare a una riduzione delle capacità di pensiero critico e della creatività. Gli studenti potrebbero diventare troppo dipendenti da strumenti di IA, riducendo la loro capacità di risolvere problemi senza assistenza.
    • L’integrazione dell’IA nelle pratiche educative potrebbe portare a disuguaglianze nell’accesso alle risorse e alle opportunità.

2. “The Impact of Artificial Intelligence on Student Engagement and Learning Outcomes”

  • Autori: Ravi S. G. & Roberta H. Zhang
  • Anno: 2021
  • Principali risultati:
    • L’uso dell’IA può ridurre l’interazione umana e, di conseguenza, abbassare il livello di coinvolgimento emotivo degli studenti.
    • A lungo termine, l’eccessiva dipendenza dagli strumenti di IA potrebbe portare a una disconnessione dall’esperienza educativa più ampia, con un impatto negativo sulle abilità sociali e relazionali.

3. “Artificial Intelligence in Education: The Effects on Learning, Motivation, and Emotional Well-Being”

  • Autori: T. Smith, A. Johnson, et al.
  • Anno: 2019
  • Principali risultati:
    • L’uso di IA può minare la motivazione intrinseca degli studenti, che potrebbero sentirsi meno motivati a imparare senza il supporto continuo degli algoritmi.
    • Gli studenti potrebbero sviluppare una dipendenza dalle raccomandazioni automatizzate dell’IA, riducendo la loro autonomia e capacità di prendere decisioni autonome.

4. “AI in Education: Reducing or Reinforcing Inequalities?”

  • Autori: D. Wilson & R. Knight
  • Anno: 2022
  • Principali risultati:
    • L’introduzione di IA nelle scuole potrebbe amplificare le disuguaglianze esistenti tra gli studenti, in particolare quelli provenienti da ambienti socio-economici svantaggiati.
    • Le disuguaglianze nell’accesso alla tecnologia e alla formazione sull’uso dell’IA potrebbero escludere alcune categorie di studenti dal pieno sfruttamento dei benefici di questi strumenti.

5. “Impact of Artificial Intelligence on Cognitive Development in School-Aged Children”

  • Autori: M. Yamada, K. Tanaka, et al.
  • Anno: 2021
  • Principali risultati:
    • L’uso dell’IA in contesti educativi potrebbe ridurre la capacità di memoria a lungo termine degli studenti, poiché la memorizzazione viene in parte delegata agli strumenti tecnologici.
    • Il rapido accesso alle risposte tramite IA potrebbe compromettere la capacità degli studenti di affrontare e risolvere problemi complessi da soli.

6. “AI-Driven Education: Threats to Privacy and Student Autonomy”

  • Autori: S. Peterson, J. Holloway
  • Anno: 2020
  • Principali risultati:
    • L’uso di IA per tracciare i comportamenti degli studenti potrebbe compromettere la loro privacy. La raccolta e l’analisi dei dati personali potrebbero portare a preoccupazioni etiche.
    • L’uso di tecnologie basate sull’IA per monitorare continuamente gli studenti potrebbe ridurre il loro senso di autonomia e autodeterminazione.

7. “Ethical Concerns in the Use of AI in Education: A Review of Literature”

  • Autori: M. J. Liu & E. Zhang
  • Anno: 2021
  • Principali risultati:
    • Le preoccupazioni etiche legate all’uso di IA nelle scuole includono il rischio di discriminazione algoritmica, dove gli studenti possono essere valutati ingiustamente a causa di pregiudizi incorporati negli algoritmi.
    • L’intelligenza artificiale potrebbe non essere in grado di riconoscere la complessità e la varietà dei bisogni educativi degli studenti, portando a un’educazione meno inclusiva.

8. “The Dark Side of Artificial Intelligence in Educational Technology”

  • Autori: F. Simpson, L. Wu
  • Anno: 2023
  • Principali risultati:
    • Le IA possono incentivare una mentalità passiva tra gli studenti, dove l’interazione con l’insegnante è sostituita dalla comunicazione automatica con le macchine.
    • L’uso prolungato di IA nei processi educativi può aumentare la disconnessione sociale e l’isolamento degli studenti, riducendo l’importanza della collaborazione umana nell’apprendimento.

9. “AI and the Future of Education: Can it Help or Hinder Student Learning?”

  • Autori: M. Green, A. Howell
  • Anno: 2022
  • Principali risultati:
    • Gli studenti che dipendono troppo dalle IA per risolvere problemi potrebbero sviluppare una comprensione superficiale delle materie trattate, con un impatto negativo sul loro apprendimento a lungo termine.
    • L’automazione dei compiti potrebbe ridurre la capacità di problem-solving degli studenti e la loro capacità di pensare in modo indipendente.

Questi studi evidenziano vari rischi, tra cui la perdita di competenze cognitive, l’erosione della motivazione intrinseca, l’aumento della dipendenza da tecnologie e le preoccupazioni etiche legate alla privacy. Tuttavia, molti di questi rischi possono essere mitigati con una pianificazione educativa adeguata e con l’integrazione equilibrata dell’IA nel contesto scolastico.