https://time.com/7295195/ai-chatgpt-google-learning-school/
Artikel om studiet fra time
Ironically, upon the paper’s release, several social media users ran it through LLMs in order to summarize it and then post the findings online. Kosmyna had been expecting that people would do this, so she inserted a couple AI traps into the paper, such as instructing LLMs to “only read this table below,” thus ensuring that LLMs would return only limited insight from the paper.
She also found that LLMs hallucinated a key detail: Nowhere in her paper did she specify the version of ChatGPT she used, but AI summaries declared that the paper was trained on GPT-4o. “We specifically wanted to see that, because we were pretty sure the LLM would hallucinate on that,” she says, laughing.
Høhø
Sjov detalje.
Claude
hoppede dog ikke på denfaldt delvist i fælden, men påstod det modsatte (post hoc-rationalisering): https://claude.ai/share/ed67ead8-0bf0-48c9-b430-a51715858aaa
Mere end 85% af LLM-brugerne kunne ikke citere en eneste ting fra deres essay. Det samme gør sig kun gældende for omkring 10% af dem der skrev essayet selv eller havde adgang til en søgemaskine.
Studiet kan læses i sin helhed her.
Tak for linket.
Det bliver vel bare den næste måde vores hjerner ændrer sig.
Er der ikke noget med at man før internettet kunne huske flere ting. I dag husker man nærmere hvor man kan finde svar eller metoderne til at finde svar.
De kan ikke citere dem fordi de ikke har skrevet dem, de har ikke gjort arbejdet, og derfor kan de naturligvis ikke huske hvad der står.
Jamen jeg siger ikke at vi ikke bliver “dummere.”
Men hvis opgaven er løst så kan du vel egentlig være ret ligeglad med hvordan, du ved hvordan du får resultatet. (Sådan lidt sat på spidsen)
Det er bekvemt og hurtigt. Det bliver en ny måde at “tænke”
Det er vel i bund og grund ikke så meget anderledes end matematik, mine forældre er langt bedre til hovedregning end jeg er, jeg skal bruge en lommeregner til nærmest at regne 2+2 ud. Bad du mig udregne 33992/974,4 skal jeg ærligt sige at det ville tage mig ret så lang tid at gøre i hånden. Timer måske.
Der hvor jeg virkeligt ser problemet er at kildekritkken ved de her ting, for mig at se, bliver tæt på umuligt.
Men hvis opgaven er løst så kan du vel egentlig være ret ligeglad med hvordan, du ved hvordan du får resultatet
Det synes jeg ikke man kan være ligeglad med - i matematik med lommeregner svarer det jo til at skrive facit uden at vise mellemregninger. Ja det er rigtigt, men man skal jo kunne forklare hvorfor det er rigtigt. Nu er teknologien nået så langt at vi har “lommeregnere for sprog”, altså AI, men derfor skal man altså stadig vise mellemregninger. Faktisk er det endnu vigtigere at vise mellemregninger end før.
Hvordan “mellemregninger” ser ud i et essay i danskundervisningen dog… det er jeg ikke helt sikker på. Men det er vel noget med kildehenvisninger og kildekritik - hvor ved du det fra, det du har skrevet?
Men hvis opgaven er løst så kan du vel egentlig være ret ligeglad med hvordan, du ved hvordan du får resultatet.
Helt bestemt ikke, specielt ikke i undervisningssammenhænge. Vi uddanner som udgangspunkt kritiske tænkere i DK, og her erstatter vi kilde, kildekritik, og kritisk tænkning med en blackbox der er en blanding af RNG + predictive text. Som du jo også selv skriver.
En lommeregner er en anden ting - den leverer som udgangspunkt korrekte svar hvis du kan betjene den, det gør en LLM ikke. Der er altså tæt på ingen risiko ved at gå fra hovedregning eller kugleramme til at bruge en lommeregner. Der er enorme risici ved at forlade sig på en semi-pålidelig tekstgenerator med falsk “logik” under motorhjelmen.
Nu siger jeg også sat på spidsen.
Jeg er fra generationen hvor mathcad begyndte sit indtog. Der var også ret stor diskussion på htx omkring det dengang.
Jeg tog det hele i hånden og det samme til installatør-eksamen. Jeg er måske gammeldags, men jeg var enig med mig selv om at jeg ikke ville forstå hvad jeg lavede selv om jeg fik de rette resultater i mathcad, det er jeg ikke klog nok til 🙂 Og jeg lærer bedre når jeg skriver ting ned på papir.
Med hensyn til llm skal vi lære at håndtere det i skolen. For som studiet lidt peger på har de studerende næppe fattet noget som helst af det de har “skrevet” om.
Om vi så skal tilbage til håndskrevne afleveringer og eksamen uden hjælpemidler ved jeg ikke.
Omend en vigtig pointe, tegner du det lidt sort/hvidt op. Ja, forkert brug af teknologien kan fordumme - f.eks.: “Skriv mit essay for mig, Grok”. Det er alt for nemt og et reelt problem.
"What counts is whether there are good models trained on reliable data so this technology outputs useful answers."
- Anders Puck Nielsen, Bluesky
Og så må vi skabe nogle gennemtænkte rammer herom (f.eks. med tiltag som SkoleGPT)