Tak for at dele studiet, det ser ret interessant ud. Jeg har kun læst abstract indtil videre, men hæfter mig dog ved hvor få der udførte 4. fase. Det gør at jeg har mindre tillid til konklusionerne, så jeg håber at senere studier følger som kan bakke op om resultaterne. Det sagt så er det også min egen oplevelse også at AI brugt til at skrive for en gør at man har mindre ejerskabsfølelse, indblik og hukommelse om indholdet. Så jeg har et bias i linje med studiets konklusioner som jeg prøver at være opmærksom på.
Min egen erfaring er hovedsageligt som software udvikler med kolleger der har brugt AI assistenter imens jeg selv er mere gammeldags. Her oplever jeg at støde på besynderlige beslutninger og brud med stilen der ellers er skrevet kode i. Når jeg spørger ind til koden og om jeg kan ændredet i forbindelse med min egen opgave er svaret ofte at det bare var noget der hurtigt blev sat sammen med AI og at jeg kan ændre det uden problemer da der ikke er nogen dybere mening med at det blev gjort som det gjorde. Det har givet mig indtryk af at AI gør det nemt hurtigt at få skrevet boget af lavere kvalitet som dog virker nogenlunde efter hensigten, men når man senere ser på det igen kan ændringer være mere besværlige at lave fordi der ikke er nogen der husker hvordan koden fungerer.
Lige præcis. Det er en af grundene til at jeg ikke selv bruger LLM’er til at kode med. Jeg vil gerne forstå hvad jeg laver, det har mange gange betydet at jeg så snart jeg hørte om en fejl, vidste jeg hvorfor det skete. Jeg kunne huske koden og kunne se hvordan det kunne føre til fejlen, også selvom det ikke var åbenlyst da jeg først skrev det. Det tror jeg ikke på at jeg kunne hvis jeg lod AI skrive min kode for mig.
Man burde bede dem læse det her studie inden man lader LLM være en del af nogen som helst eksamen:
https://arxiv.org/abs/2506.08872
Tak for at dele studiet, det ser ret interessant ud. Jeg har kun læst abstract indtil videre, men hæfter mig dog ved hvor få der udførte 4. fase. Det gør at jeg har mindre tillid til konklusionerne, så jeg håber at senere studier følger som kan bakke op om resultaterne. Det sagt så er det også min egen oplevelse også at AI brugt til at skrive for en gør at man har mindre ejerskabsfølelse, indblik og hukommelse om indholdet. Så jeg har et bias i linje med studiets konklusioner som jeg prøver at være opmærksom på.
Min egen erfaring er hovedsageligt som software udvikler med kolleger der har brugt AI assistenter imens jeg selv er mere gammeldags. Her oplever jeg at støde på besynderlige beslutninger og brud med stilen der ellers er skrevet kode i. Når jeg spørger ind til koden og om jeg kan ændredet i forbindelse med min egen opgave er svaret ofte at det bare var noget der hurtigt blev sat sammen med AI og at jeg kan ændre det uden problemer da der ikke er nogen dybere mening med at det blev gjort som det gjorde. Det har givet mig indtryk af at AI gør det nemt hurtigt at få skrevet boget af lavere kvalitet som dog virker nogenlunde efter hensigten, men når man senere ser på det igen kan ændringer være mere besværlige at lave fordi der ikke er nogen der husker hvordan koden fungerer.
Ja, som en slags kode-gæld, der risikerer at blive værre.
Lige præcis. Det er en af grundene til at jeg ikke selv bruger LLM’er til at kode med. Jeg vil gerne forstå hvad jeg laver, det har mange gange betydet at jeg så snart jeg hørte om en fejl, vidste jeg hvorfor det skete. Jeg kunne huske koden og kunne se hvordan det kunne føre til fejlen, også selvom det ikke var åbenlyst da jeg først skrev det. Det tror jeg ikke på at jeg kunne hvis jeg lod AI skrive min kode for mig.