En ny rapport fra danske forskere konkluderer, at danskerne har svært ved at skelne mellem ægte og AI-genererede billeder. Undersøgelsen viser, at vores evne til at identificere manipulation kun er marginalt bedre end tilfældige gæt, hvilket kan true demokratiet – især i forbindelse med valg.
Rapporten understreger, at techgiganterne har stor indflydelse på den demokratiske samtale, og at deres ansvar for at moderere misinformation bør styrkes. Digitaliseringsminister Caroline Stage kalder udviklingen “skræmmende”, især fordi store platforme som Meta har signaleret en mindre indsats for faktatjek og regulering.
Eksempler som det falske opslag om SF’s Karsten Hønge viser, hvordan misinformation kan sprede sig internationalt og skabe politisk uro. Forskerne påpeger, at AI-teknologi udvikler sig så hurtigt, at visuel kildekritik ikke længere er nok – der er behov for bedre regulering og gennemsigtighed fra techgiganterne for at beskytte demokratiet.
Faktisk jo, indirekte. En dansk mand er for nyligt dømt skyldig i at genere og videresælge tusindvis af AI-genererede pornografiske billeder af børn.
Ligeledes kunne det ulovliggøres at hente eller beside visse modeller, eller at generere visse typer af materiale på samme vis, som det er ulovligt i dag at kopiere film.
Derudover er det en god start fra EU’s side med AI Act; i det hele taget at ulovliggøre deployment af højrisiko AI-modeller (forud for red-teaming og fuld adgang til under kølerhjelmen for myndighederne) så disse slet ikke kommer ud til folk i første omgang.
Ja, det er svært at have egne regler hjemme, når der findes uregulerede kinesiske og amerikanske modeller til højre og venstre på internettet, men der KAN lovgives på området.
Jeg giver dig ret i, at håndhævelse er den svære del.