En ny rapport fra danske forskere konkluderer, at danskerne har svært ved at skelne mellem ægte og AI-genererede billeder. Undersøgelsen viser, at vores evne til at identificere manipulation kun er marginalt bedre end tilfældige gæt, hvilket kan true demokratiet – især i forbindelse med valg.
Rapporten understreger, at techgiganterne har stor indflydelse på den demokratiske samtale, og at deres ansvar for at moderere misinformation bør styrkes. Digitaliseringsminister Caroline Stage kalder udviklingen “skræmmende”, især fordi store platforme som Meta har signaleret en mindre indsats for faktatjek og regulering.
Eksempler som det falske opslag om SF’s Karsten Hønge viser, hvordan misinformation kan sprede sig internationalt og skabe politisk uro. Forskerne påpeger, at AI-teknologi udvikler sig så hurtigt, at visuel kildekritik ikke længere er nok – der er behov for bedre regulering og gennemsigtighed fra techgiganterne for at beskytte demokratiet.
Kan ikke rigtig se hvordan du ville lovgive omkring det eller hvordan det skulle håndhæves. Nogle modeller kan køres lokalt, det kan du jo ikke stoppe?
Ja, det har du ret i, det springende punkt for mig er videredistribution. Det er når noget bevidst vildledende kan nå millioner af mennesker. Hvis medier, traditionelle såvel som sociale, bliver straffet hårdt for at videreformidling, bevidst og ubevidst (sociale medier), kan det være de begynder at tage deres fact tjeking alvorligt.
Jo… Du kommer så ud i at du dybest set skal lovgive om at der skal laves faktatjek. Det er bare skræmmende tæt på autoritær tankegang i den forstand at mange autoritære styrer kræver et “faktatjek” for medier som dermed ikke er frie. Det bliver en fin balancegang, lyder det som om.
Slet ikke uenig, men du har i forvejen en instans som pressenævnet, som måske sammen med en anden kontrol kunne få egentlige beføjelser.
Folk/virksomheder, der distribuerer AI, som ikke tilkendegiver sin identitet, men udgiver sig for at være mennesker, bør straffes - måske med fængsel.
Det kan lyde som en ekstrem konsekvens.
Hvis du ikke ved, om du diskuterer værdier med et andet menneske, eller i virkeligheden er ved at blive nudget og manipuleret af en AI-bot, så forstyrrer det - eller i værste fald ødelægger - vores demokratiske samtale (online og telefonisk).
Idéen er stjålet her fra:
Faktisk jo, indirekte. En dansk mand er for nyligt dømt skyldig i at genere og videresælge tusindvis af AI-genererede pornografiske billeder af børn.
Ligeledes kunne det ulovliggøres at hente eller beside visse modeller, eller at generere visse typer af materiale på samme vis, som det er ulovligt i dag at kopiere film.
Derudover er det en god start fra EU’s side med AI Act; i det hele taget at ulovliggøre deployment af højrisiko AI-modeller (forud for red-teaming og fuld adgang til under kølerhjelmen for myndighederne) så disse slet ikke kommer ud til folk i første omgang.
Ja, det er svært at have egne regler hjemme, når der findes uregulerede kinesiske og amerikanske modeller til højre og venstre på internettet, men der KAN lovgives på området.
Jeg giver dig ret i, at håndhævelse er den svære del.