• @ArcticDagger
    link
    37 months ago

    Ja, det er en god idé vurdere ud fra højrisiko områder. Det er også lidt det GDPR prøver ved at sige, at man ikke må blive afvist automatisk udelukkende på en vurdering fra en algoritme (se her https://www.datatilsynet.dk/borger/hvad-er-dine-rettigheder)

    En relativt lille mængde computerkraft til at træne GPT4 er i mine øjne lidt en tilsnigelse 😅 der er ikke nogen officielt bekræftede tal, men det er estimeret, at GPT4 har næsten 1.8 trillioner parametre og krævede en flåde af 25k GPU’er. Hvis jeg havde den slags computerkraft, så skal jeg altså spille Minecraft på ultra settings!

    Med det sagt, så tror jeg, at det bliver svært at begrænse brugen ud fra størrelsen af modellerne. Når først man en stor model, der virker, så kan man relativt hurtigt begynde at skære til uden at miste nævneværdig ydeevne. Ligeledes bliver forskere bedre og bedre til at konstruere deres modeller på en måde, hvorved de har nemmere ved at lære og ekstrapolere

    Det er ikke en umulig opgave at lovgive på det her område, men for dælen, hvor er jeg glad for, at det ikke er mig, der skal tage de her beslutninger! Jeg har nemlig ikke selv nogen gode idéer til, hvordan man skulle gøre det