• @farsinuce
    link
    4
    edit-2
    7 months ago

    Ja. Måske regler i forhold til, at man gerne må træne modeller op til en vis størrelse/kraft, men at det bliver ulovligt at deploy’e dem uden videre red-teaming, uafhængig godkendelse osv.

    • @ArcticDagger
      link
      37 months ago

      Men hvordan skulle man stringent kunne definere det? Vores mest populære test - Turing testen - til at teste for generel intelligens er jo allerede blevet brudt og vedbliver at blive brudt for mindre og mindre modeller. Det er ikke nødvendigvis den bedste test, men der bliver hele tiden fremstillet nye tests

      • @farsinuce
        link
        3
        edit-2
        7 months ago

        En mulighed er at definere, hvorvidt en AI (Large Language Model og lign.) berører højrisiko funktionaliteter, som f.eks. biometric data osv.

        “For high-impact General Purpose AI models with systemic risk, […] meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency.”

        Kilde: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai

        Det har derudover været diskuteret, at modeller, der kræver [en relativt lille mængde] computerkraft for at kunne trænes, som udgangspunkt tillades (GPT-4), mens dem, som kræver [en relativt stor mængde] kraft* og har højt potentiale for at blive for kompetente, ikke tillades uden særlige forholdsregler (GPT-5+).

        *Vi snakker i tusindvis af Nvidias bedste GPU chips og millard-store datasæt.

        Undskyld for lemfældig brug af tech-termer, som jeg egentligt ikke har forstand på.

        • @ArcticDagger
          link
          37 months ago

          Ja, det er en god idé vurdere ud fra højrisiko områder. Det er også lidt det GDPR prøver ved at sige, at man ikke må blive afvist automatisk udelukkende på en vurdering fra en algoritme (se her https://www.datatilsynet.dk/borger/hvad-er-dine-rettigheder)

          En relativt lille mængde computerkraft til at træne GPT4 er i mine øjne lidt en tilsnigelse 😅 der er ikke nogen officielt bekræftede tal, men det er estimeret, at GPT4 har næsten 1.8 trillioner parametre og krævede en flåde af 25k GPU’er. Hvis jeg havde den slags computerkraft, så skal jeg altså spille Minecraft på ultra settings!

          Med det sagt, så tror jeg, at det bliver svært at begrænse brugen ud fra størrelsen af modellerne. Når først man en stor model, der virker, så kan man relativt hurtigt begynde at skære til uden at miste nævneværdig ydeevne. Ligeledes bliver forskere bedre og bedre til at konstruere deres modeller på en måde, hvorved de har nemmere ved at lære og ekstrapolere

          Det er ikke en umulig opgave at lovgive på det her område, men for dælen, hvor er jeg glad for, at det ikke er mig, der skal tage de her beslutninger! Jeg har nemlig ikke selv nogen gode idéer til, hvordan man skulle gøre det