• @SorteKaninOPMA
    link
    47 months ago

    Det bliver spændende at høre hvad reglerne egentlig bliver. Jeg har lidt svært ved at se hvordan man kan regulere det.

    • @farsinuce
      link
      4
      edit-2
      7 months ago

      Ja. Måske regler i forhold til, at man gerne må træne modeller op til en vis størrelse/kraft, men at det bliver ulovligt at deploy’e dem uden videre red-teaming, uafhængig godkendelse osv.

      • @ArcticDagger
        link
        37 months ago

        Men hvordan skulle man stringent kunne definere det? Vores mest populære test - Turing testen - til at teste for generel intelligens er jo allerede blevet brudt og vedbliver at blive brudt for mindre og mindre modeller. Det er ikke nødvendigvis den bedste test, men der bliver hele tiden fremstillet nye tests

        • @farsinuce
          link
          3
          edit-2
          7 months ago

          En mulighed er at definere, hvorvidt en AI (Large Language Model og lign.) berører højrisiko funktionaliteter, som f.eks. biometric data osv.

          “For high-impact General Purpose AI models with systemic risk, […] meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency.”

          Kilde: https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai

          Det har derudover været diskuteret, at modeller, der kræver [en relativt lille mængde] computerkraft for at kunne trænes, som udgangspunkt tillades (GPT-4), mens dem, som kræver [en relativt stor mængde] kraft* og har højt potentiale for at blive for kompetente, ikke tillades uden særlige forholdsregler (GPT-5+).

          *Vi snakker i tusindvis af Nvidias bedste GPU chips og millard-store datasæt.

          Undskyld for lemfældig brug af tech-termer, som jeg egentligt ikke har forstand på.

          • @ArcticDagger
            link
            37 months ago

            Ja, det er en god idé vurdere ud fra højrisiko områder. Det er også lidt det GDPR prøver ved at sige, at man ikke må blive afvist automatisk udelukkende på en vurdering fra en algoritme (se her https://www.datatilsynet.dk/borger/hvad-er-dine-rettigheder)

            En relativt lille mængde computerkraft til at træne GPT4 er i mine øjne lidt en tilsnigelse 😅 der er ikke nogen officielt bekræftede tal, men det er estimeret, at GPT4 har næsten 1.8 trillioner parametre og krævede en flåde af 25k GPU’er. Hvis jeg havde den slags computerkraft, så skal jeg altså spille Minecraft på ultra settings!

            Med det sagt, så tror jeg, at det bliver svært at begrænse brugen ud fra størrelsen af modellerne. Når først man en stor model, der virker, så kan man relativt hurtigt begynde at skære til uden at miste nævneværdig ydeevne. Ligeledes bliver forskere bedre og bedre til at konstruere deres modeller på en måde, hvorved de har nemmere ved at lære og ekstrapolere

            Det er ikke en umulig opgave at lovgive på det her område, men for dælen, hvor er jeg glad for, at det ikke er mig, der skal tage de her beslutninger! Jeg har nemlig ikke selv nogen gode idéer til, hvordan man skulle gøre det