• @letrasetOP
    link
    dansk
    24 months ago

    Sammenfatning af ChatGPT:

    • Takket være den stigende popularitet af generativ kunstig intelligens er programmer, der kan producere tekst, computerkode, billeder og musik, nu almindeligt tilgængelige. Men som AI-udviklere udnytter internettet til at træne nye modeller, risikerer de at indføre fejl, der kan akkumulere over tid og forringe modellernes ydeevne. Dette fænomen, kaldet “modelkollaps,” er blevet observeret i flere AI-modeller og kan true mangfoldigheden og pålideligheden af ​​deres output. For at modvirke dette presserende problem kræver det måske en omhyggelig kuratering af træningsdata og en indsats for at beskytte modellernes eksisterende bias.
    • @farsinuce
      cake
      link
      34 months ago

      En løsning kan være at fabrikere syntetisk data, har jeg læst. Men ved ikke, hvor realistisk det er for LLMs.

      • @letrasetOP
        link
        23 months ago

        Fabrikere syntetisk data? Det er vel også LLM fabrikeret, eller hvordan? Er ikke helt sikker på at jeg forstår (: