• farsinuce
    link
    fedilink
    arrow-up
    2
    ·
    7 hours ago

    De skal bare huske at LLM’en skal trænes igen […]

    Sprogmodellen behøver ikke nødvendigvis at blive trænet igen. Den kan udbygges med et værktøj som Retrieval Augmented Generation (RAG), hvor den henter ekstern data ind, kort fortalt.

    Så kan man nøjes med at holde sine alm. filer opdateret, uden at skulle fin-tune eller gentræne sprogmodellen.

    De ansatte skal læse tingene ordentligt igennem inden de sendes ud

    Ja, hav altid et human-in-the-loop.

    • Ragnor
      link
      fedilink
      arrow-up
      3
      ·
      2 hours ago

      Den skal jo også fjerne de data der ikke passer mere. Det ved jeg ikke om RAG kan.

      • farsinuce
        link
        fedilink
        arrow-up
        1
        ·
        edit-2
        2 hours ago

        Jo da. 🙂 Lidt forenklet:

        1. *LLM læser produktblad.docx*
        2. *En kollega laver en ændring i produktblad.docx*
        3. *LLM læser produktblad.docx, som er blevet opdateret siden sidst*

        Inde bagved er det i virkeligheden mere kompliceret alt efter hvilket setup, man har - noget med data, der omdannes til vektorer og gemmes i flere dimensioner: https://www.3blue1brown.com/lessons/mlp

        • Ragnor
          link
          fedilink
          arrow-up
          1
          ·
          edit-2
          54 minutes ago

          Jeg har set videoerne allerede. Det jeg betvivler er bare om man kun kan tilføje flere af disse vektorer så der er flere kombinationer man kan lave, hvilket giver flere mulige outputs, eller om man også kan undgå at de forældede data bliver brugt. Det er jo ikke sådan at hver vektor gemmer hvert sit datapunkt, men i stedet er hvert datapunkt man har trænet på fordelt ud over alle vektorerne.

          Det hjælper jo ikke hvis LLM’en kan komme frem til tekst fra både det gamle og det nye datablad når det gamle ikke er gyldigt længere.