Museum Helsingør har lanceret “To Prompt or Not to Prompt,” en AI-baseret byhistorieguide, udviklet i samarbejde med Digital Impact ApS. AI’en, trænet med over 18.000 sider af historisk materiale, gør det muligt for besøgende at lære om steder som Kronborg Slot og den gamle bydel ved at scanne QR-koder.

Museumsdirektør Sebastian Gyrst-Longsig Christensen ser projektet som en måde at tilgængeliggøre museets samling på en interaktiv måde. Projektet, som har kostet omkring 600.000 kroner og er egenfinansieret, tilbyder gratis brug af guiden. Tilgængelig på 20 sprog, kan museet spore brugen via QR-koder for at forbedre oplevelsen baseret på data.

  • SorteKaninMA
    link
    fedilink
    arrow-up
    5
    ·
    1 month ago

    Af alle de ting som AI bruges til, så synes jeg egentlig den slags brug er rimelig. De er generelt ret gode til opsummering, genfortælling og omformulering af en hel masse information som ville være svært (eller tage lang tid) for et menneske at koge ned og jeg tror ikke de hallucinerer lige så meget i de tilfælde.

    Mon ikke det kan gøres billigere i fremtiden dog.

    • UnderbroenOP
      link
      fedilink
      arrow-up
      4
      ·
      1 month ago

      For mig er det ikke et spørgsmål om brugen er rimelig; selvfølgelig er den det. Spørgsmålet er snarere om man rammer sine målgrupper, får man nye brugere, om man får formidlet med den rette faglig og om man får kurateret indholdet ordentligt. 18000 siders historie er ikke meget at tage udgangspunkt i, men mon ikke man har taget mere eller mindre alt lokalhistorisk (af varierende kvalitet) med for at have en tilpas stor database at tage udgangspunkt i?

      Nationalmuseet og flere af de andre store kulturinstitutioner er i gang med noget tilsvarende og spørgsmålet er, om ikke det et projekt som har mest gennemslagskraft på nationalt plan?

      I forhold til prisen vil jeg gætte på at direktøren har lagt in-house lønomkostninger med i regnestykket for at få det til at se ud som et vigtigere og vægtigere projekt.

      • farsinuce
        link
        fedilink
        arrow-up
        3
        ·
        1 month ago

        Ja, så der er 18000 siders tekster, som jeg gætter på er konverteret fra e.g. PDF til alm. tekst, hvorefter det har kunnet bruges til fine-tuning i OpenAI’s miljø.

        Omkostningerne for fine-tuning af en sådan model er en brøkdel af prisen. Men det kræver jo en programmør eller to, som har tilegnet sig erfaringen 🙂

      • NielsToft
        link
        fedilink
        arrow-up
        2
        ·
        1 month ago

        Som formidler på mudeum er jeg lidt forsigtig med entusiasmen. Jeg tror ikke at det er god formidling men hvis det er billigere end at ansætte mennesker (pt. sæsonarbejdere og studerende) så er det sikkert noget vi må nøjes med fremover.

        • UnderbroenOP
          link
          fedilink
          arrow-up
          1
          ·
          1 month ago

          Jeg kan sagtens forstå, hvor du kommer fra. Jeg mener egentlig, at det kan være rigtig fin formidling, på linje med en guidebog eller byvandringsbog, og tror ikke, at det kommer til at erstatte den menneskelige formidling. Men det gør, hvis produktet er godt nok, historien tilgængelig for nogle som ikke normalt kommer indenfor på et museum eller ikke har de penge, en byvandring koster. Lidt sat på spidsen, tror jeg ikke, studerende og sæsonarbejdere er under pres, før der kan kan laves billige hologrammer, som kan interagere med individerne.

    • EvilCartyen
      link
      fedilink
      arrow-up
      4
      ·
      1 month ago

      jeg tror ikke de hallucinerer lige så meget i de tilfælde.

      Hvorfor egentlig ikke? Bare fordi det er closed corpus er teknologien bagved jo ikke anderledes, så der er stadig ingen måde for programmet at verficere sandhedsværdien af det den genererer.

      • farsinuce
        link
        fedilink
        arrow-up
        6
        ·
        edit-2
        1 month ago

        Jeg har læst, at der arbejdes på en ny metode at verificere et svar på ved, at en “ekspert LLM” (en stor model som fx GPT-4o) udregner et svar på et givent spørgsmål, hvorefter en meget mindre model forholder sig “kritisk” overfor svaret og faktachecker, inden det endelige resultat sendes til brugeren.

        Det skulle mindske graden af LLM hallucinationer.

        Det er nyt og vidst ikke udbredt endnu, så jeg ved endnu ikke hvordan, det virker.

        Men ja. Som med så meget andet teknologi i dag: "Giv det ½ år“ og så er vi et helt andet sted. #twomorepapersdowntheline

      • SorteKaninMA
        link
        fedilink
        arrow-up
        3
        ·
        1 month ago

        Det er fordi de generelt har mere information at trække på og derfor ikke behøver at opfinde lige så meget. Der er klart mere hallucination med en kort uspecifik prompt end med en lang, detaljeret prompt. Det er i hvert fald min teori. Men jeg er ikke ekspert eller noget.