• altialtiOSIBIL
    link
    fedilink
    arrow-up
    1
    arrow-down
    1
    ·
    20 days ago

    Okay, altså 32 mb… det kan vel næsten ikke passe at det remotely kan konkurrere med ChatGPT?

    • SorteKaninOPMA
      link
      fedilink
      arrow-up
      2
      ·
      20 days ago

      32B, ikke 32 MB. Altså 32 milliarder parametre. Med 32-bit per parametre er det 128 GB.

      • farsinuce
        link
        fedilink
        arrow-up
        3
        ·
        20 days ago

        OLMo 2 32B is the first fully-open model to outperform GPT3.5-Turbo and GPT-4o mini on a suite of popular, multi-skill academic benchmarks.

        Så dens ydeevne er vel ~1 år bagud ift. de proprietære state-of-the-art modeller. Ikke ringe for en komplet åben model.

        Kilde: https://allenai.org/blog/olmo2-32B