• EvilCartyen
    link
    fedilink
    arrow-up
    2
    ·
    1 day ago

    Det er vel lidt ligesom at sige at det er grønnere at bruge olie end det er et bruge kul, det er teknisk set korrekt men det hjælper bare ikke sådan I virkeligheden at gå all in på olie.

    Generativ AI er både dårligt for hjernen og dårligt for miljøet og de burde bare lade være.

    • vandsjov
      link
      fedilink
      arrow-up
      3
      ·
      19 hours ago

      Enig, AI chat er dårligere for miljøet end en almindelig søgning. Hvor meget grønnere at Ecosia kan gøre det (via deres “200% carbon negative” strategi) ved jeg ikke. Måske sammenligningen nærmere er at bruge træflis i stedet for kul (igen, jeg ved det ikke).

      Du kan sige det samme om elbiler. Folk burde bare lade være og bruge offentlig transport eller cyklen i stedet. Men hvis folk absolut vil bruge en bil (AI chat), bør vi så ikke lade dem bruge det grønnere alternativ (Ecosia AI chat).

      Jeg kan sagtens følge dig. For mig er det et spørgsmål om at finde et sted imellem absolut alt skal være AI og absolut alt skal ikke være AI.

      • EvilCartyen
        link
        fedilink
        arrow-up
        2
        ·
        18 hours ago

        Men en elbil er sådan objektivt set meget grønnere end en almindelig bil - mens Ecosias AI bare er ChatGPT i en trenchcoat. Hvis de reelt implementerede en LLM med lavere klimaaftryk end alternativet så fair play.

        Men det de har gjort er at male en dieselbil grøn og sige at så er den mere klimavenlig end alternativet. Der er ikke noget ved deres model der mere klimavenligt end konkurrenterne; det er simpelthen bare ChatGPT.

        • vandsjov
          link
          fedilink
          arrow-up
          3
          ·
          17 hours ago

          Hvis du kun kører din bil 10 km og så skrotter den, så er miljøbelastningen for en elbil meget værre end en almindelig bil. ChatGPT er ikke “bare ChatGPT”. De forskellige modeller bruger (meget) mere eller (meget) mindre energi at drive. Ud fra de resultater jeg får fra Ecosia, så tror jeg ikke at de bruger den store forkromet model. Jeg tror også at de har lagt nok begrænsninger ind i de svar man ønsker. Typisk er det nogle kortere svar man får, hvilket også begrænser energiforbruget.

          • farsinuceOP
            link
            fedilink
            arrow-up
            2
            ·
            edit-2
            14 hours ago

            Energiforbrug

            • Konventionel onlinesøgning: 🔥

            • Anvendelse af sprogmodel: 🔥🔥🔥🔥🔥

            • Streaming på Netflix (10 min./4K): 🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥

            • Træning af sprogmodel: 🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🌪🦈🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥🔥 x 10^3

            • SorteKaninMA
              link
              fedilink
              arrow-up
              1
              ·
              14 hours ago

              Har du en kilde? Især den der med streaming på Netflix synes jeg ser lidt høj ud :)

              Træning sker vel også kun få gange, mens at anvendelse af sprogmodeller sker mange flere gange (altså sådan, milliarder af gange), det skal vel også regnes med.

              • farsinuceOP
                link
                fedilink
                arrow-up
                2
                ·
                edit-2
                9 hours ago

                Har du en kilde?

                Tak fordi du spørger. Har kun spredte kilder ~~Ledte efter en bedre med et samlet overblik at dele her. Nu er det ulvetime. ~~ Det må blive dem her: (1, 2, 3, 4).

                Træning sker vel også kun få gange, mens at anvendelse af sprogmodeller sker mange flere gange (altså sådan, milliarder af gange), det skal vel også regnes med.

                For de fleste modeller gælder det, at træning sker én gang, og så har du din model. Kilde… øøh… kaninhul: https://huggingface.co/models

                • SorteKaninMA
                  link
                  fedilink
                  arrow-up
                  2
                  ·
                  14 hours ago

                  træning sker én gang

                  Ah men det er jo ikke helt rigtigt - modellen bliver jo trænet mange gange mens man udvikler den, tænker jeg 🙂. Medmindre du da vil betegne hver træning som en separat model. Men altså ja pointen er den samme.

                  • farsinuceOP
                    link
                    fedilink
                    arrow-up
                    2
                    ·
                    edit-2
                    12 hours ago

                    ? Det mener jeg da ikke. En LLM trænes først på en stor mængde data, så man får en Base Model. Den kan så herefter fintunes med flere dataset og RLHF (menneskelig feedback), så man får instruction modeller osv.

                    Så når man er færdig, kan man serve den til folk f.eks. via applikation eller API. Er den open source, kan det være den lægges på Hugging Face, så folk selv kan downloade modellen og køre den lokalt.

                    Skal den trænes videre, skal den servede model erstattes af en ny model(version).

                    Tager jeg fejl? Hvordan forstår du det?

                    Opdateret: Hov. Er jeg gået for langt off topic?

    • farsinuceOP
      link
      fedilink
      arrow-up
      2
      ·
      edit-2
      21 hours ago

      Through the European Search Perspective we’re aiming to build digital sovereignty within Europe and provide a transparent and secure data pool for emerging AI technologies. […] The amount of climate impact Ecosia can bring about has always been dependent on how well our search engine works for you, so as we see it, developing this innovative technology is essential for the planet.

      Trods ulemperne, er online søgning blevet et essentielt værktøj. Jeg ser hellere et konkurrencedygtigt Ecosia+Qwant ved roret end amerikansk big tech.