Generativ AI er ikke bare hurtigere, mere præcis og effektiv, den kan også producere indhold, som langt overstiger, hvad vi selv kan. Hvis du tror på det, er du blandt dem, der bliver arbejdsløs.
An S is created by the wave of progress when a new paradigm sweeps the world. The curve goes through three phases:
Slow growth (the early phase of exponential growth)
Rapid growth (the late, explosive phase of exponential growth)
A leveling off as the particular paradigm matures
Det virker allerede som om vi er i stadie 3 af LLM’er og den slags AIs. De er nødt til at finde på en fundamentalt anden måde at gøre dem bedre på, virker det som om (altså andet end bare at komme flere parametre og mere computerkraft efter modellerne).
De er nødt til at finde på en fundamentalt anden måde at gøre dem bedre på
Ja, du tænker på ligesom i udviklingen med Disketter -> CD’er -> DVD’er -> Bluray -> MicroSDXC osv.? Altså: hvor der skal ske noget radikalt nyt inden for teknologien, for at den ikke skal stagnere og ramme en mur?
Det seneste teknologispring må være Reasoning (ræsonnement, direkte oversat), der forbedrer outputs til f.eks. matematik og kodning. Men ikke ligefrem et “Diskette til CD”-spring.
Eksempel (Claude 3.7 Sonnet med og uden Reasoning):
Ja jeg tænker på transformere. Det var et paradigmeskifte da de kom frem, men jeg tror efterhånden teknologien er blevet strakt til sin kapacitet. Der skal en helt anden arkitektur til nu for at kunne gøre det anderledes.
Der skal en helt anden arkitektur til nu for at kunne gøre det anderledes.
Enig. Ræsonnerende sprogmodeller er et skridt fremad, men det er ikke nogen revolution. De vil nok mest være en hjælp til analysearbejde og andre former for mønstergenkendelse. Ikke særligt clickbait-egnet …
Tilføjet:
Transformer+Attention paper er alligevel helt tilbage fra 2017, og det var først i slut-2022, at ChatGPT 3.5 udkom og blev populært:
Key Milestones in LLM Evolution
2017: Foundation Era
Transformer architecture introduced in “Attention Is All You Need” paper, enabling parallel text processing
2018-2019: Early Models
BERT and GPT-2 demonstrate the potential of pre-training on large text corpora
OpenAI initially delayed GPT-2 release due to misuse concerns
2020-2021: Scaling Revolution
GPT-3 (175B parameters) reveals emergent abilities through massive scaling
Models begin showing capabilities not explicitly trained for
2022: Alignment Breakthrough
ChatGPT introduces RLHF (Reinforcement Learning from Human Feedback)
Consumer adoption explodes with conversational interface
2023: Multimodal Expansion
Models gain vision capabilities (GPT-4V, Claude Vision)
Open-source alternatives gain traction (Llama, Mistral)
Kilder:
Baseret på hvordan min Renault Grand Scenic accelererede denne morgen vil jeg estimere at jeg når lysets hastighed omkring kl 12 i morgen ;)
Påstår du at uendelig vækst på en endelig planet er umuligt?! /s
Det virker allerede som om vi er i stadie 3 af LLM’er og den slags AIs. De er nødt til at finde på en fundamentalt anden måde at gøre dem bedre på, virker det som om (altså andet end bare at komme flere parametre og mere computerkraft efter modellerne).
Ja, du tænker på ligesom i udviklingen med Disketter -> CD’er -> DVD’er -> Bluray -> MicroSDXC osv.? Altså: hvor der skal ske noget radikalt nyt inden for teknologien, for at den ikke skal stagnere og ramme en mur?
Sprogmodeller er stadig baseret på Googles Transformer teknologi + Attention. Forklaret kort af 3Blue1Brown her: https://www.youtube.com/watch?v=LPZh9BOjkQs
Det seneste teknologispring må være Reasoning (ræsonnement, direkte oversat), der forbedrer outputs til f.eks. matematik og kodning. Men ikke ligefrem et “Diskette til CD”-spring.
Eksempel (Claude 3.7 Sonnet med og uden Reasoning):
Kilde: https://www.vellum.ai/llm-leaderboard#compare
Ja jeg tænker på transformere. Det var et paradigmeskifte da de kom frem, men jeg tror efterhånden teknologien er blevet strakt til sin kapacitet. Der skal en helt anden arkitektur til nu for at kunne gøre det anderledes.
Enig. Ræsonnerende sprogmodeller er et skridt fremad, men det er ikke nogen revolution. De vil nok mest være en hjælp til analysearbejde og andre former for mønstergenkendelse. Ikke særligt clickbait-egnet …
Tilføjet:
Transformer+Attention paper er alligevel helt tilbage fra 2017, og det var først i slut-2022, at ChatGPT 3.5 udkom og blev populært:
Key Milestones in LLM Evolution
2017: Foundation Era
2018-2019: Early Models
2020-2021: Scaling Revolution
2022: Alignment Breakthrough
2023: Multimodal Expansion
2024: Reasoning Emergence