Bryter ekonomiska myter: Datacenterinvesteringar leder alltid till bättre AI
Sammanfattning
- Amerikanska teknikjättar investerar kraftigt i datacenter för att uppnå teknologiskt ledarskap inom AI, men det finns inga garantier för att stora språkmodeller kan producera allmän artificiell intelligens (AGI).
- TS Lombard argumenterar för att fenomenet med minskande marginalnytta redan är här, där kostnaderna för beräkningskraft ökar exponentiellt medan utvecklingstakten för tekniken minskar.
- Trots brister i nuvarande AI-modeller kan de redan ge betydande effektivitetsvinster, vilket kan leda till en produktivitetsökning när de används i större skala.
- Frågor kvarstår om affärslogiken för AI, då endast vissa aktörer som NVIDIA och AI-konsulter verkar tjäna pengar, medan gratisverktyg finns tillgängliga.
Detta innehåll är skapat av AI. Du kan lämna feedback om det på Inderes forum.
Automatisk översättning: Ursprungligen publicerad på finska 2025-12-16 05:15 GMT. Ge feedback här.
Särskilt amerikanska teknikjättar har gjort enorma investeringar i datacenter, vilka behövs för att träna och använda de senaste AI-modellerna. Den relevanta frågan mitt i investeringsvågen är varför. När teknikjättarna tillfrågas är svaret helt enkelt att målet är teknologiskt ledarskap inom AI, det vill säga att nå toppen.
Källa: TS Lombard
Det finns några problem med teknikjättarnas tes. Framför allt finns det inga garantier för att stora språkmodeller (LLM) kan producera generell artificiell intelligens (AGI). TS Lombard har till exempel i sina artiklar påpekat att skalbarhet inte är en naturlag. Faktum är att deras artikel argumenterar för att fenomenet med minskande marginalnytta redan är här. Enligt den ökar utgifterna för datorkraft exponentiellt, men utvecklingstakten för den underliggande tekniken verkar ha minskat (mer information finns här). Detta innebär bland annat att språkmodeller hallucinerar och gör misstag. De tränas, men de "tänker inte själva". Man kan ha olika åsikter om språkmodellernas allmakt, men framtidsförväntningarna på dem är enorma. Om dessa förväntningar inte infrias, trots de enorma investeringarna, kan AI-boomen kollapsa lika snabbt som den började.
TS Lombards artikel presenterar ytterligare ett argument om AI: nämligen att det inte spelar någon roll om generell AI förblir svår att uppnå, eftersom nuvarande modeller trots sina brister är "tillräckligt bra". De kan redan ge betydande effektivitetsvinster (t.ex. inom ordbehandling och kodning), vilket flera studier har visat. När dessa applikationer tas i bredare bruk väntas en betydande produktivitetsökning.
Det kan finnas sanning i påståendet, men om den nuvarande AI:n vore "tillräckligt bra", 1) varför slösar stora teknikföretag fortfarande pengar på datacenter som om det vore den sista dagen, och 2) varför är NVIDIA och olika AI-konsulter, för att överdriva, fortfarande de enda som tjänar pengar på dessa modeller? Affärslogiken för AI är onekligen något som har funderat mig: vem tjänar i slutändan pengar när det finns gott om gratis verktyg tillgängliga?
Om teorin om minskande marginalnytta skulle finna stöd och stora språkmodeller redan hade nått sina gränser på en viss nivå, skulle AI-relaterad teknik inte vara så omvälvande som teknikbranschens insiders hävdar, särskilt med tanke på de ständiga tillförlitlighetsproblemen. I så fall skulle produktivitetsförbättringarna också bli mer måttliga än vad som har setts i de vilda estimaten.
Inför julen går makroöversikterna igenom aktuella ekonomiska myter och slår hål på dem. Med hänvisning till TS Lombards artikel.
