Taloustieteen myyttejä murtamassa: Datakeskusinvestoinnit johtavat aina vain parempaan tekoälyyn
Tiivistelmä
- Yhdysvaltalaiset teknologiajätit investoivat voimakkaasti datakeskuksiin tavoitteenaan teknologiajohtajuus tekoälyn alalla.
- TS Lombard kyseenalaistaa suurten kielimallien (LLM) kyvyn tuottaa yleistä tekoälyä (AGI) ja huomauttaa alenevan rajahyödyn ilmiöstä, jossa laskentatehoon käytetyt menot kasvavat, mutta teknologian kehitys hidastuu.
- Nykyiset tekoälymallit voivat tuottaa merkittäviä tehokkuushyötyjä, mutta niiden ansaintalogiikka on epäselvä, ja vain harvat yritykset, kuten NVIDIA, hyötyvät taloudellisesti.
- Mikäli alenevan rajahyödyn teoria pitää paikkansa, tekoälyteknologian mullistavuus ja tuottavuusparannukset voivat jäädä odotettua maltillisemmiksi.
Tämä sisältö on tekoälyn tuottamaa. Anna siihen liittyvää palautetta Inderesin foorumilla.
Etenkin yhdysvaltalaiset teknologiajätit ovat tehneet jätti-investointeja datakeskuksiin, joita tarvitaan uusimpien tekoälymallien kouluttamiseen ja käyttämiseen. Relevantti kysymys investointihyökyaallon keskellä on miksi. Teknojäteiltä kysyttäessä vastaus on yksinkertaisesti se, että tavoitteena on teknologiajohtajuus tekoälyn saralla, eli pääsy huipulle.
Lähde: TS Lombard
Teknojättien teesissä on muutamia ongelmia. Ennen kaikkea ei ole takeita siitä, että suuret kielimallit (LLM) voivat tuottaa yleistä tekoälyä (AGI). Esimerkiksi TS Lombard on tuonut artikkeleissaan esiin sitä, että skaalautuminen ei ole luonnonlaki. Itse asiassa heidän artikkelissaan argumentoidaan, että alenevan rajahyödyn ilmiö on jo täällä. Sen mukaan laskentatehoon käytetyt menot kasvavat eksponentiaalisesti, mutta taustalla olevan teknologian kehittymisvauhti näyttää hidastuneen (lisätietoa löytyy täältä). Tämä tarkoittaa mm. sitä, että kielimallit hallusinoivat ja tekevät virheitä. Niitä koulutetaan, mutta ne eivät "ajattele itse". Kielimallien kaikkivoipaisuudesta voidaan olla montaa mieltä, mutta tulevaisuuden odotukset niiden osalta ovat hurjia. Jos näitä odotuksia ei jätti-investoinneista huolimatta lunasteta, tekoälybuumi voi lässähtää yhtä nopeasti kuin alkoikin.
TS Lombardin artikkelissa esitellään toinenkin väite tekoälystä: nimittäin, että sillä ei ole väliä, vaikka yleinen tekoäly pysyisi vaikeasti saavutettavana, koska nykyiset mallit ovat puutteistaan huolimatta "riittävän hyviä". Ne voivat jo tuottaa merkittäviä tehokkuushyötyjä (esim. tekstinkäsittelyssä ja koodaamisessa), kuten useat tutkimukset ovat osoittaneet. Kun näitä sovelluksia otetaan laajemmin käyttöön, odotettavissa on merkittävä tuottavuuslisäys.
Väitteessä voi olla perää, mutta jos nykyinen tekoäly olisi ”riittävän hyvä”, 1) miksi suuret teknologiayhtiöt tuhlaavat edelleen datakeskuksiin kuin viimeistä päivää ja 2) miksi NVIDIA ja erilaiset tekoälykonsultit ovat edelleen kärjistäen ainoita, jotka tekevät rahaa näillä malleilla? Ansaintalogiikka tekoälyllä on kieltämättä asia, joka itseänikin on pohdituttanut: kuka lopulta vuolee kultaa, kun ilmaisiakin työkaluja on yllin kyllin saatavilla?
Mikäli alenevan rajahyödyn teoria pitäisi paikkansa ja suuret kielimallit olisivat jo tietyllä tasolla saavuttaneet rajansa, tekoälyyn liittyvä teknologia ei tulisi olemaan niin mullistavaa kuin teknologia-alan sisäpiiriläiset väittävät, erityisesti kun otetaan huomioon jatkuvat luotettavuusongelmat. Tällöin tuottavuusparannuksetkin jäisivät maltillisimmiksi kuin villeissä ennusteissa on nähty.
Joulun alla makrokatsauksissa käydään läpi ajankohtaisia talouden myyttejä ja murretaan niitä. Idean pohjana TS Lombardin artikkeli.
