Van pénz az Nvidián túl is, érdemes figyelni az AI-értékláncot

Sokan leálltak az Nvidiánál, amikor AI-befektetést kerestek. Pedig a mesterséges intelligenciához kapcsolódó értéklánc számos pontján vannak figyelemre méltó cégek, akár a chipgyártók, akár a fejlesztők, akár az infrastruktúra oldalát nézzük.

Az elemzés eredetileg a Forbes.hu-n jelent meg.

Ha valaki 2022 novemberében, a ChatGPT megjelenésekor eldöntötte, hogy kizárólag Nvidiába fektet, mivel az gyártja a szükséges chipeket, az meghatszorozta az eltelt bő másfél évben a befektetése értékét. Abban a pillanatban egyértelműen igaz volt, hogy a feltörekvő új trend legfontosabb szereplőjét kell csak megvenni, és várni. A befektetési szakmában azonban a szomorú valóság az, hogy a múltbéli folyamatokat utólag nagyon könnyű megmagyarázni,

nekünk viszont a jelenben kell döntést hozni, az előttünk álló időszakra vonatkozóan.

Lehet persze, hogy így is az jár a legjobban, aki becsukja a szemét és Nvidiát vesz? Lehet. Ennek ellenére érdemes jobban beleásni magunkat a témába, és strukturáltan, a teljes generatív mesterséges intelligencia értékláncban gondolkozni? Mindenképp!

Nézzük tehát meg a generatív mesterséges intelligencia értékláncot és azt, hogy ennek a különböző pontjain közreműködő cégeknél a teremtett érték mekkora része csapódhat le!

Chipgyártók terén sem egyértelmű a helyzet

A generatív mesterséges intelligencia értéklánc legalsó rétegének a chiptervezőket tartják. Mehetnénk ennél is mélyebbre, hiszen magát a chipet szinte kizárólag a tajvani TSMC gyártja, az ehhez szükséges gépeket pedig a holland ASML szállítja, de fogadjuk most el ezt az egyszerűsítést.

Azt az egyszerűsítést viszont ne fogadjunk el (akkor se, ha a médiában gyakran elsiklanak fölötte), hogy a generatív mesterséges intelligenciában a modellek betanítása (training) és a már betanított modellek futtatása (inference) ugyanaz – ez két igen különböző folyamat.

Ezekhez más és más chiparchitektúrára van szükség.

A tanításhoz a több egyszerű számítást egyszerre futtatni képes grafikus processzorok (GPU – Graphics Processing Unit) az ideálisak. Ezek tervezésében az Nvidia messze a versenytársai előtt jár.

A feltanított modellek futtatására viszont már nem a GPU a legjobb architektúra. Ez ugyanis sok energiát használ. Nem a futtatáshoz szükséges műveletekre optimalizálták, hanem a tanításra, a számítógépes játék grafikára, illetve a kriptobányászathoz szükséges számításokra.

Az Nvidia mögé is érdemes nézni

A modellek futtatásában élen járó chip architektúrát Jonathan Ross kezdte fejleszteni. Ross a Google mérnökeként eltöltött évei alatt alkotta meg a TPU (Tensor Processing Unit) architektúrát, amire építve a Google az egyik legnagyobb inference kapacitással rendelkező felhőszolgáltatását hozta létre.

Ross nem elégedett meg azonban azzal, hogy csupán egy alkalommal rajzolja át a mesterséges intelligencia futtatására optimalizált chipek világát: 2016-ban Groq néven új startupot alapított, amely 2022-ben egy új chiparchitektúrát dobott a piacra LPU (Language Processing Unit) néven. Ezt az architektúrát már sebességben, teljesítményben és energiafelhasználásban is a nagy nyelvi modellek (LLM-ek) futtatására optimalizálták.

Az emberekkel valós időben kommunikáló robotoknál, vagy az önvezető autóknál is meghatározó (akár életmentő) lehet a mesterséges intelligencia modell futásának sebessége. Figyelembe kell továbbá venni azt is, hogy az infrastruktúra kiépítésekor a modellek futtatásának energiahatékonysága jelentős költségcsökkentő tétel lehet. A Groq értékét hivatalosan legutóbb 2021-ben becsülték egymilliárd dollárra, azóta – a generatív AI berobbanásával – ez az érték akár a sokszorosára is nőhetett.

Nem lennék meglepve, ha hamarosan tőzsdére vinnék a vállalat papírjait – bár erre vonatkozó hír eddig nem volt.

Az Nvidia chipek fontosságát nem lebecsülve, az eddigiek alapján is kezd körvonalazódni az, hogy már a győztes chipgyártók kiválasztása se magától értetődő folyamat – nem is beszélve arról, hogy milyen árazottságon vesszük meg a cég részvényeit. Pedig még rá se tértünk az értéklánc következő pontjaira.

Hallucináló modellek

A 2023-as év szava a Cambridge-i egyetem szerint a „hallucináció” volt. Ebben az évben robbant be a köztudatba a ChatGPT és a hozzá hasonló nagy nyelvi modellek (LLM-ek) használata. Ezek akkor is magabiztos választ adnak egy feltett kérdésre, ha fogalmuk sincs a témáról. A nyelvi modelleknek ezt a pontatlanságát nevezik hallucinációnak – a szó tavaly az iparág nyelvi kultúrájának a részévé vált.

Minden pontatlanságuk és tökéletlenségük ellenére, a nagy nyelvi modellek elképesztő népszerűségre tettek szert, az ember-számítógép együttműködés teljesen új dimenzióját keltették életre, rámutattak továbbá arra is, hogy egy generális mesterséges intelligencia létrehozása nincs is olyan messze, mint azt korábban gondoltuk. Így a chipgyártók mellett az LLM-ek fejlesztői kerültek a figyelem középpontjába, amelyek óriási erőforrásokat ölnek az újabb és újabb lenyűgöző modellek fejlesztésébe – kimondott céljuk az általános mesterséges intelligencia (az AGI) létrehozása.

Sam Altman, az OpenAI alapítója 50 milliárd dollárt sem fél elégetni. Fotó: Getty Images

Ezek alapján az érdeklődés középpontjába került a ChatGPT-t fejlesztő OpenAI, vagy a Claude-ot fejlesztő Anthropic is – megtérülő üzleti modellt azonban eddig egyik vállalat sem volt képes kiépíteni. Sam Altman, az OpenAI CEO-ja a legutóbbi interjújában arról beszélt, hogy tavaly 500 millió dollárnyi veszteséget termelt a cége, pedig ekkor már bevételt hozott a fizetős ChatGPT, és

arra is utalást tett, hogy az sem érdekli, ha 50 milliárd dollárt éget el egy évben, ha az út végén sikerül neki az AGI kifejlesztése.

Rombolja a megtérülést

Nehéz elképzelni, hogy milyen üzleti modellt lehet építeni egy ilyen drágán fejleszthető technológiára, amely a legnagyobb társadalmi hasznot (és gazdasági növekedést) akkor tudná teremteni, ha minél olcsóbban tennék elérhetővé a felhasználók számára.

Tovább rombolja a modellek megtérülésének várható értékét az a tény is, hogy rengetegen vannak, akik a mesterséges intelligencia fejlesztésére a nyílt forráskódú (open source) modellt tartják az egyetlen etikus útnak.

Ez azt jelenti, hogy a több százmillió dollárból feltanított algoritmust ingyen elérhetővé teszik bárki számára.

Nem csak a kis szereplők vágyálma az open source AI. Néhány héttel ezelőtt a Meta (a Facebookot üzemeltető vállalat) nyilvánosságra hozta a legújabb nyílt forráskódú modelljét a Llama 3-at, amely már (nevével ellentétben zárt forráskódú) az OpenAI ChatGPT-jével is képes felvenni a versenyt.

Az LLM-fejlesztők talán a legfontosabb részei a mesterséges intelligencia infrastruktúrának, ám profittermelési szempontból közel sem egyértelműen ők lesznek a nyertesek. Elképzelhető, hogy az a cég, amelyiknek először sikerül megalkotnia az átfogó mesterséges intelligenciát, letarolja a piacot, és a világ legértékesebb vállalata lesz. Az sem zárható ki azonban, hogy a nyílt forráskódú megoldások miatt ez a rengeteg beruházásra elköltött pénz soha nem térül meg az LLM fejlesztő cégek befektetőinek.

Az értéklánc óriásai

Van tehát hardverünk, amely képes tanítani és futtatni a mesterséges intelligenciát. Van szoftver is, amit futtatni lehet a hardveren. Az értéklánc következő lépcsőfoka az infrastruktúra, kérdés, hol lesz ez, és milyen üzleti modellben szolgáltat majd a felhasználóknak.

Ahogyan az adattárolást is sok cég és magánszemély a „felhőbe költöztette”, úgy van lehetőség a számítási kapacitás kiszervezésére is a nagy szolgáltatók szervereire. Az adataink ugyanis nem a „felhőben” vannak tárolva, hanem a Google, a Microsoft és az Amazon óriási szerverein. Ezek a vállalatok elkezdték felvásárolni az Nvidia és egyéb chipgyártó cégek szinte teljes kapacitását annak érdekében, hogy ki tudják építeni a saját „felhő-AI” szolgáltatásukat.

Ha egy startup saját modellt akar tehát betaníttatni, és a modell futtatására épülő szolgáltatást nyújtani, akkor nem kell beruháznia több millió dollárt mikrochipekbe, hanem (például az Amazon szerverein) bérelhet training vagy inference kapacitást, és ezen keresztül nyújthatja a szolgáltatását. Ez rendkívül nagy rugalmasságot biztosít az infrastruktúrát bérlő vállalatok számára, hiszen ha egy fél év alatt százszorosára nő a felhasználóik a száma, akkor csak több kapacitást bérelnek, nem kell egy újabb adag TPU-t bekötniük a saját szerverparkjaikba. Ezért is hívják a Google Cloud, Amazon Web Services és Microsoft Azure szolgáltatásait „hyperscalereknek”: segítenek idő és pénz befektetése nélkül egy internetes vállalat kapacitását a sokszorosára növelni.

Természetesen, ahogy a szenzitív adatok tárolása kapcsán, itt is lesznek olyan cégek, amelyek inkább saját hardvert használnak majd, és a helyi futtatást részesítik előnyben, de minden bizonnyal ők lesznek kisebbségben.

Befektetési szempontból nehéz értékelni az értékláncnak ezt a szegmensét, itt ugyanis a világ legértékesebb vállalatai a domináns szereplők.

A számítási kapacitás minden bizonnyal commodity lesz a jövőben, és a nagy vállalatok versengése miatt kevésbé elképzelhető, hogy óriási profitok keletkezzenek majd ebben a szegmensben. Főleg, ha hozzátesszük azt is, hogy jelenleg óriási túlkeresletben vásárolják be az infrastruktúra működtetéséhez szükséges mikrochipeket, így a beruházási időszak ezen vállalatok számára rendkívül költséges.

Szélesedik az értéklánc

Az értéklánc utolsó pontján azok a tradicionális iparágakban működő vállalatok vannak, amelyek a mesterséges intelligenciát felhasználva a terméküket vagy a szolgáltatásukat sokkal hatékonyabban, jobb minőségben tudják majd előállítani és értékesíteni.

Ez az értéklánc legszélesebb szegmense. Gondolhatunk itt az olyan vállalatokra, mint a Photoshopot fejlesztő Adobe, amely a képgeneráló AI-t beépítve értéknövelt szolgáltatást nyújthat az ügyfelei számára. Vagy a nagy gyógyszergyártókra (például a Pfizerre), amelyek a mesterséges intelligencia segítségével megkönnyíthetik, illetve felgyorsíthatják a gyógyszergyártási folyamataikat.

De ilyen lehet a játékfejlesztő szoftvert gyártó Unity is, amely a nagy nyelvi modellek segítségével sokkal intuitívabbá tudja tenni a játékfejlesztést, nagyban csökkentve a belépési korlátot a felhasználói számára.

Látható, hogy a felhasználók szintjén lesz a legnehezebb dolga az AI lehetőségeket kereső befektetőknek. Nagyon nehéz ugyanis kitalálni, hogy melyik vállalat tudja majd igazán kihasználni a generatív mesterséges intelligencia által nyújtott lehetőségeket.

Hogyan kell befektetést választani?

Mitől lesz képes egy ilyen vállalat hosszú távon fenntartható versenyelőnyt kiépíteni? Mi akadályozhatja továbbá meg a néhány fős startupokat abban, hogy az AI lehetőségeit kihasználva sokkal hatékonyabban és olcsóbban nyújtsák ugyanazt a szolgáltatást, amire addig csak a több ezer fős nagyvállalatok voltak képesek? Túl sok itt a válaszra váró kérdés.

Ahhoz, hogy értékláncnak ezen a pontján fektessünk be, nagyon kell érteni a cégek működését. Követni kell, hogy valóban értékteremtő módon építik-e be a mesterséges intelligenciát a vállalat működésébe, vagy csupán a hype-ot kihasználva, látszatmegoldásokat vezetnek be a részvény árfolyamának minél magasabbra pumpálása érdekében.

A szerző, Énekes Tamás többi anyagát itt böngészheti a HOLDBLOG-on.

JOGI NYILATKOZAT

A dokumentumban foglaltak nem minősülnek befektetési ajánlatnak, ajánlattételi felhívásnak, befektetési tanácsadásnak vagy adótanácsadásnak, befektetési elemzésnek, az abban foglaltak alapján a HOLD Alapkezelő Zrt.-vel szemben igény nem érvényesíthető, azokért a Hold Alapkezelő Zrt. felelősséget nem vállal.