
Nvidia uruchomiła platformę Lepton, która ma uprościć dostęp do mocy obliczeniowej GPU w chmurze. Dla rynku AI to subtelna, ale potencjalnie przełomowa zmiana. Lepton łączy mniejszych dostawców infrastruktury, takich jak CoreWeave, Crusoe czy Lambda, tworząc alternatywę dla dominacji hiperskalerów – AWS, Azure i Google Cloud – których na razie na platformie brak.
Ruch Nvidii to logiczna konsekwencja jej pozycji jako dostawcy kluczowych komponentów dla generatywnej AI. Firma zbudowała monopol na chipy do trenowania modeli, a teraz próbuje zmonetyzować kontrolę nad łańcuchem dostępu do nich. Zamiast tylko sprzedawać sprzęt, Nvidia staje się koordynatorem rynku obliczeń – dostawcą nie tylko „łopat”, ale i systemu ich dystrybucji.
Dla deweloperów to dobra wiadomość: łatwiejszy dostęp do GPU w różnych lokalizacjach może znacząco skrócić czas testów i trenowania modeli. Dla nowych dostawców chmurowych – to okazja do zwiększenia obłożenia infrastruktury i lepszego dotarcia do klientów.
W dłuższej perspektywie Lepton może stworzyć nowy standard rynkowy – zwłaszcza jeżeli dołączą duzi gracze. Zmieniłoby to sposób, w jaki firmy kupują moc obliczeniową: nie przez umowy z jedną chmurą, ale przez rynek przypominający giełdę.
Kluczowe będzie jednak to, jak Nvidia zdecyduje się monetyzować Lepton. Na razie firma nie zdradza, czy i ile pobierze od transakcji. Ale to tylko kwestia czasu – bo po zdobyciu rynku GPU, Nvidia może zechcieć kontrolować również jego przepływ.