Nvidia uruchomi?a platform? Lepton, która ma upro?ci? dost?p do mocy obliczeniowej GPU w chmurze. Dla rynku AI to subtelna, ale potencjalnie prze?omowa zmiana. Lepton ??czy mniejszych dostawców infrastruktury, takich jak CoreWeave, Crusoe czy Lambda, tworz?c alternatyw? dla dominacji hiperskalerów – AWS, Azure i Google Cloud – których na razie na platformie brak.
Ruch Nvidii to logiczna konsekwencja jej pozycji jako dostawcy kluczowych komponentów dla generatywnej AI. Firma zbudowa?a monopol na chipy do trenowania modeli, a teraz próbuje zmonetyzowa? kontrol? nad ?a?cuchem dost?pu do nich. Zamiast tylko sprzedawa? sprz?t, Nvidia staje si? koordynatorem rynku oblicze? – dostawc? nie tylko „?opat”, ale i systemu ich dystrybucji.
Dla deweloperów to dobra wiadomo??: ?atwiejszy dost?p do GPU w ró?nych lokalizacjach mo?e znacz?co skróci? czas testów i trenowania modeli. Dla nowych dostawców chmurowych – to okazja do zwi?kszenia ob?o?enia infrastruktury i lepszego dotarcia do klientów.
W d?u?szej perspektywie Lepton mo?e stworzy? nowy standard rynkowy – zw?aszcza je?li do??cz? duzi gracze. Zmieni?oby to sposób, w jaki firmy kupuj? moc obliczeniow?: nie przez umowy z jedn? chmur?, lecz przez rynek przypominaj?cy gie?d?.
Kluczowe b?dzie jednak to, jak Nvidia zdecyduje si? monetyzowa? Lepton. Na razie firma nie zdradza, czy i ile pobierze od transakcji. Ale to tylko kwestia czasu – bo po zdobyciu rynku GPU, Nvidia mo?e zechcie? kontrolowa? równie? jego przep?yw.