Snowflake og?osi? na konferencji Nvidia GTC rozszerzon? wspó?prac? z firm? Nvidia. Jej efektem b?dzie wzmocnienie pozycji klientów korporacyjnych dzi?ki platformie AI, która po??czy platform? full-stack Nvidia z zaufanym fundamentem danych i bezpieczn? sztuczn? inteligencj? Chmury Danych Snowflake.
– Dane s? paliwem dla sztucznej inteligencji, co czyni je niezb?dnymi do ustanowienia skutecznej strategii AI – zauwa?a Sridhar Ramaswamy, CEO Snowflake. – Nasze partnerstwo z firm? Nvidia zapewnia bezpieczn?, skalowaln? i ?atw? w u?yciu platform? dla zaufanych danych przedsi?biorstwa. Eliminujemy z?o?ono?? sztucznej inteligencji, umo?liwiaj?c u?ytkownikom wszystkich typów, niezale?nie od ich wiedzy technicznej, szybkie i ?atwe czerpanie korzy?ci z AI.
– Dane korporacyjne stanowi? podstaw? niestandardowych aplikacji AI, które mog? dostarcza? wiedz? i ujawnia? nowe spostrze?enia – mówi Jensen Huang, za?o?yciel i CEO Nvidia. – Wprowadzenie akcelerowanych oblicze? i oprogramowania Nvidia do platformy danych Snowflake pozwoli przyspieszy? wdra?anie sztucznej inteligencji w przedsi?biorstwach, pomagaj?c klientom w tworzeniu, uruchamianiu i zarz?dzaniu bezpiecznymi aplikacjami GenAI.
Nvidia NeMo w Chmurze Danych
Rozszerzaj?c wcze?niej og?oszon? przez Snowflake i Nvidia integracj? Nvidia NeMo™, klienci Snowflake b?d? wkrótce mogli wykorzystywa? Nvidia NeMo Retriever bezpo?rednio na swoich danych w Chmurze Danych. Wszystko to przy jednoczesnym zachowaniu bezpiecze?stwa, prywatno?ci i zarz?dzania dzi?ki wbudowanym funkcjom Snowflake.
NeMo Retriever zwi?ksza wydajno?? i skalowalno?? aplikacji typu chatbot, pozwalaj?c skróci? czas uzyskania warto?ci dla ponad 400 przedsi?biorstw ju? tworz?cych aplikacje AI za pomoc? Snowflake Cortex (niektóre funkcje w wersji zapoznawczej), w pe?ni zarz?dzanego du?ego modelu j?zykowego (LLM) firmy Snowflake i us?ugi wyszukiwania wektorowego. Rozszerzona wspó?praca z Nvidia obejmie równie? dost?p do oprogramowania Nvidia TensorRT™ zapewniaj?cego najmniejsze opó?nienia i wysok? przepustowo?? dla aplikacji g??bokiego uczenia si? w celu zwi?kszenia mo?liwo?ci wyszukiwania opartego na LLM.
Nowe moce obliczeniowe w produktach Snowflake
Akcelerowane moce obliczeniowe Nvidia zasilaj? kilka produktów AI firmy Snowflake, w tym Snowpark Container Services, a tak?e:
- Snowflake Cortex LLM Functions (publiczna wersja zapoznawcza): Dzi?ki Snowflake Cortex LLM Functions u?ytkownicy z umiej?tno?ciami SQL mog? wykorzystywa? mniejsze LLM-y do efektywnego kosztowo rozwi?zywania okre?lonych zada?, w tym analizy nastrojów, t?umaczenia i podsumowywania w ci?gu sekund. Bardziej zaawansowane przypadki u?ycia obejmuj? tworzenie aplikacji AI w ci?gu kilku minut przy u?yciu wydajnych modeli Mistral AI, Meta i innych.
- Snowflake Copilot (prywatna wersja zapoznawcza): Nap?dzany przez du?e modele j?zykowe asystent Snowflake, Snowflake Copilot, wprowadza generatywn? sztuczn? inteligencj? do codziennych zada? kodowania za pomoc? j?zyka naturalnego. U?ytkownicy mog? zadawa? pytania dotycz?ce swoich danych w postaci zwyk?ego tekstu, tworzy? zapytania SQL w odniesieniu do odpowiednich zestawów danych, czy udoskonala? zapytania i filtrowa? otrzymane spostrze?enia.
- Document AI (prywatna wersja zapoznawcza): Document AI pomaga przedsi?biorstwom wykorzystywa? LLM-y do ?atwego wyodr?bniania tre?ci, takich jak kwoty faktur lub warunki umowne z dokumentów i dostosowywania wyników za spraw? interfejsu wizualnego, przy pomocy j?zyka naturalnego. Klienci korzystaj? z Document AI, aby wspiera? swoje zespo?y w zmniejszaniu liczby r?cznych b??dów i zwi?ksza? wydajno?? dzi?ki zautomatyzowanemu przetwarzaniu dokumentów.