Snowflake, firma oferująca Chmurę Danych, na dorocznej konferencji użytkowników Snowflake Summit 2023 ogłosiła innowacje, które rozszerzają programowalność danych dla analityków danych, inżynierów danych i twórców aplikacji, dzięki czemu mogą oni szybciej i wydajniej tworzyć w Chmurze Danych.
Wraz z uruchomieniem Snowpark Container Services (wersja private preview), Snowflake rozszerza zakres frameworka Snowpark, dzięki czemu programiści mogą skorzystać z nowych opcji, takich jak przyspieszone obliczenia z procesorami graficznymi NVIDIA i oprogramowaniem AI, aby uruchamiać więcej obciążeń w ramach bezpiecznej platformy Snowflake. Obejmuje to m.in. szerszy zakres modeli AI i uczenia maszynowego (ML), interfejsów API czy wewnętrznie opracowanych aplikacji.
Korzystając z usług Snowpark Container Services, klienci Snowflake uzyskują dostęp do obszernego katalogu oprogramowania i aplikacji innych firm, w tym dużych modeli językowych (LLM) czy narzędzi MLOps w ramach swojego konta. Ponadto Snowflake upraszcza i umożliwia skalowanie sposobu, w jaki użytkownicy opracowują, obsługują i wykorzystują modele ML, przedstawiając kolejne innowacje, dzięki którym więcej organizacji może ożywić swoje dane i modele ML.
Nowości obejmują zestaw interfejsów API Snowpark ML dla bardziej wydajnego opracowywania modeli (wersja public preview), Snowpark Model Registry (wersja private preview) dla skalowalnych MLOps, Streamlit w Snowflake (wkrótce public preview) do przekształcania modeli w interaktywne aplikacje i zaawansowanych możliwości przesyłania strumieniowego.
Rozwój produktów Snowflake pozwala rewolucjonizować sposób, w jaki klienci budują w Chmurze Danych, udostępniając specjalistom zajmującym się danymi, inżynierom danych i deweloperom aplikacji rozszerzoną programowalność i szeroką gamę zastosowań, dzięki czemu mogą budować, testować i wdrażać wszystko, co tylko sobie wymarzą, bez zbędnych kompromisów. Nasze ciągłe inwestycje w Snowpark, wraz z uczeniem maszynowym i możliwościami przesyłania strumieniowego, skracają czas potrzebny do analizy danych, odblokowując nowe sposoby wywierania wpływu na organizacje dzięki zwiększonej elastyczności. – mówi Christian Kleinerman, SVP of Product w Snowflake.
Snowpark zapewnia programistom szersze możliwości programowania, bez kompromisów w zakresie zarządzania i bezpieczeństwa
Snowpark niezmiennie służy użytkownikom jako bezpieczne narzędzie Snowflake do wdrażania i przetwarzania kodu innego niż SQL z różnymi środowiskami wykonawczymi i bibliotekami – poszerzając zakres tego, kto może tworzyć i co jest tworzone w Chmurze Danych. Pozwala to twórcom na bardziej efektywną pracę z danymi w ich językach programowania i wybranych narzędziach, zapewniając jednocześnie organizacjom automatyzację, nadzór i dając gwarancje bezpieczeństwa, których brakuje w starszych środowiskach.
Od czasu uruchomienia w czerwcu 2021 r. Snowpark pomógł inżynierom danych migrować potoki i uruchamiać je szybciej oraz wydajniej, umożliwił specjalistom zajmującym się danymi tworzenie i szkolenie modeli, a także sprawił, że Snowflake stał się zaawansowaną platformą do tworzenia aplikacji.
Snowpark Container Services jeszcze bardziej rozszerza zakres obciążeń, które można przenieść do danych klientów. Zapewnia użytkownikom elastyczność tworzenia w dowolnym języku programowania i wdrażania na szerszej niż do tej pory infrastrukturze, w tym na platformie NVIDIA AI z taką samą łatwością użytkowania, skalowalnością i ujednoliconym zarządzaniem jak w przypadku Chmury Danych Snowflake.
Ponadto usługi Snowpark Container Services mogą być używane jako część Snowflake Native App (wersja public preview AWS), umożliwiając programistom dystrybucję zaawansowanych aplikacji, które działają w całości na koncie Snowflake klienta końcowego. Snowpark Container Services umożliwią również użytkownikom bezpieczne uruchamianie modeli od zewnętrznych dostawców takich jak Reka bezpośrednio na ich koncie Snowflake, eliminując potrzebę ujawniania zastrzeżonych danych.
NVIDIA i Snowflake tworzą transformacyjne, akcelerowane obliczenia i integracje oprogramowania dla Snowpark Container Services. Firmy ogłosiły partnerstwo, którego celem jest udostępnienie zaawansowanych możliwości generatywnej sztucznej inteligencji przedsiębiorstwom na całym świecie.
Współpraca ta wprowadza również NVIDIA AI Enterprise – filar oprogramowania platformy NVIDIA AI – do Snowpark Container Services, wraz z obsługą akcelerowanych obliczeń NVIDIA. NVIDIA AI Enterprise obejmuje ponad 100 frameworków, wstępnie wytrenowane modele i narzędzia programistyczne, w tym PyTorch do szkolenia, NVIDIA RAPIDS do nauki o danych i NVIDIA Triton Inference Server do produkcyjnych wdrożeń AI.
Dane są fundamentem niestandardowych generatywnych aplikacji AI budowanych z myślą o unikalnych wymaganiach biznesowych i brandowych firm działających w różnych branżach. Snowpark Container Services i integracja NVIDIA AI Enterprise zapewniają dostęp do pełnego pakietu struktur NVIDIA AI, gotowych modeli i narzędzi programistycznych w ramach platformy danych używanej przez tysiące firm na całym świecie, aby wspierać najbardziej zaawansowane obciążenia. – mówi Manuvir Das, Vice President, Enterprise Computing w firmie NVIDIA.
Snowflake pomaga ożywić modele uczenia maszynowego, zapewnia lepsze doświadczenia programistów i rozszerza możliwości przesyłania strumieniowego
Aby usprawnić i skalować działania związane z modelami uczenia maszynowego (MLOps), Snowflake wprowadza nową usługę Snowpark Model Registry. To ujednolicone repozytorium modeli ML organizacji. Rejestr umożliwia użytkownikom scentralizowanie publikacji i odkrywania modeli, jeszcze bardziej usprawniając współpracę między danymi pochodzącymi od różnych specjalistów w celu płynnego wdrażania modeli do produkcji.
Snowflake rozwija również integrację Streamlit in Snowflake, umożliwiając naukowcom zajmującym się danymi i deweloperom działającym w języku Python tworzenie aplikacji, które wypełniają lukę między danymi a działaniami biznesowymi. Dzięki Streamlit in Snowflake twórcy mogą używać kodu Python w celu rozwijania swoich aplikacji, przekształcając pomysł w gotową aplikację za pomocą zaledwie kilku wierszy kodu, a następnie szybko wdrażać i udostępniać tę aplikację bezpiecznie w Chmurze Danych.