epoint

Snowflake ogłosiło na dorocznej konferencji użytkowników Snowflake Summit 2024 innowacje i ulepszenia Snowflake Cortex AI, które odblokowują kolejną falę korporacyjnej sztucznej inteligencji dla klientów dzięki łatwym, wydajnym i zaufanym sposobom tworzenia aplikacji opartych na AI.

Zmiany umożliwiają organizacjom tworzenie chatbotów w ciągu kilku minut, dzięki czemu mogą one komunikować się bezpośrednio z danymi przedsiębiorstwa i szybciej uzyskiwać potrzebne odpowiedzi. Ponadto Snowflake jeszcze bardziej demokratyzuje sposób, w jaki każdy użytkownik może dostosować sztuczną inteligencję do konkretnych przypadków użycia poprzez nowy interaktywny interfejs bez kodu, dostęp do wiodących w branży dużych modeli językowych (LLM) i bezserwerowe dostrajanie.

Snowflake przyspiesza również ścieżkę operacjonalizacji modeli dzięki zintegrowanemu doświadczeniu uczenia maszynowego (ML) za pośrednictwem Snowflake ML, umożliwiając programistom tworzenie, odkrywanie i zarządzanie modelami oraz funkcjami w całym cyklu życia ML. Ujednolicona platforma Snowflake do generatywnej sztucznej inteligencji i uczenia maszynowego pozwala każdemu biznesowi wydobywać większą wartość z danych, jednocześnie zapewniając pełne bezpieczeństwo, zarządzanie i kontrolę w celu dostarczania odpowiedzialnej, zaufanej sztucznej inteligencji na dużą skalę.

Snowflake znajduje się w epicentrum korporacyjnej sztucznej inteligencji, oddając łatwą w użyciu, wydajną i godną zaufania sztuczną inteligencję w ręce każdego użytkownika, aby mógł on rozwiązywać najbardziej złożone wyzwania biznesowe, bez kompromisów w obszarze bezpieczeństwa i zarządzania. Nasze najnowsze osiągnięcia w Snowflake Cortex AI usuwają bariery wejścia, dzięki czemu wszystkie organizacje mogą wykorzystać sztuczną inteligencję do tworzenia potężnych aplikacji AI na dużą skalę i odblokować wyjątkowe zróżnicowanie dzięki danym przedsiębiorstwa w Chmurze Danych AI. – mówi Baris Gultekin, Head of AI w Snowflake. 

Zapewnij całemu przedsiębiorstwu możliwość komunikowania się z danymi dzięki nowym funkcjom czatu

Napędzane przez LLM-y chatboty to efektywny sposób, dzięki któremu każdy użytkownik może zadawać pytania w obszarach obejmujących dane przedsiębiorstwa za pomocą języka naturalnego, odblokowując wgląd w informacje potrzebne organizacjom do podejmowania krytycznych decyzji ze zwiększoną szybkością i wydajnością. Snowflake przedstawia dwie nowe funkcje czatu, Snowflake Cortex Analyst (wkrótce public preview) i Snowflake Cortex Search (wkrótce public preview), umożliwiające użytkownikom tworzenie chatbotów w ciągu kilku minut w oparciu o ich ustrukturyzowane i nieustrukturyzowane dane, bez złożoności operacyjnej.

Cortex Analyst, zbudowany na podstawie modeli Meta Llama 3 i Mistral Large, umożliwia firmom bezpieczne tworzenie aplikacji w oparciu o poddane analizie dane w Snowflake. Ponadto Cortex Search wykorzystuje najnowocześniejszą technologię wyszukiwania i klasyfikacji firmy Neeva (przejętej przez Snowflake w maju 2023 r.) wraz z Snowflake Arctic embed, dzięki czemu użytkownicy mogą tworzyć aplikacje w oparciu o dokumenty i inne zbiory danych tekstowych poprzez wyszukiwanie hybrydowe klasy korporacyjnej – a więc połączenie zarówno wektora, jak i tekstu – jako usługę.

Bezpieczeństwo danych i pełne zarządzanie nimi mają dla Zoom ogromne znaczenie, gdy wykorzystujemy sztuczną inteligencję do analityki korporacyjnej. Polegamy na Chmurze Danych Snowflake, aby wspierać nasze wewnętrzne funkcje biznesowe i rozwijać spostrzeżenia klientów, ponieważ nadal demokratyzujemy sztuczną inteligencję w całej naszej organizacji. Łącząc moc Snowflake Cortex AI i Streamlit, byliśmy w stanie stworzyć aplikacje wykorzystujące wstępnie wytrenowane duże modele językowe w ciągu zaledwie kilku dni. Umożliwiają one naszym zespołom korzystanie ze sztucznej inteligencji w celu szybkiego i łatwego dostępu do pomocnych odpowiedzi. – mówi Awinash Sinha, Corporate CIO w Zoom.

Chociaż firmy zazwyczaj używają pulpitów nawigacyjnych do konsumowania informacji z danych w celu podejmowania strategicznych decyzji, podejście to ma pewne wady, takie jak przeciążenie informacjami, ograniczona elastyczność i czasochłonny development. Co by było, gdyby wewnętrzni użytkownicy funkcjonalni mogli zadawać konkretne pytania bezpośrednio w ramach danych przedsiębiorstwa i otrzymywać wnioski z podstawowymi wizualizacjami? Rdzeniem tej możliwości są wysokiej jakości odpowiedzi na opracowane w języku naturalnym zapytania dotyczące ustrukturyzowanych danych i wykorzystywane w sposób zrównoważony operacyjnie. Właśnie to umożliwia nam Snowlake Cortex Analyst. Najbardziej ekscytuje mnie to, że to dopiero początek – nie możemy się doczekać uwolnienia większej wartości dzięki Snowflake Cortex AI. – mówi Mukesh Dubey, Product Owner Data Platform, CH NA, Bayer. 

Bezpieczeństwo danych jest kluczem do tworzenia aplikacji AI klasy produkcyjnej i doświadczeń czatu, a następnie skalowania ich w przedsiębiorstwach. Dlatego właśnie Snowflake prezentuje Snowflake Cortex Guard (ogólna dostępność wkrótce), który wykorzystuje Llama Guard firmy Meta, oparte na LLM zabezpieczenie wejścia/wyjścia, które filtruje i oznacza szkodliwe treści w danych i zasobach organizacyjnych, takie jak przemoc i nienawiść, samookaleczenie lub działalność przestępcza. Dzięki Cortex Guard Snowflake jeszcze szerzej odblokowuje zaufaną sztuczną inteligencję dla przedsiębiorstw, zapewniając, że dostępne modele są bezpieczne i użyteczne.

Snowflake wzmacnia doświadczenia AI, aby zwiększyć produktywność

Oprócz umożliwienia łatwego tworzenia szytych na miarę rozwiązań w formie czatu Snowflake zapewnia klientom gotowe doświadczenia oparte na sztucznej inteligencji, które są napędzane przez światowej klasy modele Snowflake. Dzięki Document AI (ogólna dostępność wkrótce) użytkownicy mogą łatwo wyodrębniać treści, takie jak kwoty faktur lub warunki umów z dokumentów, korzystając z wiodącego w branży multimodalnego LLM-a Snowflake, Snowflake Arctic-TILT, który przewyższa GPT-4 i uzyskał najwyższy wynik w teście porównawczym DocVQA – standardzie wizualnego odpowiadania na pytania dotyczące dokumentów.

Organizacje, w tym Northern Trust, wykorzystują Document AI do inteligentnego przetwarzania dokumentów na dużą skalę, aby obniżyć koszty operacyjne przy wyższej wydajności. Snowflake rozwija również swojego przełomowego asystenta przetwarzania tekstu na kod SQL, Snowflake Copilot (ogólna dostępność wkrótce), który łączy mocne strony Mistral Large z zastrzeżonym modelem generowania SQL Snowflake, aby przyspieszyć produktywność każdego użytkownika SQL.

Odblokuj rozwój sztucznej inteligencji bez kodowania dzięki nowemu Snowflake AI & ML Studio

Snowflake Cortex AI zapewnia klientom solidny zestaw najnowocześniejszych modeli od wiodących dostawców, w tym Google, Meta, Mistral AI i Reka, a także najwyższej klasy LLM Snowflake Arctic, aby przyspieszyć rozwój sztucznej inteligencji. Snowflake jeszcze bardziej demokratyzuje sposób, w jaki każdy użytkownik może wprowadzić te potężne modele do swoich danych korporacyjnych dzięki nowemu Snowflake AI & ML Studio (private preview), interaktywnemu interfejsowi bez kodu dla zespołów, dzięki czemu mogą one rozpocząć rozwój AI i szybciej produkować własne aplikacje oparte na AI.

Co więcej, użytkownicy mogą łatwo testować i oceniać te modele, aby znaleźć najlepsze i najbardziej opłacalne dopasowanie do konkretnych przypadków użycia, ostatecznie przyspieszając ścieżkę produkcji przy jednoczesnej optymalizacji kosztów operacyjnych.

Aby pomóc organizacjom w dalszym zwiększaniu wydajności LLM-ów i dostarczaniu bardziej spersonalizowanych doświadczeń, Snowflake wprowadza Cortex Fine-Tuning (obecnie public preview) – rozwiązanie dostępne za pośrednictwem AI & ML Studio lub prostej funkcji SQL. Ta bezserwerowa personalizacja jest dostępna dla podzbioru modeli Meta i Mistral AI. Precyzyjnie dostrojone modele można następnie łatwo wykorzystać za pomocą funkcji Cortex AI, z dostępem zarządzanym za pomocą kontroli opartej na rolach.

Usprawnienie zarządzania modelami i funkcjami dzięki ujednoliconemu, zarządzanemu MLOps poprzez Snowflake ML

Po opracowaniu modeli ML i LLM większość organizacji boryka się z ich wykorzystywaniem na zmieniających się zestawach danych. Snowflake ML wprowadza możliwości MLOps do Chmury Danych Snowflake, dzięki czemu zespoły mogą płynnie odkrywać, nadzorować i zarządzać swoimi funkcjami, modelami i metadanymi w całym cyklu życia ML. Te scentralizowane możliwości MLOps integrują się również z resztą platformy Snowflake, w tym Snowflake Notebooks i Snowpark ML, zapewniając przystępne, kompleksowe doświadczenie.

Pakiet możliwości MLOps obejmuje Snowflake Model Registry (teraz ogólnie dostępny), który pozwala użytkownikom zarządzać dostępem i wykorzystaniem wszystkich typów modeli AI, dzięki czemu mogą dostarczać bardziej spersonalizowane rozwiązania i automatyzacje prowadzące do oszczędności. Ponadto Snowflake ogłasza uruchomienie Snowflake Feature Store (teraz public preview), zintegrowanego rozwiązania dla analityków danych i inżynierów ML służącego tworzeniu, przechowywaniu, zarządzaniu i obsłudze spójnych funkcji ML do szkolenia modeli i wnioskowania, a także ML Lineage (private prewiew), dzięki czemu zespoły mogą śledzić wykorzystanie funkcji, zestawów danych i modeli w całym cyklu życia ML.

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments