Hewlett Packard Enterprise (HPE) i NVIDIA zaprezentowały NVIDIA AI Computing by HPE – portfolio wspólnie opracowanych rozwiązań AI pozwalających przedsiębiorstwom na szybsze wdrażanie generatywnej sztucznej inteligencji.

Wśród kluczowych komponentów znajduje się HPE Private Cloud AI, pierwsze tego rodzaju rozwiązanie, które zapewnia integrację rozwiązań AI, sieciowych i software’owych firmy NVIDIA z pamięcią masową, rozwiązaniami obliczeniowymi i chmurowymi HPE GreenLake.

Od teraz, firmy dowolnej wielkości mogą wejść na energooszczędną, szybką i elastyczną ścieżkę zrównoważonego opracowywania i wdrażania zastosowań generatywnej AI. HPE Private Cloud AI wykorzystuje kopilota AI OpsRamp pomagającego zwiększyć efektywność działań operacyjnych IT. Zawiera samoobsługowe rozwiązanie chmurowe z zarządzaniem pełnym cyklem życia i jest dostępne w czterech konfiguracjach o różnej skali, dzięki czemu jest odpowiednie dla szerokiego zakresu zadań i przypadków użycia z wykorzystaniem AI.

Wszystkie produkty i usługi wchodzące w skład NVIDIA AI Computing by HPE zostaną wprowadzone na rynek w ramach wspólnej strategii, która obejmuje zespoły sprzedażowe i partnerów handlowych, szkolenia oraz globalną sieć integratorów systemów — w tym Deloitte, HCLTech, Infosys, TCS i Wipro — co pomoże przedsiębiorstwom z różnych branż w realizacji złożonych zadań z wykorzystaniem sztucznej inteligencji.

Nowe rozwiązanie zostało ogłoszone podczas wydarzenia HPE Discover przez CEO HPE Antonio Neriego oraz założyciela i CEO firmy NVIDIA, Jensena Huanga. NVIDIA AI Computing by HPE to wynik poszerzonego, wieloletniego partnerstwa i zaangażowania obu firm.

Generatywna AI ma ogromny potencjał, by przyspieszyć transformację biznesu. Jednak poziom skomplikowania obecnych technologii AI wiąże się ze zbyt wieloma ryzykami i barierami, które spowalniają ich powszechną adopcję w przedsiębiorstwach i mogą zagrozić najcenniejszemu majątkowi firmy, jakim są jej dane. Aby uwolnić ogromny potencjał generatywnej AI, HPE i NVIDIA wspólnie opracowały chmurę prywatną pod kątem sztucznej inteligencji, umożliwiając firmom skoncentrowanie się na opracowywaniu nowych przypadków użycia AI na rzecz zwiększenia produktywności i wykorzystania nowych strumieni przychodów. – powiedział Antonio Neri, CEO HPE.

Generatywna sztuczna inteligencja i szybsze obliczenia umożliwiają kompleksową transformację, ponieważ do rewolucji dołączają wszystkie branże. NVIDIA i HPE jeszcze nigdy tak głęboko nie zintegrowały swoich technologii. Dziś, łącząc cały stos obliczeniowy NVIDIA AI z technologią chmury prywatnej HPE, jesteśmy w stanie wyposażyć klientów korporacyjnych i specjalistów zajmujących się AI w najbardziej zaawansowaną infrastrukturę obliczeniową i usługi pozwalające poszerzyć granice zastosowań sztucznej inteligencji. – powiedział Jensen Huang, założyciel i CEO firmy NVIDIA.

Wspólna oferta Private Cloud AI od HPE i NVIDIA

HPE Private Cloud AI to unikalne, oparte na chmurze rozwiązanie przyspieszające wprowadzanie innowacji i pozwalające szybciej uzyskać zwrot z inwestycji przy jednoczesnym zarządzaniu ryzykiem przedsiębiorstwa wynikającym ze stosowania sztucznej inteligencji. Rozwiązanie obejmuje takie elementy, jak:

  • Obsługa wnioskowania, dostrajania i obciążeń RAG AI, które wykorzystują poufne dane.
  • Kontrola w zakresie prywatności danych, bezpieczeństwa, przejrzystości i governance.
  • Chmura z funkcjami ITOps i AIOps w celu zwiększenia produktywności.
  • Szybka ścieżka do elastycznego użytkowania, pozwalająca przygotować się na przyszły rozwój sztucznej inteligencji i związanych z nią możliwości.

Wyselekcjonowany stos oprogramowania do AI i danych w HPE Private Cloud AI

Podstawą proponowanego stosu oprogramowania do AI i danych jest platforma software’owa NVIDIA AI Enterprise, która zawiera również mikrousługi wnioskowania NVIDIA NIM™.

Platforma software’owa NVIDIA AI Enterprise przyspiesza analizę danych i usprawnia opracowywanie i wdrażanie do produkcji co-pilotów oraz innych zastosowań GenAI. NVIDIA NIM dostarcza łatwe w użyciu mikrousługi optymalizujące wydajność wnioskowania i zapewniające płynne przejście od prototypu do wdrożenia produkcyjnego modeli AI do różnych zastosowań.

Oprogramowanie HPE AI Essential stanowi uzupełnienie dla NVIDIA AI Enterprise i NVIDIA

NIM. Jest to gotowy do użycia zestaw wyselekcjonowanych narzędzi do AI i danych, które zapewniają elastyczne rozwiązania, ciągłe wsparcie i usługi takie jak np. compliance dla danych i modeli czy funkcje zapewniające zgodność, przejrzystość i powtarzalność w całym cyklu życia AI.

Aby zapewnić optymalną wydajność oprogramowania do AI i danych, HPE Private Cloud AI zapewnia w pełni zintegrowany stos infrastruktury dla AI, w tym rozwiązanie sieciowe NVIDIA Spectrum-X™ Ethernet, HPE GreenLake for File Storage i serwery HPE ProLiant z wsparciem dla platform NVIDIA L40S, NVIDIA H100 NVL Tensor Core i GH200 NVL2.

Doświadczenie chmurowe bazujące na HPE GreenLake

HPE Private Cloud AI to samoobsługowe doświadczenie chmurowe bazujące na HPE GreenLake. Dzięki pojedynczej, bazującej na platformie płaszczyźnie sterowania, usługi w chmurze HPE Greenlake zapewniają zarządzalność i obserwowalność pozwalające na automatyzację, orkiestrację i zarządzanie punktami końcowymi, obciążeniami roboczymi i danymi w środowiskach hybrydowych. Obejmują one m.in. wskaźniki zrównoważonego rozwoju dla obciążeń roboczych i punktów końcowych.

Wgląd w chmurę HPE GreenLake i OpsRamp AI dzięki asystentowi co-pilota

Działanie OpsRamp AI jest zintegrowane z chmurą HPE GreenLake, aby zapewnić obserwowalność i AIOps dla wszystkich produktów i usług HPE. OpsRamp zapewnia teraz obserwowalność dla całego stosu obliczeniowego NVIDIA, w tym dla oprogramowania NVIDIA NIM i AI, procesorów graficznych NVIDIA Tensor Core i klastrów AI, a także dla przełączników NVIDIA Quantum InfiniBand i NVIDIA Spectrum Ethernet. Administratorzy IT uzyskują wyniki analiz pozwalające na identyfikację anomalii i monitorowanie infrastruktury i obciążeń opartych na AI w hybrydowych środowiskach wielochmurowych.

Nowy co-pilot OpsRamp wykorzystuje platformę obliczeniową NVIDIA do interpretacji dużych zestawów danych, której wyniki są prezentowane przez asystenta konwersacyjnego pozwalającego na zwiększenie efektywności zarządzania operacyjnego. OpsRamp będzie również zintegrowany z interfejsami API CrowdStrike, udostępniając jednolity widok mapy usług bezpieczeństwa punktów końcowych w całej swojej infrastrukturze i aplikacjach.

Szybsze generowanie wartości dzięki sztucznej inteligencji – rozszerzona współpraca z globalnymi integratorami systemów

Aby skrócić czas zwrotu z inwestycji w firmach opracowujących rozwiązania i zastosowania AI dla poszczególnych branż, firmy Deloitte, HCLTech, Infosys, TCS i WIPRO ogłosiły wsparcie dla NVIDIA AI Computing by HPE i HPE Private Cloud AI w ramach swoich strategicznych rozwiązań i usług dla AI.

HPE dodaje obsługę najnowszych GPU, CPU i superchipów firmy NVIDIA

  • HPE Cray XD670 obsługuje osiem procesorów graficznych NVIDIA H200 NVL Tensor Core i jest idealny dla twórców LLM.
  • Serwer HPE ProLiant DL384 Gen12 z NVIDIA GH200 NVL2 jest idealny dla użytkowników LLM korzystających z dużych modeli i RAG.
  • Serwer HPE ProLiant DL380a Gen12 obsługuje do ośmiu procesorów graficznych NVIDIA H200 NVL Tensor Core i jest idealny dla użytkowników LLM potrzebujących elastycznej skalowalności swoich obciążeń roboczych GenAI.
  • HPE będzie wspierać NVIDIA GB200 NVL72 / NVL2, a także nowe architektury NVIDIA Blackwell, NVIDIA Rubin i NVIDIA Vera.

Pamięć masowa o dużej gęstości certyfikowana dla systemów NVIDIA DGX BasePOD i NVIDIA OVX

HPE GreenLake for File Storage uzyskał certyfikację NVIDIA DGX BasePOD i walidację pamięci masowej NVIDIA OVX™, a więc stanowi sprawdzone rozwiązanie do przechowywania plików, które pozwala szybciej przetwarzać duże zadania związane z AI, GenAI i obciążeniami wykorzystującymi procesory graficzne. HPE wprowadza to rozwiązanie równocześnie z zapowiedzianymi programami certyfikacji pamięci masowej dla architektury referencyjnej.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments