Podczas swojego największego wydarzenia w Las Vegas Amazon Web Services (AWS) ogłosił szereg innowacji i nowych rozwiązań mających na celu poprawę doświadczenia i możliwości klientów. Amazon Bedrock został rozszerzony o ponad 100 nowych modeli, Amazon Nova stawia AWS w czołówce wyścigu modeli podstawowych, a rozwój Amazon Connect, Amazon SageMaker i Amazon Trainium2 zwiększy możliwości wszystkich klientów biznesowych poszukujących maksymalizacji wykorzystania danych w swojej działalności.
AWS wprowadził ponad 100 nowych modeli i nowe możliwości pracy z danymi do Amazon Bedrock, w pełni zarządzanej usługi do tworzenia i skalowania aplikacji AI. Podczas gdy modele w Amazon Bedrock mogą obsługiwać szeroki zakres zadań, wielu klientów chce włączyć nowe i wyspecjalizowane modele do swoich aplikacji, w celu dostosowania do własnych potrzeb, takie jak analiza dokumentu finansowego lub generowanie nowych białek w branży medycznej. Dzięki Amazon Bedrock Marketplace klienci mogą teraz łatwo znaleźć i wybrać spośród ponad 100 modeli, które można wdrożyć na AWS i uzyskać do nich dostęp za pośrednictwem ujednoliconego środowiska w Amazon Bedrock. Obejmuje to popularne modele, takie jak Mistral NeMo Instruct 2407 od Mistral AI, Technology Innovation Institutes Falcon RW 1B i NVIDIA NIM, a także szeroką gamę specjalistycznych modeli, w tym Writer Palmyra-Fin dla branży finansowej, Upstage Solar Pro do tłumaczenia, Camb.ai text-to-audio MARS6 i EvolutionaryScale ESM3 generative model dla biologii.
Amazon Bedrock pomaga pokonać największe przeszkody, z jakimi borykają się dziś programiści, dzięki czemu klienci mogą w pełni wykorzystać potencjał generatywnej sztucznej inteligencji. Dzięki temu nowemu zestawowi narzędzi umożliwiamy klientom tworzenie bardziej inteligentnych aplikacji AI, które zapewnią większą wartość ich użytkownikom końcowym – powiedział dr Swami Sivasubramanian, wiceprezes ds. sztucznej inteligencji i danych w AWS.
Amazon Nova – nowe modele podstawowe (FM) od Amazona
W swojej misji dostarczania najnowocześniejszych narzędzi AI w rozsądnej cenie dla klientów na całym świecie, Amazon Web Services wprowadził rodzinę modeli podstawowych Amazon Nova. Seria modeli dostosowanych do różnych potrzeb klientów składa się z: Amazon Nova Micro (bardzo szybki model typu tekst-tekst); Amazon Nova Lite, Amazon Nova Pro i Amazon Nova Premier (modele multimodalne, które mogą przetwarzać tekst, obrazy i filmy w celu wygenerowania tekstu). Możliwości nowych modeli wykraczają poza świat generowania tekstu dzięki Amazon Nova Canvas, który generuje obrazy o jakości studyjnej, oraz Amazon Nova Reel, który generuje sześciosekundowe filmy wideo, które wkrótce zostaną wydłużone do dwóch minut.
Wszystkie modele podstawowe Amazon Nova są szybkie, opłacalne i zostały zaprojektowane tak, aby były łatwe w użyciu z systemami i danymi klienta. Amazon Nova Micro, Amazon Nova Lite i Amazon Nova Pro są o co najmniej 75% tańsze niż najlepiej działające modele w swoich klasach w Amazon Bedrock.
Modele podstawowe od AWS obsługują również wysoki poziom personalizacji, co pozwala klientom bezpośrednio wykorzystywać ich dane w celu zwiększenia dokładności działania modelu. Model Amazon Nova uczy się, co jest najważniejsze dla klienta na podstawie jego własnych danych (w tym tekstu, obrazów i filmów), a następnie Amazon Bedrock trenuje prywatny, precyzyjnie dostrojony model, który zapewni dostosowane odpowiedzi.
Amazon Connect z ulepszoną kompleksową obsługą klienta
Nowe funkcje jeszcze bardziej poprawią doświadczenia klientów, umożliwiając bardziej spersonalizowaną, wydajną i proaktywną obsługę klienta. W rezultacie organizacje mogą znacznie poprawić obsługę klientów poprzez szybsze rozwiązywanie problemów i ciągłą optymalizację centrum kontaktowego, jednocześnie obniżając koszty operacyjne.
Organizacje często borykają się z trudnościami w dostarczaniu najlepszego doświadczenia dla klientów z powodu fragmentacji danych w różnych systemach, w tym oddzielnych bazach danych dla zakupów, zgłoszeń do pomocy technicznej i interakcji online. W rezultacie organizacje tracą kluczowe możliwości angażowania klientów w odpowiednich momentach, czy to poprzez szybkie wsparcie, odpowiednie oferty czy proaktywną komunikację. Prowadzi to do spadku zadowolenia i lojalności, ponieważ organizacje nie są w stanie sprostać rosnącym oczekiwaniom klientów, którzy oczekują momentalnych i spersonalizowanych interakcji. Amazon Connect pomaga rozwiązać te problemy, łącząc silosy danych i tworząc ujednolicony widok każdego klienta, który organizacje mogą wykorzystać do proaktywnego zaspokajania potrzeb przed wystąpieniem problemów i prowadzenia kampanii. Teraz generatywne możliwości segmentacji Amazon Connect oparte na sztucznej inteligencji mogą analizować dane w celu dostarczania inteligentnych rekomendacji dotyczących angażowania różnych grup klientów w oparciu zarówno o interakcje w czasie rzeczywistym, jak i historyczne, oferując kompleksowy wgląd w interakcje i preferencje klientów.
Zanurz się głębiej w dane dzięki rozszerzonemu Amazon SageMaker
W czasach stale rosnącej potrzeby analizowania ogromnych ilości danych w większości branż i rosnącego znaczenia analizy big data, AWS ogłosił kolejną generację Amazon SageMaker, ujednolicając możliwości potrzebne klientom do szybkiej analizy SQL, przetwarzania dużych zbiorów danych w skali petabajtów, eksploracji i integracji danych, opracowywania i szkolenia modeli oraz generatywnej sztucznej inteligencji (AI) w jednej zintegrowanej platformie.
Nowe SageMaker Unified Studio ułatwia klientom znajdowanie i uzyskiwanie dostępu do danych z całej organizacji oraz łączy specjalnie zbudowane funkcje analityczne AWS, uczenia maszynowego (ML) i sztucznej inteligencji. Dzięki temu klienci, z pomocą Amazon Q Developer, mogą działać na swoich danych przy użyciu najlepszego narzędzia do pracy we wszystkich typach użycia danych. Nowy SageMaker Lakehouse ujednolica dane w jeziorach danych, hurtowniach danych, operacyjnych bazach danych i aplikacjach korporacyjnych, ułatwiając dostęp do danych i pracę z nimi z poziomu SageMaker Unified Studio i przy użyciu znanych narzędzi AI i ML zgodnych z Apache Iceberg.
Obecnie setki tysięcy klientów korzysta z SageMaker do tworzenia, trenowania i wdrażania modeli uczenia maszynowego. Wielu klientów polega również na kompleksowym zestawie specjalnie opracowanych usług analitycznych AWS, w tym analityki SQL, analizy wyszukiwania, przetwarzania dużych zbiorów danych i analityki strumieniowej. Coraz częściej klienci nie używają tych narzędzi w izolacji – zamiast tego używają kombinacji analityki, uczenia maszynowego i generatywnej sztucznej inteligencji, aby uzyskać wgląd i zapewnić dopasowane doświadczenia dla swoich użytkowników. Klienci ci odniosą korzyści z ujednoliconego środowiska, które łączy znane narzędzia AWS do analityki, ML i generatywnej sztucznej inteligencji, wraz z łatwym dostępem do wszystkich ich danych i możliwością łatwej współpracy nad projektami z innymi członkami ich zespołu lub organizacji.
Ogólna dostępność instancji AWS Trainium2
Instancje Amazon EC2 to wirtualne serwery, które umożliwiają twórcom oprogramowania zmianę rozmiaru mocy obliczeniowej dla praktycznie dowolnego obciążenia. Nowe instancje Amazon EC2 Trn2, zasilane przez procesory AWS Trainium2, są przeznaczone do wysokowydajnego uczenia głębokiego (z ang. Deep Learning, DL) generatywnych modeli sztucznej inteligencji, w tym dużych modeli językowych (LLM) i ukrytych modeli dyfuzyjnych. W rzeczywistości Trn2 jest najbardziej wydajną instancją Amazon EC2 do głębokiego uczenia i generatywnej sztucznej inteligencji, oferując o 30-40% lepszą wydajność cenową niż obecna generacja instancji EC2 opartych na GPU.
W przypadku największych modeli, które wymagają jeszcze większej mocy obliczeniowej, Trn2 UltraServers umożliwiają skalowanie trenowania modeli wykraczających poza pojedynczą instancję Trn2, skracając czas potrzebny na trenowanie i jednocześnie przyspieszając moment wprowadzenia na rynek, a także umożliwiając szybką iterację w celu poprawy dokładności modelu.
Wspólnie z firmą Anthropic, AWS buduje klaster EC2 UltraCluster z serwerami Trn2 UltraServers – nazwany Project Rainier – zawierający setki tysięcy chipów Trainium2 i ponad 5-krotnie większą liczbę eksaflopów wykorzystywanych do trenowania obecnej generacji wiodących modeli sztucznej inteligencji. AWS zaprezentował również Trainium3. Będzie to pierwszy układ AWS wykonany w 3-nanometrowym węźle procesowym, wyznaczający nowy standard wydajności, energooszczędności i gęstości. Oczekuje się, że serwery oparte na Trainium3 będą czterokrotnie bardziej wydajne niż te oparte na Trainium2, umożliwiając jeszcze szybszą iterację podczas tworzenia modeli.