epoint

Profilowanie kodu natywnego dla chmury jest ważniejsze niż kiedykolwiek, aby pomóc aplikacjom działać z maksymalną wydajnością i poprawić jakość obsługi klienta, jednocześnie oszczędzając czas i zasoby.

Co nowego: Firma Intel ogłosiła udostępnienie oprogramowania Continuous Profiler w wersji open source, co stanowi przykład otwartego podejścia firmy do ekosystemu w celu przyspieszania innowacji i zwiększania produktywności deweloperów. Agent optymalizacji jest aktywnie wykorzystywany przez firmy takie jak ironSource, ShareChat i Snap Inc. do identyfikacji wąskich gardeł produkcji i możliwości. Opracowany przez Intel® Granulate™ i udostępniony społeczności open source, Continuous Profiler to rozwiązanie, które łączy wiele profilerów w jeden widok w postaci wykresu. Ten ujednolicony widok oferuje programistom, inżynierom wydajności i DevOps ciągły i autonomiczny sposób identyfikowania nieefektywności w czasie wykonywania zadań.

Continuous Profiler jest sercem tego, co robimy w Intel Granulate. Pomagając programistom zidentyfikować wąskie gardła w kodzie, firmy mogą łatwiej i skuteczniej optymalizować swoje aplikacje – powiedział Asaf Ezra, dyrektor generalny Intel Granulate.

Dlaczego ma to znaczenie: Określenie, dlaczego jednostki centralne (CPU) są zajęte, jest rutynowym zadaniem analizy wydajności w każdym środowisku testowym i produkcyjnym. Continuous Profiler dostarcza wykres najbardziej obciążających ścieżek kodu.

„Ta wizualizacja natychmiast pokazuje, gdzie procesor jest zużywany, dzięki czemu można znaleźć oszczędności, wyeliminować wąskie gardła, poprawić przepustowość oraz zmniejszyć opóźnienia i spadki wydajności. W dzisiejszym, złożonym środowisku, wykresy mogą odkryć tak wiele korzyści wydajnościowych, że zastosowanie ich wszystkich staje się pracochłonne. Intel Granulate automatyzuje to zadanie, pozwalając firmom zwiększać wydajność teraz i w przyszłości, w której Intel opracuje więcej rozwiązań służącym optymalizacji. powiedział Brendan Gregg, Intel Fellow. 

Jak to działa: Continuous Profiler, będący ewolucją gProfiler, łączy w sobie wiele profilerów próbkujących, tworząc ujednoliconą wizualizację tego, na co procesor poświęca czas. Łatwe w nawigacji wykresy wskazują spadki wydajności, takie jak zbieranie śmieci, zakleszczenia i inne problemy, aby usprawnić płynne wdrożenia.

Wśród swoich unikalnych funkcji, Continuous Profiler umożliwia inżynierom DevOps filtrowanie usług na podstawie nazwy kontenera, nazwy hosta lub obiektu wdrożenia Kubernetes, po prostu wybierając poziom na platformie. Natywne filtry Kubernetes profilują od poziomu wdrożenia do poziomu ‘pod’, bez konieczności wdrażania profilera dla każdego obiektu. Pozwala to zespołom badać zachowanie różnych wdrożeń, węzłów i hostów w różnych regionach i kodach.

Profiler jest kompatybilny z usługami ciągłej optymalizacji Intel Granulate i może zostać wdrożony w całym klastrze w ciągu kilku minut, obsługując szereg języków programowania bez konieczności wprowadzania zmian w kodzie.

Continuous Profiler posiada certyfikat SOC2 i spełnia wysokie standardy bezpieczeństwa firmy Intel, zapewniając niezawodność i zaufanie do jego wdrożenia.

Co dalej: Dzięki prostemu interfejsowi użytkownika (UI) i płynnej integracji, Continuous Profiler doda modyfikacje, aby zaspokoić unikalne potrzeby programistów, odkryć „wąskie gardła” na poziomie środowiska wykonawczego i zwiększyć wydajność aplikacji w celu poprawy komfortu użytkowania.

Wraz z twórcami oprogramowania open source i szerszym ekosystemem, Intel będzie dalej udoskonalać narzędzie i pomagać programistom w tworzeniu szybszych, mocniejszych i bardziej opłacalnych aplikacji.

Intel na KubeCon EU: Na KubeCon EU Intel będzie miał dwa stoiska. Bycie częścią społeczności open source oznacza aktywny wkład, a Intel jest aktywny w ponad 100 otwartych projektach wewnętrznych, wnosząc wkład w ponad 300 projektów open source i należąc do 700 fundacji. Dowiedz się więcej na stoisku Intel Open Ecosystem #H5. Odwiedź stoisko Intel Enterprise Software #J17, aby zobaczyć, jak rozwiązania Intela pomagają firmom wydajniej i pewniej zarządzać, zabezpieczać i skalować obciążenia natywne dla chmury — torując szybszą drogę do sztucznej inteligencji.

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments