Technologie ewoluują w bezprecedensowym tempie, a przewidywania dotyczące nadchodzących trendów są zawsze tematem debaty – co jest prawdziwe, co jest szumem informacyjnym, a co falą ekscytacji wokół „kolejnej wielkiej rzeczy”. Postępy w dziedzinie sztucznej inteligencji, zwłaszcza generatywnej sztucznej inteligencji (GenAI), prowadzą do zmiany, która następuje raz na pokolenie. Otwiera to ogromne, nowe możliwości i przekształca branże, sposoby działania i ścieżki kariery.
Przeprowadzone niedawno badanie Cisco AI Readiness Index wykazało, że 95% respondentów już teraz posiada lub opracowuje strategię dotyczącą sztucznej inteligencji, ale tylko 14% jest w pełni gotowych do zintegrowania AI ze swoją działalnością. Co będzie potrzebne, aby organizacje przyjęły i zintegrowały AI? W jaki sposób innowatorzy mogą wykorzystać zmiany, aby pozostać konkurencyjnymi? Gdzie i w jaki sposób innowacje i zaufanie będą się przenikać?
Te spostrzeżenia i pytania są punktem wyjścia do prognozy dotyczącej nadchodzących trendów technologicznych w 2024 roku, którą podzieliła się Liz Centoni, Chief Strategy Officer w Cisco.
1. Generatywna sztuczna inteligencja rozszerzy swoje możliwości na świat biznesu, dzięki opartym na GenAI interfejsom języka naturalnego (NLI), spersonalizowanym dużym modelom językowym (LLM), dostosowanym aplikacjom B2B i kontekstom biznesowym.
Oczekiwania co do interfejsów języka naturalnego (NLI) zasilanych przez GenAI dla nowych produktów pojawiających się na rynku rosną, a ponad połowa z nich będzie miała je domyślnie już do końca 2024 roku. GenAI będzie również wykorzystywana w interakcjach B2B z użytkownikami wymagającymi bardziej kontekstowych, spersonalizowanych i zintegrowanych rozwiązań. GenAI dostarczy interfejsy API, interfejsy i usługi umożliwiające dostęp, analizę i wizualizację danych i spostrzeżeń, stając się wszechobecną technologią w takich obszarach, jak zarządzanie projektami, jakość i testowanie oprogramowania, oceny zgodności i działania rekrutacyjne.
Eksperci Cisco prognozują również, że będziemy świadkami rozwoju wyspecjalizowanych, specyficznych dla wąskich zastosowań modeli AI i przejścia na mniejsze, wyspecjalizowane modele LLM o wyższym poziomie dokładności, trafności, precyzji i zrozumienia niszowego tematu. Na przykład, modele LLaMA-7B – często używane do uzupełniania kodu i few-shottingu, czyli metody polegającej na zasilaniu modeli niewielką liczbą przykładów, w celu jak najszybszego rozpoczęcia jego uczenia się – będą coraz częściej stosowane. Co więcej, multimodalne połączenie różnych typów danych: obrazów, tekstu, mowy i danych numerycznych z algorytmami przetwarzania inteligencji, rozszerzy przypadki użycia w zakresie działań B2B. Zaowocuje to lepszymi wynikami w takich obszarach jak planowanie biznesowe, medycyna czy usługi finansowe.
2. Ruch na rzecz odpowiedzialnego, etycznego wykorzystania sztucznej inteligencji rozpocznie się od jasnych ram zarządzania sztuczną inteligencją, które uszanują prawa człowieka i ustanowią wartości postępowania z AI.
Przyjęcie sztucznej inteligencji to zmiana technologiczna, która pojawia się raz na pokolenie, spotykając się na przecięciu innowacji i zaufania. Jednak aż 76% organizacji nadal nie posiada kompleksowej polityki w zakresie sztucznej inteligencji. Istnieje powszechna zgoda co do tego, że potrzebujemy regulacji/polityki oraz samokontroli i zarządzania, aby złagodzić ryzyka związane z GenAI. Musimy je jednak bardziej zniuansować, na przykład w obszarach takich jak naruszenie praw własności intelektualnej, w których fragmenty istniejących dzieł sztuki oryginalnej są wykorzystywane w celu wygenerowania nowej sztuki cyfrowej. Ten obszar cały czas wymaga regulacji.
Cisco wskazuje również na konieczność zapewnienia konsumentom dostępu do ich danych i kontroli nad nimi w duchu niedawnej unijnej ustawy o danych (EU data act). Wraz z rosnącym znaczeniem systemów sztucznej inteligencji, dostępne dane publiczne wkrótce osiągną pułap, a wysokiej jakości dane językowe zostaną prawdopodobnie wyczerpane jeszcze przed 2026 rokiem. Organizacje muszą przejść na dane prywatne i/lub syntetyczne, co otwiera z kolei możliwości niezamierzonego dostępu i ich wykorzystania.
Organizacje mogą na tym polu zrobić wiele na własną rękę. Liderzy muszą się jednak zobowiązać do przejrzystości i wiarygodności w zakresie rozwoju, użytkowania i raportowania wyników działania systemów sztucznej inteligencji. Na przykład, jeśli chodzi o niezawodność, zajmowanie się fałszywymi treściami i nieoczekiwanymi wynikami powinno być napędzane przez organizacje z kompetencjami oceny ryzyka i odpowiednimi szkoleniami w zakresie LLM w celu zmniejszenia ryzyka zaburzenia wyników.
Eksperci Cisco przewidują, że w 2024 firmy, każdej wielkości i z każdego sektora, formalnie określą to, w jaki sposób odpowiedzialne zarządzanie AI kieruje wewnętrznym rozwojem, zastosowaniem i wykorzystaniem sztucznej inteligencji w ich organizacjach. Dopóki firmy technologiczne nie będą w stanie wiarygodnie wykazać, że są godne zaufania, można spodziewać się, że rządy będą tworzyć więcej polityk bezpieczeństwa związanych z tą technologią.
3. Konsumenci i firmy staną w obliczu zwiększonego ryzyka związanego z dezinformacją, oszustwami i wyłudzeniami generowanymi przez sztuczną inteligencję, co skłoni firmy technologiczne i rządy do współpracy w celu znalezienia rozwiązań na rzecz zwiększenia bezpieczeństwa.
W 2024 r. dezinformacja, oszustwa i nadużycia oparte na sztucznej inteligencji będą nadal stanowić zagrożenie dla firm, ludzi, a nawet przebiegu wyborów i potencjalnych kandydatów biorących w nich udział. W odpowiedzi zobaczymy więcej inwestycji w wykrywanie i ograniczanie ryzyka. Nowe, integracyjne rozwiązania AI będą chronić przed sklonowanymi głosami, deepfake’ami, botami w mediach społecznościowych i kampaniami wywierającymi wpływ na wybrane grupy społeczne. Modele sztucznej inteligencji będą szkolone na dużych zbiorach danych w celu zwiększenia dokładności i skuteczności. Nowe mechanizmy uwierzytelniania i potwierdzania pochodzenia będą promować przejrzystość i odpowiedzialność.
Zgodnie z wytycznymi G7 w sprawie sztucznej inteligencji, dotyczącymi zagrożeń dla wartości demokratycznych, zarządzenia wykonawczego administracji prezydenta Bidena w sprawie bezpiecznej sztucznej inteligencji oraz ustawy UE w sprawie sztucznej inteligencji, będziemy również świadkami ściślejszej współpracy między sektorem prywatnym a rządami i w rezultacie zwiększenia świadomości zagrożeń oraz wdrożenia środków weryfikacji i bezpieczeństwa. Współpraca ta będzie miała na celu również dyscyplinowanie nieuczciwych podmiotów i zapewnienie zgodności z przepisami. Firmy muszą nadać priorytet zaawansowanemu wykrywaniu zagrożeń i ochronie danych, regularnym ocenom podatności, aktualizacjom systemów bezpieczeństwa i dokładnym audytom infrastruktury sieciowej. Dla konsumentów czujność będzie kluczem do ochrony tożsamości, oszczędności i kredytów.
4. Kwantowy postęp, w miarę jak przyszłość kryptografii i sieci będzie nadal nabierać kształtu.
Cisco przewiduje wzrost przyjęcia kryptografii postkwantowej (PQC) – nawet przed jej standaryzacją – jako podejścia opartego na oprogramowaniu, które współpracuje z konwencjonalnymi systemami w celu ochrony danych przed przyszłymi atakami kwantowymi. PQC zostanie przyjęta przez przeglądarki, systemy operacyjne i biblioteki, a innowatorzy będą eksperymentować, integrując ją z protokołami, takimi jak SSL/TLS 1.3, który reguluje klasyczną kryptografię. PQC zacznie również przenikać do przedsiębiorstw, które będą dążyć do zapewnienia bezpieczeństwa danych w świecie post-kwantowym.
Kolejnym trendem będzie rosnące znaczenie sieci kwantowych, które w ciągu 4 lub 5 lat, a być może dłużej, umożliwią komputerom kwantowym komunikację i współpracę w celu uzyskania bardziej skalowalnych rozwiązań kwantowych. Sieci kwantowe do przesyłania informacji będą wykorzystywać zjawiska kwantowe, takie jak splątanie i superpozycja. Kwantowa dystrybucja klucza (QKD) jako alternatywa lub uzupełnienie PQC, w zależności od wymaganego poziomu bezpieczeństwa i wydajności, będzie również wykorzystywać sieci kwantowe. Będą one przedmiotem istotnych i nowych badań oraz inwestycji ze strony rządów i sektora usług finansowych, które mają wysokie wymagania w zakresie bezpieczeństwa i przetwarzania danych.
5. Uwalniając przyszłość personalizacji opartej na sztucznej inteligencji, przedsiębiorstwa wykorzystają moc i potencjał abstrakcji API, czyli możliwości tworzenia interfejsów bez znajomości zasad funkcjonowania całych programów
W nadchodzącym roku firmy będą poszukiwać innowacyjnych sposobów na wykorzystanie ogromnej mocy i korzyści płynących ze sztucznej inteligencji bez złożoności i kosztów budowy własnych platform. Interfejsy programowania aplikacji (API) będą odgrywać kluczową rolę. W coraz większym stopniu zaczną działać jako „warstwa abstrakcji” – płynne mosty integrujące wiele gotowych narzędzi, usług i systemów AI przy niewielkim rozwoju lub konfiguracji infrastruktury. Dzięki dostępowi do szerokiej gamy możliwości AI, za pośrednictwem interfejsów API, zespoły zautomatyzują powtarzalne zadania, uzyskają głębszy wgląd w dane i usprawnią podejmowanie decyzji.
W tym roku rozpocznie się również wyścig w kierunku customizacji technologii opartej na API, w którym organizacje będą mogły wybierać i łączyć interfejsy od różnych dostawców, z łatwością dostosowując rozwiązania AI do unikatowych i nowatorskich wymagań. Elastyczność i skalowalność będą sprzyjać łatwej współpracy z zewnętrznymi ekspertami AI, startupami i instytucjami badawczymi, napędzając wymianę pomysłów i przełomowe postępy. W rzeczywistości te wyselekcjonowane ekosystemy już nabierają kształtów, a w 2024 roku naprawdę się rozkręcą.
6. Sztuczna inteligencja nie ulegnie greenwashingowi – jej rozwój spowoduje jeszcze większe zużycie energii, jednocześnie odblokowując nowe paradygmaty użycia sieci komputerowych
Zrównoważona energia odgrywa kluczową rolę w przeciwdziałaniu zmianom klimatycznym. Wybierając mniejsze modele sztucznej inteligencji, z mniejszą liczbą warstw i filtrów specyficznych dla przypadków ich użycia, firmy zaczną obniżać koszty zużycia energii w porównaniu z systemami ogólnymi. Te systemy są szkolone na mniejszych, bardzo dokładnych zestawach danych i skutecznie wykonują określone zadania. Na przeciwległym biegunie są modele głębokiego uczenia, które wykorzystują ogromne ilości informacji.
Szybko rozwijająca się kategoria energetycznych sieci komputerowych, która łączy w sobie możliwości sieci definiowanych programowo i systemu elektroenergetycznego składającego się z mikrosieci prądu stałego, również przyczyni się do zwiększenia efektywności energetycznej. Stosując sieci komputerowe do zasilania i łącząc je z danymi, komputerowe sieci energetyczne oferują kompleksową widoczność i analizę porównawczą istniejących emisji oraz punkt dostępu do optymalizacji zużycia energii, dystrybucji, transmisji i magazynowania. Komputerowe sieci energetyczne pomogą również organizacjom dokładniej mierzyć zużycie energii i emisje, zautomatyzować wiele funkcji w IT, inteligentnych budynkach i czujnikach IoT oraz odblokować nieefektywną i niewykorzystaną energię. Dzięki wbudowanym funkcjom zarządzania energią, sieć stanie się płaszczyzną kontrolną do pomiaru, monitorowania i zarządzania zużyciem.
7. „Testowanie z przesunięciem w lewo” zaowocuje współpracą, nowoczesnymi platformami konwergentnymi i niewielką pomocą sztucznej inteligencji, aby odkryć nowe doświadczenie programistyczne i pomóc tworzyć lepsze oprogramowanie
Ponieważ organizacje coraz chętniej stosują metodologię „testowania z przesunięciem w lewo”, to znaczy testów oprogramowania i systemów na wcześniejszych etapach ich życia, rozwój oprogramowania zmieni się dzięki nowym narzędziom, podejściu i technologiom. Programiści będą wykorzystywać platformy i współpracę a nawet niewielką pomoc sztucznej inteligencji, w celu scentralizowania zestawów narzędzi i odblokowania nowo odkrytej wydajności, aby móc skupić się na dostarczaniu wyjątkowych doświadczeń cyfrowych. Przykładowo, będą oni korzystać z CNAPP, zarządzania bezpieczeństwem w chmurze (CSPM) i platform ochrony obciążeń w chmurze (CWPP), aby zwalczać rozrastanie się narzędzi, usprawniać przepływy pracy i eliminować obciążenie związane z zarządzaniem rozłącznymi narzędziami.
Niektórzy będą nadal zmagać się z różnymi rozwiązaniami punktowymi, pozostawiając luki w zabezpieczeniach i powodując problemy z łańcuchem dostaw oprogramowania. Innowatorzy będą wykorzystywać sztuczną inteligencję do przyspieszenia dostarczania i obsługi żmudnych zadań, takich jak testowanie pod kątem wad i błędów. W międzyczasie narzędzia do współpracy i asystenci AI staną się zaufanymi towarzyszami, gdy zespoły zajmą się zawiłościami bezpieczeństwa, obserwowalności i infrastruktury. Zespoły będą również wykorzystywać spostrzeżenia oparte na sztucznej inteligencji do poruszania się po zawiłościach komponentów, protokołów i narzędzi. Ludzkie mechanizmy kontroli i równowagi muszą zapewniać, że decyzje oparte na sztucznej inteligencji są sprawiedliwe, bezstronne i zgodne z wartościami etycznymi. Eksperci Cisco uważają, że sztuczna inteligencja powinna wspomagać podejmowanie decyzji przez człowieka, a nie całkowicie go zastępować.
Podsumowanie
Sztuczna inteligencja stała się zarówno katalizatorem zmiany, jak i „płótnem do malowania przyszłości”. Jest już w naszych domach, samochodach, biurach – i w naszych kieszeniach. Podziwiając postęp, jakiego dokonaliśmy w krótkim czasie, musimy również zrównoważyć korzyści i zagrożenia.
Zaufanie między ludźmi a systemami i narzędziami sztucznej inteligencji, z których korzystają, ma fundamentalne znaczenie i nie podlega negocjacjom. Oznacza to zapewnienie jasności co do tego, co sztuczna inteligencja może a czego nie może robić, dzięki nowym ramom przejrzystości danych i odpowiedzialności, wysiłkom na rzecz edukowania ludzi i firm na temat tego, jak może dojść do zakłóceń, nauczaniu umiejętności, które będą potrzebne w nowych zawodach umożliwiających i obsługujących sztuczną inteligencję, oraz nowym sposobom współpracy w najlepszym interesie ludzi.