Liderzy biznesu widzą potencjał w rozwiązaniach generatywnej sztucznej inteligencji, lecz obawiają się o prywatność i bezpieczeństwo danych. Przyznają też, że brakuje spójnych ram nadzoru nad rozwojem tej technologii – wynika z najnowszego badania SAS.

W badaniu „Generative AI Challenges and Potential Unveiled: How to Achieve a Competitive Advantage”, które przeprowadzone zostało na początku tego roku przez Coleman Parkes Research Ltd na zlecenie SAS wzięło udział 1600 decydentów reprezentujących przedsiębiorstwa z całego świata – również z Polski – zajmujących się strategią GenAI lub analityką danych.

Wykazało ono, że obecnie 48 proc. przedsiębiorstw w naszym kraju wykorzystuje generatywną sztuczną inteligencję, a 34 proc. jej użytkowników sięga po nią każdego dnia. Kolejne 46 proc. rodzimych organizacji chce wdrożyć GenAI w najbliższych dwóch latach. Z przedsiębiorstw, które już teraz korzystają z tej technologii, aż 89 proc. wyraziło zamiar zainwestowania w nią w najbliższym roku fiskalnym, z czego 90 proc. ma już na to zabezpieczone środki w budżecie organizacji.

Najczęściej generatywną sztuczną inteligencję w Polsce wykorzystują działy marketingu (47 proc.), sprzedaży (34 proc.) i IT (26 proc.), a planowane są wdrożenia również w obszarach takich jak R&D (60 proc.), produkcja (53 proc.) i finanse (53 proc.).

Warto też zauważyć, że generatywna sztuczna inteligencja przynosi realne korzyści polskim przedsiębiorcom – 100 proc. jej rodzimych użytkowników dostrzega poprawę wydajności przetwarzania dużych zbiorów danych, zmniejszenie kosztów operacyjnych, oszczędność czasu, a także korzyści w zakresie zarządzania ryzykiem i zgodnością.

Niestety Polska nie wypada tak dobrze jeżeli chodzi o wdrażanie polityk dotyczących GenAI. Istnienie strategii określających, w jaki sposób pracownicy mogą, a w jaki nie mogą korzystać z niej w celach biznesowych, zadeklarowało 52 proc. polskich liderów. Co więcej, tylko 6 proc. badanych wskazało, że ich organizacje w pełni spełniają obecne i zapowiedziane regulacje.

Obawy o bezpieczeństwo i prywatność

Jednym z celów badania było również zidentyfikowanie przeszkód, z którymi borykają się organizacje wdrażające generatywną sztuczną inteligencję. Wyniki nie są zaskakujące – dla 72 proc. polskich respondentów badania główną obawą jest zachowanie prywatności danych, a dla 70 proc. – ich bezpieczeństwa. Na podium znalazł się również nadzór (governance), który wskazało 52 proc. ankietowanych. Jednym ze sposobów na zaadresowanie tych obaw są dane syntetyczne – 42 proc. polskich respondentów rozważa ich wykorzystanie, a 8 proc. już to robi. Najpoważniejszym wyzwaniem związanym z implementacją GenAI jest dla rodzimych organizacji przejście od fazy koncepcyjnej do praktycznej (64 proc. odpowiedzi).

Organizacje zdają sobie sprawę, że same duże modele językowe nie rozwiązują wyzwań biznesowych. Generatywna sztuczna inteligencja powinna być traktowana raczej jako idealny czynnik rozwojowy hiperautomatyzacji i przyspieszenia istniejących procesów i systemów, niż nowa zabawka, która pomoże organizacjom zrealizować wszystkie ich biznesowe aspiracje. Opracowywanie progresywnej strategii i inwestowanie w technologię, która oferuje integrację, nadzór i możliwość wyjaśniania dużych modeli językowych to kluczowe kroki, które wszystkie organizacje powinny wykonać, zanim podejmą wiążące decyzje. – powiedziała Marinela Profi, doradca strategiczny ds. AI w SAS.

 

Jak wynika z badania, organizacje borykają się z czterema kluczowymi przeszkodami związanymi z wdrożeniem AI:

  • Zwiększenie zaufania do wykorzystania danych i zgodność regulacyjna. Wiarygodne systemy oceny tendencyjności i ryzyka związanego z prywatnością w dużych modelach językowych wciąż należą do rzadkości. Przeważająca część firm nie posiada kompleksowych ram nadzoru nad generatywną sztuczną inteligencją, a większość z nich jest narażona na ryzyko niezgodności z przepisami.
  • Integracja GenAI z istniejącymi systemami i procesami. Organizacje przyznają, że doświadczają problemów z kompatybilnością, próbując połączyć narzędzia GenAI ze swoimi obecnymi systemami.
  • Niedobór talentów i luka kompetencyjna. Działy HR mierzą się z brakiem odpowiednich kandydatów do pracy, w związku z czym liderzy organizacji obawiają się, że niedobór kompetencji uniemożliwi pełne wykorzystanie potencjału inwestycji w generatywną sztuczną inteligencję.
  • Przewidywanie kosztów. Liderzy martwią się wysokimi kosztami bezpośrednimi i pośrednimi związanymi z wykorzystaniem dużych modeli językowych. Ich twórcy zapewniają symboliczne oszacowanie kosztów (z czego organizacje obecnie zdają sobie sprawę). Jednak proces budowania wewnętrznego know-how, szkoleń i zarządzania metodą ModelOps jest długi, złożony i kosztowny.

Wszystko sprowadza się do zidentyfikowania rzeczywistych przypadków użycia, które zapewniają najwyższą wartość i odpowiadają na ludzkie potrzeby w zrównoważony i skalowalny sposób. Poprzez to badanie kontynuujemy nasze zaangażowanie w pomoc organizacjom w utrzymaniu ich znaczenia na rynku, mądrym inwestowaniu i zachowaniu odporności. W erze, w której technologia AI ewoluuje niemal codziennie, przewaga konkurencyjna w dużym stopniu zależy od zdolności do opanowania zasad odporności. –  powiedziała Marinela Profi.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments