epoint

Bartosz Baziński, programista, założyciel firmy technologicznej SentiOne, która od 11 lat buduje zaawansowane modele sztucznej inteligencji do monitorowania internetu i automatyzacji obsługi klienta i od początku swego istnienia zainwestowała w nie już 42 mln zł, ocenia komercyjny potencjał ChatGPT.

Największą zaletą modelu ChatGPT jest to, że został zbudowany na kolosalnej, gigantycznej wręcz ilości danych. I właśnie to stoi za jego sukcesem, powoduje, że odpowiedzi bota są takie zgrabne, zbudowane ze zdań złożonych i pięknie opisują abstrakcyjne pojęcia. Po prostu dostał bardzo dużo danych wejściowych do nauki. Dodatkowo ma on bardzo dobrze wymyślony sposób optymalizacji, w którym model językowy wytrenowany na ogromnej ilości danych z wielką liczbą parametrów (kontekst dla każdego słowa ma 2048 wyrazów) i oddzielny model do scoringu odpowiedzi (z wieloma punktami odniesienia), dzięki czemu udało się go zoptymalizować pod kątem przygotowywania odpowiedzi robiących duże wrażenie na odbiorcach.

Niestety, taki generyczny model, ma też swoje wady. Model ChatGPT to tzw. blackbox („czarna skrzynka”), bot typu „pytanie – odpowiedź”. Wygeneruje piękne odpowiedzi, ale zupełnie nie zrozumie, o co został zapytany – nie orientuje się w rzeczywistości, nie osadza informacji kontekście. Gdy internauci pytali ChatGPT „Jaki będzie wynik meczu Chorwacja-Argentyna?”, bot odpowiadał „nie znam wyników hipotetycznego meczu”. Nie jest to już tak zadowalająca odpowiedź, mógłby chociaż zażartować, że zawsze wygrywa najlepszy.

Innym problemem związanym z ChatGPT jest to, że został zbudowany na niezweryfikowanych danych i nie rozumie znaczenia swoich odpowiedzi. W rezultacie może wprowadzać w błąd, dostarczając długich i miłych odpowiedzi, które jednak mogą być mylące, nieprecyzyjne, a nawet zawierające fałszywe informacje. A to już droga do szerzenia dezinformacji – w pięknej formie zdań podrzędnie złożonych z wieloma przymiotnikami. Takich przypadków w świecie botów było już sporo – jak np. bot Tay, zbudowany przez Microsoft na danych z Twittera, który bardzo szybko zaczął rozpowszechniać rasistowskie treści.

SentiOne pracuje obecnie nad podobnym modelem AI, ale opartym na danych domenowych z kluczowych dla nas branż – bankowości, ubezpieczeń, finansów. Nasze zbiory danych budujemy na podstawie monitoringu internetu, analizując miliony opinii i rozmów online, które następnie weryfikujemy i anotujemy, by były zdatne do nauki bota. Dodatkowo do naszego silnika rozumienia języka naturalnego dodajemy też dane od naszych klientów: historyczne zapisy rozmów z call center, scenariusze rozmów biura obsługi klienta, etc. Dzięki temu możemy wykorzystywać te modele do lepszego zrozumienia intencji użytkowników, szybszego budowania botów (ponieważ wymagana jest mniejsza liczba fraz do nauki), automatycznego testowania ich i uczynienia ich zachowań botów bardziej podobnymi do ludzkich.

Patrząc na zasoby SentiOne – zbiory danych i zespół – jestem przekonany, że nikt nie zbuduje lepszego modelu dla języka polskiego niż my. Od początku powstania SentiOne zainwestowaliśmy w rozwój technologii i modeli sztucznej inteligencji ponad 42 mln złotych. Oczywiste jest jednak, że modele na dużą skalę (takie jak GPT) pozwalają poprawić dokładność rozpoznawania intencji, a to popchnie całą branżę do przodu.

ChatGPT może więc być fajną nowinką dla indywidualnych użytkowników, a także pomocą dla twórców treści i marketingowców, bo z łatwością wygeneruje tekst w dowolnej stylistyce (nawet pijanego angielskiego żeglarza). Niestety, z powodu wymienionych wyżej wad, bardzo ciężko mi sobie wyobrazić, jakie zastosowanie miałby znaleźć w biznesie. Aktualnie konwersacyjna sztuczna inteligencja, taka jak ChatGPT, jest używana przede wszystkim w automatyzacji obsługi klientów, gdzie kluczowe jest przechodzenie określonego wieloetapowego, ściśle zdefiniowanego przez firmę procesu, który ma rozwiązać problem klienta. Z takich technologii korzystają m.in. banki, placówki medyczne czy ubezpieczyciele. W takich procesach najważniejsze jest, by bot trzymał się ustalonego schematu i nie udzielał więcej informacji ponad te, o które jest pytany, czyli de facto – by rozumiał pytanie i sam był w stanie je przypisać do odpowiedniej frazy, intencji czy ścieżki dialogowej. Dla wszystkich dużych firm kluczowym elementem wdrożenia chatbota jest pełna kontrola nad przebiegiem procesu i samymi komunikatami. Jest on przecież elementem budowania wizerunku marki, musi być godny zaufania i nie stwarzać ryzyka dla firmy.

Ostatnią wadą ChatGPT jest koszt wytworzenia takiej technologii. Jego twórcy z OpenAI nie podają, ile trwało wytrenowanie tak wielkiego modelu, ani ile zasobów sprzętowych pochłania jego dalsze nauczanie i generowanie odpowiedzi. Z doświadczenia wiem jednak, że wymaga to ogromnej liczby serwerów i mocy obliczeniowej, co stanowi dużą barierę w przypadku wdrożeń komercyjnych. Już poprzedni model GPT-3 z 2020 roku od OpenAI był, jak to określili, extremely expensive – możemy więc zgadywać, że ChatGPT jest jeszcze droższy. Zależnie od metody szacowania, wytrenowanie takiego modelu może kosztować od kilku do kilkudziesięciu milionów dolarów.

Jak więc można przystosować modele takie jak ChatGPT do biznesu?

Tym, czego brakuje ChatGPT, jest dokładna wiedza dziedzinowa. Powinien zostać przeszkolony przy użyciu zbiorów danych z określonej branży, od konkretnych klientów czy firm. Firmy potrzebują spersonalizowanych modeli, przeszkolonych w ich języku, korzystających z ich danych treningowych (np. transkrypcji rozmów z klientami) i bazy wiedzy o katalogach produktów.

Wdrożenia biznesowe modeli AI muszą odzwierciedlać głos marki, być jej godnym zaufania rozszerzeniem. Bez tego ChatGPT będzie tylko nowinką technologiczną, ale bez szansy na skomercjalizowanie na dużą skalę.

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments