Obecny stan dyskusji na temat AI i sposoby jej użycia świadczą o tym, że traktujemy ją jak twór inteligentny – zdolny postrzegać, pojmować pojęcia, których używa, analizować i wnioskować w sposób charakterystyczny dla człowieka. Tymczasem coś, co usilnie antropomorfizujemy, jest jedynie bardzo skomplikowanym systemem bramek logicznych – algorytmem, który na podstawie ogromnej ilości danych wprowadzonych do systemu generuje najbardziej statystycznie poprawne odpowiedzi. Autorem artykułu jest Kancelaria Prawna Skarbiec.

Zrozumienie mechanizmu „myślenia” algorytmicznego jest istotne nie tylko dlatego, byśmy wiedzieli, jak prawidłowo go używać i jak traktować wygenerowane odpowiedzi, ale również dlatego, żebyśmy mogli być uczestnikami dyskusji o tym, jak regulować, kierunkować i rozwijać technologie oparte na AI, by nam służyły, a nie zagrażały. Stąd pomysł, by podsumować kilka kwestii, które ekspertom mogą wydawać się oczywiste, ale wciąż są dużą nowością dla osób zaczynających swoją przygodę z #ArtificialIntelligence:

1) Duże modele językowe (#LargeLanguageModels), takie jak #Claude, stworzony przez #Anthropic, #GPT4 (Generative Pre-trained Transformer 4) bądź #BARD, najnowszy #chatbot LLM opracowany przez #GoogleAI, nie służą do tego, aby szukać odpowiedzi na pytania odnośnie do nieznanych nam zagadnień ani nie ma też sensu pytać ich o to, co sądzą na taki czy inny temat;

2) Złożone modele językowe, do których zalicza się ChatGPT, nic nie „sądzą” – nie postrzegają, bo nie mają zmysłów, aby odbierać spostrzeżenia z zewnątrz, ani świadomości, żeby postrzeżenia zmysłowe analizować;

3) #LLM nie rozumieją, że język jest symbolicznym nośnikiem treści, a więc nie używają słów do komunikacji, ale zajmują się generowaniem tekstu, tak aby rezultat uzyskał jak najwyższe prawdopodobieństwo akceptacji w toku procesu uczenia maszynowego (#MachineLearning);

4) LLM są więc „kalkulatorami słów”, które używają zaawansowanej statystyki bayesowskiej do zgadnięcia, jakie kolejne wstawić słowo, tak aby rezultat uzyskał akceptację człowieka w toku procesu uczenia nadzorowanego (#SupervisedLearning). Po analizie kilkudziesięciu miliardów kombinacji z istniejących wypowiedzi maszyna jest w stanie bardzo trafnie pastiszować wypowiedzi w dowolnym języku etnicznym, chociaż nic ze swojej własnej wypowiedzi nie rozumie;

5) Elementem „#AIhype”, który wokół nas się dzieje, jest mówienie o tzw. #AIhallicunations – określenie to zawiera błędną antropomorfizację sugerującą, że maszyna co do zasady działa świadomie i prawidłowo, a od czasu do czasu miewa halucynacje. W rzeczywistości „kalkulator” słów, jakim jest duży model językowy, nic nie rozumie ze swoich własnych wypowiedzi, nie wie, że słowa są nośnikami treści, nie umie, co za tym idzie, zweryfikować rzetelności swoich wypowiedzi, a rozwiązuje problem matematyczny z zakresu wyliczania prawdopodobieństwa subiektywnego, jakie kolejne słowo wstawić do zdania, tak aby rezultat został pozytywnie oceniony w toku uczenia #DeepLearning;

6) W związku z powyższym – pytanie ChatGPT o to, co sądzi na jakiś temat, zupełnie nie ma sensu i powoduje używanie tego narzędzia sprzecznie z jego przeznaczeniem. Producenci takich narzędzi to tolerują, bo kolejne zapytania wysyłane w ten sposób karmią rozwój #AI, natomiast odbiorców nie są w stanie doprowadzić to uzyskania wiarygodnych i prawdziwych odpowiedzi;

7) Używając prostego przykładu – jeśli duży model językowy wykarmimy dużą liczbą wypowiedzi o tym, że woda wrze w stu stopniach, to jest bardzo prawdopodobne, że w odpowiedzi na pytanie w ilu stopniach wrze woda, on wróci do nas z elegancką wypowiedzią prawidłowo wskazującą, że przy ciśnieniu 1013 hPa woda wrze w 100 stopni Celsjusza, a nawet zachwyci nas ciekawostkami w stylu, że chcąc zagotować wodę na szczycie Mount Everestu, wystarczy doprowadzić ją do temperatury 68 stopni Celsjusza. Wynika to z faktu, że takie właśnie kombinacje słów spotkały się z akceptacją w toku procesu uczenia maszynowego i są zgodne z tekstami, na których LLM został wykarmiony. W rzeczywistości jednak autor tej wypowiedzi generuje taki tekst bez wiedzy o tym, czym jest woda, co to jest wrzenie i co to jest Mount Everest. Jeśli duży model językowy wykarmimy wypowiedziami o tym, że księżyc jest z sera, to w równie przekonywający sposób wyjaśni nam, że księżyc jest wykonany z Camemberta. On po prostu tego nie wie – tak jak w ogóle nic nie wie i nie rozumie, a zajmuje się tylko generowaniem słów w kombinacjach, co do których występuje wysokie prawdopodobieństwo subiektywne pozytywnej oceny takiej kombinacji słów;

8) ChatGPT nie jest statyczną bazą wiedzy o świecie i nie nadaje się w ogóle do tzw. hard prompting – zadawania mu pytań o sprawy, o których nie mamy wiedzy, z nadzieją, że duży model językowy znajdzie w swoich zasobach odpowiedź i ją nam przedstawi. W odpowiedzi na taki „hard prompt” on wygeneruje nam prawdopodobnie brzmiącą wypowiedź, co do której nasz kalkulator słów nie wie, czy ona ma sens.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments