Nie ma wątpliwości: AI jest użytecznym narzędziem, które przydaje się w nowoczesnej gospodarce. Zarazem aż 95 proc. planowanych produktów AI to komercyjne niewypały z zerowym zyskiem. Ile więc jest prawdy w opowieściach o „bańce AI”? Analizuje ekonomista dr Tomasz Makarewicz dla OKO.Press
Ostatnio rozgorzała debata o tym, czy obecny rozkwit przemysłu AI to w istocie bańka spekulacyjna. W tym tekście chciałbym wyjaśnić, skąd właściwie ten spór, dlaczego tak trudno go rozstrzygnąć, i dlaczego odpowiedź najpewniej brzmi: „raczej tak”.
AI jako Święty Graal innowacji
Zacznijmy od następującego pytania: skąd tak w ogóle to „szaleństwo” na punkcie AI, czyli Sztucznej Inteligencji (skrót od angielskiego artificial intelligence)? Jeżeli spojrzeć na historię postępu technologicznego, to z ekonomicznego punktu widzenia każda innowacja da się sprowadzić do oszczędności ludzkiej pracy i czasu – i zanim oskarżycie mnie o komunizm, na ten fakt wskazywał już Adam Smith, pisząc o roli specjalizacji pracy.
Weźmy przykład maszyny parowej. Jej wydajność w XIX wieku zaczęto opisywać końmi mechanicznymi właśnie dlatego, że pozwalała zastąpić konie, na przykład jako lokomotywa albo generator ruchu obrotowego dla maszyn przemysłowych. A konie „wynaleziono” (udomowiono i wypracowane techniki opieki i użytku) właśnie po to, żeby jako „zwierzę pociągowe” zastąpiło człowieka, na przykład do przenoszenia ciężkich przedmiotów – jeden człowiek z koniem i wozem może swobodnie przetransportować tyle dóbr, co tuzin piechurów.
Trudno zliczyć wszystkie aspekty życia, jakie ułatwił nam postęp technologiczny. Innowacje wyeliminowały gros ciężkiej pracy fizycznej (babcia kiedyś mi opowiadała, że najszczęśliwszy dzień w życiu przeżyła, kiedy z dziadkiem wreszcie zarobili na pralkę i mogli sprzedać tarkę) i umysłowej (poradzilibyście sobie z księgowością bez komputera, kalkulatora i jakiegokolwiek liczydła?), a rozpowszechnienie się nowoczesnej elektroniki uwolniło nas od wielu nudnych, bezdusznie rutynowych czynności.
Niemniej jednak istnieje jeden typ pracy, którego nie udało się nam do tej pory w ogóle zastąpić: czynności, które wymagają kreatywności, elastyczności i szybkiego osądu. Doskonały przykład to fabryka samochodów Hyundai w Georgii w USA (niedawno stało się o niej głośno, kiedy jej pracowników porwali nadgorliwi oficerowie ICE), gdzie każdą maszynę obsługuje przeciętnie dwoje pracowników, głównie w roli kontroli jakości i „trouble-shooting” (wykrywania usterek i ich usuwania).
Człowiek to maszyna być może mało precyzyjna, fizycznie słaba i delikatna, ale potrafi się szybko uczyć i adaptować do niekonwencjonalnych problemów, takich jak właśnie kontrola jakości. Celem AI od początku było odtworzenie tych umiejętności. I właśnie dlatego od początku traktowano ją jako – przynajmniej potencjalnie – „coś więcej” niż wszystkie dotychczasowe innowacje. Gdyby bowiem udało się stworzyć takie AI, stałaby się dla pracy umysłowej tym, czym u progu rewolucji przemysłowej dla pracy fizycznej (a przez to i dla samej cywilizacji) była maszyna parowa.
AI, czyli stochastyczne echo danych
Czy obecna AI ma rzeczywiście taki potencjał? W debacie publicznej większość jej uczestników zdaje się reprezentować skrajne poglądy – AI jest albo zbawieniem ludzkości, albo największą „ściemą” od czasu tzw. bańki dot-comów. Z drugiej strony, prawdziwi eksperci wydają się znacznie ostrożniejsi z opiniami. Zdarzają się też próby „prawdopośrodkizmu”, jak niedawny artykuł z „The New York Times” o zabawnym tytule „AI to bańka. Może to w porządku”. Żeby to zrozumieć, musimy najpierw wyjaśnić, czym właściwie są obecne modele AI.
Wbrew nazwie, modele AI nie są „inteligentne” w potocznym tego słowa rozumieniu. Nie są także „w duchu” czymś innowacyjnym, ich nowość polega raczej na tym, że dopiero teraz dysponujemy „inżynierią programowania” oraz komputerami (albo raczej: centrami obliczeniowymi), które są w stanie takie modele unieść. Tymczasem w swej najbardziej pierwotnej esencji, AI to prosty model statystyczny.
Weźmy prosty przykład. Na ulicy mija nas przypadkowa osoba. Ile zarabia? Patrząc na samą średnią krajową, powiedzielibyśmy, że niecałe 9000 zł brutto, zapewne z dużym marginesem błędu (plus minus kilka tysięcy). Ale jeśli powiecie mi nieco więcej na temat tej osoby, nasze zgadywanie mogłoby być nieco bardziej precyzyjne, na przykład typowy mężczyzna z wykształceniem średnim zarobi o 43 proc. mniej niż jego znajomy z magisterką. Ten przykład pokazuje mechanizm modelu statystycznego, ale też i jego zastosowanie, czyli obserwując jedno zdarzenie (np. poziom wykształcenia), prognozujemy jakie kolejne najpewniej się zdarzy (np. wysokość zarobków).
Historia stosowania takich modeli statystycznych sięga przynajmniej 1771 roku, kiedy brytyjski matematyk Richard Price w książce pt. „Obserwacje dotyczące płatności zwrotnych” wykorzystał tablice demograficzne do wyceny ubezpieczeń na życie (np. dla żołnierskich wdów). Rozwój cybernetyki pozwolił na rewolucję w stosowaniu statystyki, którą można z grubsza podzielić na trzy etapy.
Po pierwsze, samo pojawienie się komputerów umożliwiło porzucenie tradycyjnej, czasochłonnej metody, opartej o ołówek i liczydło.
Po drugie, upowszechnienie się komputera osobistego pozwoliło statystyce zawędrować „pod strzechy”, dzisiaj na tanim laptopie można w kilka sekund policzyć model, który kiedyś wymagał godzin pracy „przemysłowego” komputera wielkości dużego pokoju.
Na naszych oczach dokonała się wreszcie trzecia faza rewolucji: powstanie i komercjalizacja internetu sprawiły, że firmy i agencje rządowe mają dostęp do olbrzymich baz danych, nieraz z milionami lub miliardami obserwacji.
Z punktu widzenia statystyka to wspaniała wiadomość, bowiem im więcej danych, tym bogatsze mogą stać się modele statystyczne, na przykład uwzględniając większą ilość zmiennych, które potencjalnie wpływają na wyjaśniane zjawisko.
Do tego taka ilość danych pozwala odejść od tzw. modeli strukturalnych. O co w tym chodzi?
W przykładzie z płacą: tradycyjna baza danych opisuje kilka, może kilkanaście tysięcy osób (sam uczyłem się ekonometrii na takich ankietach), dlatego ekonomiści wykorzystują tu jakiś (mniej lub bardziej formalny) model teoretyczny, żeby narzucić danym pewną strukturę. Na przykład w modelu neoklasycznym płaca powinna zależeć od produktywności pracownika (w żargonie ekonomii: ile potrafi „wytworzyć” w ciągu godziny pracy), dlatego do modelu wrzucimy takie zmienne jak doświadczenie lub poziom edukacji, ale już nie kolor włosów.
Problemem tego podejścia jest to, że jakość modelu statystycznego wprost zależy od jakości modelu teoretycznego, oraz od sposobu, w jaki język teorii przekładamy na wybór danych. To oczywiste, że edukacja i doświadczenie są dobrym sygnałem „jakości” pracownika, ale nie uwzględnią wszystkich istotnych cech tej osoby, w szczególności nieobserwowalnych wprost cech charakteru. Istnieje jednak szansa, że gdybyśmy mieli bardzo bogaty zbiór obserwowalnych charakterystyk pracowników, część z nich mogłaby się okazać skorelowana z tymi ważnymi nieobserwowalnymi. Na przykład fryzura nie wpływa bezpośrednio na jakość pracy, ale można sobie wyobrazić, że może być sygnałem np. przebojowości lub niezależności.
Już w latach 50. XX wieku inżynierowie eksperymentowali z metodami statystycznymi, w których nie narzuca się modelowi żadnej struktury, ale pozwala nauczyć się jej samemu, na przykład za pomocą tzw. uczenia przez wzmacnianie (reinforcement learning). Rozwój informatyki i postępy w budowie komputerów doprowadziły wyłonienia się tzw. uczenia maszynowego (machine learning), czyli klasy olbrzymich modeli statystycznych (obecne potrafią mieć miliony parametrów), które trenuje się do rozpoznawania „głębokiej”, nieoczywistej struktury w danych.
To właśnie te modele stały się niezwykle popularne w ubiegłej dekadzie, kiedy firmy działające w e-biznesie zauważyły, że mają dostęp do dosłownie miliardów drobnych „punktów” naszego zachowania (np. kiedy ktoś coś kupuje, ile czasu przygląda się jakieś części strony internetowej albo reklamie produktu itd.). A to pozwala w czasie rzeczywistym spróbować dostosować ofertę do zachowania klienta, np. podtykając mu pod nos produkty, które (być może) chętniej kupi.
Doskonały przykład takiego produktu i nieoczywistych korelacji to nasza konsumpcja w mediach społecznościowych. W trakcie pandemii koronawirusa platformy takie jak Facebook i YouTube „zauważyły”, że ludzie, którzy chłoną skrajnie prawicowy kontent, z dużą szansą „wkręcą się” też w antyszczepionkowe materiały, chociaż parę lat wcześniej sceptycyzm do tzw. Wielkiej Pharmy i do samych szczepionek kojarzył się raczej z bogatymi „hipisami” z lewicowych przedmieść w Kalifornii.
To jest właśnie ten słynny algorytm w mediach społecznościowych, który po cichu przyczynia się do polaryzacji i zamykania się różnych grup społecznych w „bańkach informacyjnych” – nie pokaże lewakowi prawicowych materiałów o „plandemii”, bo lewak takiego materiału nie kliknie.
Obecne modele AI to tak zwane Duże Modele Językowe (LLM od angielskiego Large Learning Models), czyli kolejna ewolucja modeli Uczenia Maszynowego, opartego o rewolucyjny dokument inżynierów z Google z 2017 roku, którzy pokazali, jak takie modele statystyczne zastosować dla danych, które na pierwszy rzut oka nie są liczbami.
Dobry przykład takiej aplikacji to język. Weźmy angielskie słowo tank, które w zależności od kontekstu może znaczyć zarówno „czołg”, jak i „zbiornik” – oparty o AI translator stara się nauczyć, w zależności od charakterystyk tekstu, z którym z tych polskich słów skorelowany jest konkretny przypadek tank-u.
Podsumowując, AI to narzędzie, które stara się zbudować olbrzymi model statystyczny, za pomocą którego znajdzie ukryte, głębokie struktury w wielkim zbiorze danych. Właśnie dlatego czasami mówi się o nich, że są „stochastycznym echem” danych, na których się je tresuje.
AI (nie) jest inteligentna
Współczesne LLMy są naprawdę dobre w swoim podstawowym zadaniu i dlatego potrafią być niezwykle użyteczne. Podam Czytelnikom trzy przykłady:
- Baker, Hassabis i Jumper, laureaci chemicznego Nobla z 2024 roku, wykorzystywali narzędzia AI do badań nad strukturami protein;
- prototypy algorytmów AI wykorzystuje się w medycynie diagnostycznej przynajmniej od lat 80.;
- AI znalazła zastosowanie na polu bitwy w Ukrainie, gdzie tresuje się ją do pilotowania dronów, które przeciwnik bronią elektroniczną odciął od pilotów.
Rozpoznawanie struktur jest niewątpliwie częścią naszej inteligencji i właśnie dlatego narzędzia AI są tak bardzo przydatne.
Problem w tym, że inteligencja to coś więcej i chociaż nie do końca potrafimy ją zdefiniować, eksperci zgadzają się, że AI brakuje podstawowej ludzkiej umiejętności osądu
Dalszą cześć, znajdziecie na stronie OKO.Press, gdzie tekst ukazał się w oryginale.
Teksty takie jak ten powstają dzięki wsparciu naszych patronów. Jeśli nasza misja jest Ci bliska, możesz zostać jednym z nich lub zachęcić do tego znajomych.