USA-Chiny: Jak naprawdę wygląda wyścig AI

USA-Chiny: Jak naprawdę wygląda wyścig AI

Dodano: 
Kadr z filmu "SLOP!", reż. Michał "OverJK" Owerczuk
Kadr z filmu "SLOP!", reż. Michał "OverJK" Owerczuk 
TERAZ AZJA Wyścig w sztucznej inteligencji nie rozgrywa się już wyłącznie między firmami technologicznymi. To rywalizacja o produktywność, infrastrukturę, energię, standardy i dostęp do użytkownika. Jak mierzyć liderstwo i dlaczego przewaga USA nie jest przesądzona? Z Michałem Owerczukiem rozmawia Maria Kądzielska-Koper dla DoRzeczy.pl.

Rewolucja przemysłowa czy nowa zimna wojna?

Maria Kądzielska-Koper: Czy wyścig w AI bardziej przypomina zbrojenia czy rewolucję przemysłową?

Michał Owerczuk: To zależy od tego, z jakiej perspektywy patrzymy. Jeśli spojrzymy na to makroekonomicznie, to bliżej temu do rewolucji przemysłowej. AI jest nową energią dla pracy umysłowej, tak jak elektryfikacja była nową energią dla przemysłu. Modele językowe i agenci stają się czymś w rodzaju silnika parowego dla biura, analityki i kreatywności.

Co to realnie zmienia?

Zmienia się produktywność, zmienia się struktura pracy, zmienia się też to, kto może tworzyć i na jaką skalę. W tym sensie mamy do czynienia z transformacją gospodarczą o ogromnym zasięgu.

Jeśli spojrzymy na to z poziomu branży technologicznej i geopolityki?

Wtedy obraz staje się znacznie ostrzejszy. Ja powiedziałbym, że to jest nowa zimna wojna, choć nie do końca wiem, jak bardzo zimna. Może bardziej letnia. Państwa nie rywalizują dziś wyłącznie o lepszy model. Rywalizują o infrastrukturę obliczeniową, o łańcuch dostaw chipów, o dostęp do energii, o kontrolę nad chmurą i o standardy regulacyjne. To jest walka o warstwę podstawową cyfrowej cywilizacji.

Czyli AI jest już obszarem bezpieczeństwa narodowego?

Zdecydowanie tak. Frontier AI jest dziś traktowane jako obszar ryzyka systemowego i bezpieczeństwa narodowego. Mamy kontrolę eksportu, mamy ograniczenia w dostępie do chipów, mamy napięcia wokół danych. To nie jest zwykła konkurencja rynkowa. W mojej branży, w środowisku twórców i ludzi budujących modele, czuć wręcz atmosferę wyścigu. Wyścigu o to, kto pierwszy zbliży się do AGI, kto podbije ten symboliczny pikselowy księżyc, kto jako pierwszy rozszczepi cyfrowy atom.

Najlepszym przykładem był moment, gdy pojawił się DeepSeek?

Tak. Wiele osób mówiło wtedy o bombie nuklearnej zrzuconej na amerykańską giełdę, ale w rzeczywistości był to przede wszystkim szok narracyjny. Rynki nie zareagowały na sam model, tylko na zmianę oczekiwań wobec kosztów i marż. Jeżeli nagle okazuje się, że budowa konkurencyjnego modelu może być tańsza, niż wcześniej zakładano, to podważa to wiarę w trwałą przewagę kilku graczy. To nie była detonacja technologiczna, tylko sygnał, że bariera wejścia może być niższa, niż rynek sądził. Natomiast prawdziwe wąskie gardła wciąż pozostają te same: energia, chipy i infrastruktura.

Podobny efekt widać przy generatywnym wideo?

Zdecydowanie. Kiedy pojawiają się kolejne przełomy w generatywnym wideo, które oferują wysoką rozdzielczość, stabilność temporalną i realistyczną fizykę, znów mamy efekt geopolityczny. Nie chodzi tylko o to, że jedna firma zrobiła lepsze demo. Chodzi o to, że przesuwa się granica tego, co jest możliwe w obrazie syntetycznym. To uderza bezpośrednio w branżę audio-wideo, w VFX, w reklamę, w media. To jest wyścig o stworzenie cyfrowej rzeczywistości, która stanie się nieodróżnialna od tej fizycznej. W tym sensie można powiedzieć, że to jest rywalizacja o to, kto pierwszy zbuduje coś w rodzaju Matrixa. I w mojej ocenie to wcale nie jest przesada. To nie jest tylko wyścig technologiczny. To jest walka o to, kto zdefiniuje architekturę przyszłej gospodarki i kultury oraz walka o dominację, a paradoksalnie jednocześnie największa szansa dla twórców spoza centrów władzy technologicznej.

Kto zwycięży?

Jak mierzyć liderstwo w AI?

Nie da się mierzyć liderstwa w AI jednym wskaźnikiem, bo to jest zbyt wielowarstwowy ekosystem. Najuczciwiej jest oddzielić zdolność technologiczną od realnego wpływu gospodarczego. Pierwszym poziomem oceny to capability frontier, czyli pytanie o to, kto realnie przesuwa granicę możliwości modeli. Tu patrzymy na benchmarki, testy rozumowania, multimodalności, odporności i bezpieczeństwa.

Benchmarki są dziś bardzo ważne. Wystarczają?

One są ważne, bo pokazują potencjał technologiczny. Trzeba jednak pamiętać, że benchmarki można optymalizować pod wynik. Wysoki rezultat w tabeli nie zawsze oznacza realną przewagę systemową. Najlepiej pokazuje to przykład wyścigu OpenAI i Google w obszarze dużych modeli językowych. Wielu specjalistów twierdziło, że Google miał technologię na wyższym poziomie.

A jednak to nie Google zdefiniował ten rynek.

Właśnie. Google wstrzymywał się z premierą, a OpenAI wyszedł do ludzi pierwszy z produktem masowym i stworzył kategorię rynkową. W praktyce to on zdefiniował interfejs, sposób użycia i oczekiwania użytkowników. Liderstwo to nie tylko jakość modelu, to również timing, dystrybucja i odwaga w komercjalizacji. Google miał ogromne zaplecze badawcze, ale i tak musiał gonić.

Co jest drugim poziomem liderstwa?

Dyfuzja, czyli to, jak głęboko AI wnika w realne procesy. Jaki procent pracowników faktycznie korzysta z tych narzędzi. Ile procesów jest zautomatyzowanych end to end. Jak szybko organizacja przechodzi od pilotażu do mierzalnej wartości. Właśnie tu rodzi się prawdziwa przewaga gospodarcza.

A trzeci wymiar?

Siła platformowa. Kto kontroluje kanał dystrybucji. Kto ma chmurę, system operacyjny, pakiet biurowy, ekosystem deweloperski. Integracja bywa ważniejsza niż sam model. Jeżeli AI jest zintegrowane z narzędziami, które już są standardem pracy, to ta integracja staje się większą przewagą niż sam model. Udział w rynku chmury w praktyce przekłada się na udział w rynku AI.

Zostaje jeszcze poziom makroekonomiczny.

I to jest poziom najtrudniejszy, ale ostateczny. Pytanie brzmi: czy rośnie produktywność, czy skraca się czas wprowadzania produktów na rynek, czy zmienia się struktura kosztów w całych sektorach. To pozostaje najtrudniejsze do atrybucji, ale to jedyny realny test liderstwa.

Jaka jest najczęstsza pułapka?

Mylenie liderstwa w benchmarkach z liderstwem w gospodarce. Można mieć świetny model i przegrać, jeśli ktoś inny szybciej zbuduje rynek i nawyk użytkowników. W AI wygrywa nie tylko najlepszy algorytm, ale ten, kto potrafi go zamienić w system, który działa w skali.

USA kontra Chiny: skala czy efektywność?

W przypadku USA ważniejszy jest ekosystem firm czy dostęp do infrastruktury?

To nie jest pytanie „albo-albo”. W przypadku USA te dwa elementy są ze sobą splecione. Mają laboratoria badawcze, mają hyperskalerów, mają kapitał i mają globalne kanały dystrybucji. To daje im ogromną przewagę strukturalną. Nie oznacza to jednak automatycznego zwycięstwa. W wielu obszarach chińskie modele językowe są tylko nieznacznie słabsze od amerykańskich odpowiedników, a w generatywnym wideo widać momentami przewagę jakościową i szybkość iteracji. To jest bardzo istotne, bo w praktyce liczy się nie tylko absolutna jakość modelu, ale relacja jakości do kosztu i tempo optymalizacji.

Na czym polega chińska przewaga?

Chiny prowadzą agresywną optymalizację. Pracują nad centrami danych pod wodą, żeby ograniczyć koszty chłodzenia i zużycie wody. Inwestują w modele i architektury, które potrzebują mniej mocy obliczeniowej do osiągnięcia podobnego efektu. Projektują własne układy i starają się minimalizować zależność od najbardziej zaawansowanych zagranicznych chipów. To jest strategia redukcji kosztu jednostkowego i zwiększania efektywności, a nie tylko pompowania skali.

A jak wygląda sytuacja po stronie USA?

Stany Zjednoczone wydają gigantyczne środki na infrastrukturę i trening kolejnych generacji modeli. To daje im przewagę w surowej mocy obliczeniowej i w globalnym zasięgu usług chmurowych. Ale to ma też swoją cenę. To oznacza potężne spalanie kapitału. Jeżeli okaże się, że podobne efekty można osiągnąć przy znacznie niższym koszcie, to sama skala wydatków przestaje być gwarancją przewagi. Zatem nie powiedziałbym, że USA jednoznacznie wygrywają. Powiedziałbym raczej, że USA mają przewagę infrastrukturalną i finansową, natomiast Chiny pokazują przewagę w optymalizacji i szybkości adaptacji.

Czyli mówimy o dwóch różnych drogach rozwoju?

Tak. Jedna opiera się na maksymalizacji skali, druga na maksymalizacji efektywności. Która okaże się trwalsza, zależy od tego, czy wąskim gardłem przyszłości będzie dostęp do kapitału i energii, czy zdolność do robienia więcej za mniej.

Państwo jako akcelerator i nadzorca

Kiedy mówimy o Chinach, ważniejsze jest tempo wdrożeń i siła rynku czy jednak strategia państwowa?

Warto dodać jeden istotny element, który często jest pomijany w zachodnich analizach. W Chinach sektor technologiczny nie funkcjonuje w pełni autonomicznie wobec państwa. Duże firmy technologiczne operują w systemie, w którym kapitał państwowy, regulacje i nadzór partyjny są realnymi czynnikami strukturalnymi. To nie jest klasyczny model wolnorynkowy. Regulacje wymagają, aby usługi AI odzwierciedlały tak zwane „core socialist values” i nie generowały treści podważających władzę państwową. To oznacza, że modele są projektowane i filtrowane nie tylko pod kątem bezpieczeństwa technicznego, ale również zgodności ideologicznej. Bardzo wymowny był przypadek ByteDance z 2018 roku. Gdy ich aplikacja Neihan Duanzi została zamknięta przez państwowego regulatora, a założyciel Zhang Yiming publicznie przeprosił i zobowiązał się do głębszej współpracy z partią oraz lepszego wdrażania oficjalnej linii politycznej.

Co nam to mówi o chińskim modelu?

Pokazuje, że relacja między firmą a państwem ma tam charakter hierarchiczny, a nie czysto rynkowy. Ma to dwa skutki. Po pierwsze, umożliwia bardzo szybką mobilizację zasobów, gdy państwo uznaje dany obszar za strategiczny. Po drugie, wprowadza jasne granice ideologiczne i regulacyjne, które wpływają na to, jakie modele są rozwijane i jak działają. W przeciwieństwie do systemu amerykańskiego, gdzie presja pochodzi głównie z rynku i inwestorów, w Chinach presja ma również wymiar polityczny. Firmy technologiczne w Chinach działają w środowisku, w którym państwo jest nie tylko regulatorem, ale także strategicznym partnerem i nadzorcą. To daje im stabilność i kierunek, ale jednocześnie ogranicza pełną swobodę działania.

Wojna o interfejs

Mówisz o „wojnie o interfejs”. Dlaczego to jest tak ważne?

To w mojej ocenie najważniejszy, a jednocześnie najmniej zrozumiany front całego wyścigu. Modele są istotne, ale model bez interfejsu jest tylko silnikiem bez kierownicy. Prawdziwa walka toczy się o to, kto stanie się domyślną warstwą kontaktu człowieka z AI. Czat był pierwszym etapem tej wojny. Tak. Był przełomowy, bo uprościł dostęp do zaawansowanego modelu do jednego okna tekstowego. Ale czat w dłuższej perspektywie staje się towarem. Każdy może mieć okno dialogowe. Sam interfejs konwersacyjny nie jest trwałą przewagą. Głos jest kolejnym krokiem, bo jeszcze bardziej obniża barierę wejścia i przybliża AI do naturalnej interakcji. Jednak sam głos również nie wystarczy, jeśli nie ma dostępu do kontekstu i możliwości działania.

Czyli prawdziwa stawka leży gdzie indziej?

Tak. Copilot w aplikacjach to już zupełnie inna liga. Jeżeli AI jest wbudowane w edytor tekstu, arkusz kalkulacyjny, system CRM czy środowisko programistyczne, to przestaje być dodatkiem, a staje się częścią procesu pracy. To jest walka o workflow.

Co się wtedy zmienia z perspektywy użytkownika?

Nie pytamy już modelu o coś abstrakcyjnego. Współtworzymy dokument, kod czy analizę w czasie rzeczywistym. AI staje się elementem codziennej operacyjności. Taki system nie tylko odpowiada, ale wykonuje zadania. Rezerwuje, analizuje, integruje systemy, podejmuje działania w imieniu użytkownika. Okazuje się to jednak ryzykowne. Autonomiczny bot podpięty pod twojego maila, kalendarz i kartę płatniczą działa jak cyfrowy jednoreki bandyta. Może zoptymalizować procesy, zwiększyć przychody, zautomatyzować biznes i obudzić cię z kontem pełnym pieniędzy. Przy złej konfiguracji, błędnych założeniach albo braku nadzoru może równie dobrze wygenerować koszty, naruszyć regulacje, podjąć decyzje prawne lub finansowe, których konsekwencje będą bardzo realne. W skrajnym scenariuszu możesz obudzić się z poważnymi problemami, których nie da się już cofnąć jednym promptem.

O co więc naprawdę toczy się wojna o interfejs?

O kontrolę nad decyzją i odpowiedzialnością. Kto stanie się bramą do twoich danych, finansów i działań operacyjnych, ten zyska ogromną władzę. W tym momencie interfejs przestaje być wygodą, a staje się infrastrukturą zaufania. Wygrywa nie ten, kto ma najbardziej efektowny czat, ale ten, kto potrafi połączyć autonomię z kontrolą, automatyzację z audytem i skalę z bezpieczeństwem.

Kto naprawdę zarabia na AI?

Co mówią o rynku różnice w monetyzacji: subskrypcje, usage-based, enterprise licensing, reklamy?

Pokazują one głębsze różnice filozoficzne między systemami amerykańskim a chińskim.

Jak wygląda model amerykański?

W Stanach Zjednoczonych dominuje podejście platformowe i komercjalizacyjne. Mamy subskrypcje dla użytkowników indywidualnych, modele usage-based dla deweloperów, licencjonowanie enterprise dla korporacji oraz coraz częściej warstwy reklamowe w produktach masowych. To klasyczna kapitalizacja technologii poprzez kontrolę dostępu do modelu i integrację z istniejącymi narzędziami pracy. Closed source daje kontrolę nad marżą, nad bezpieczeństwem i nad skalowaniem usług.

A jak wygląda to w Chinach?

Model jest bardziej złożony. Częściej widzimy open weights albo półotwarte podejście, które pozwala budować ekosystem wokół modelu. Monetyzacja często nie odbywa się bezpośrednio na poziomie samego modelu. Często zarabia się na usługach, integracjach, platformach, sprzęcie albo na danych. W tym kontekście open source nie oznacza altruizmu. To strategia przyciągania deweloperów i przyspieszania adopcji, która później przekłada się na kontrolę warstwy aplikacyjnej.

Gdzie więc leży zasadnicza różnica?

Nie tylko w tym, czy płacimy abonament, czy rozliczamy się za tokeny. Różnica polega na tym, czy model jest produktem samym w sobie, czy raczej infrastrukturą dla całego ekosystemu. Mówiąc prościej, w USA model jest często towarem premium, wokół którego buduje się płatny dostęp. W Chinach model bywa punktem startowym do budowy szerszej sieci usług i integracji.

Która strategia jest lepsza?

Obie mają sens w swoich systemach. Closed source sprzyja koncentracji kapitału i silnej kontroli jakości. Otwarte podejście sprzyja szybkiemu rozpowszechnieniu technologii i optymalizacji przez społeczność. Ostatecznie wygrywa ten model, który lepiej zamieni dostęp do użytkownika na trwały strumień przychodów, a nie ten, który tylko ogłosi bardziej ideologiczną wizję otwartości albo zamknięcia.

Za tydzień zapraszamy na drugą część wywiadu.

Michał "OverJK" Owerczuk – reżyser, twórca AI i producent kreatywny. Założyciel m.in. Enthropy RCE Berlin, iPro.One oraz CIN Labs, partner kreatywny i udziałowiec Popcorn.co, pierwszej na świecie platformy kreatywnej AI. Ambasador i partner technologiczny m.in. Vidu AI, GMI Cloud, Higgsfield czy Topaz Labs. Pomysłodawca i współzałożyciel WARSAW GLITCH International Film & AI Festival oraz polskiej społeczności twórców kreatywnych AI. Jako pierwszy Polak został członkiem Machine Cinema, największej społeczności twórców AI na świecie, a także trzykrotnie zwyciężył GenJam 4h Hackathon – Hilversum Holland, ALL USA Online oraz International Super Bowl Gen Jam.

Michał "OverJK" Owerczuk

Rozmawiała: Maria Kądzielska
Źródło: DoRzeczy.pl
Czytaj także