Baruch Jaakov Janowicz: Znam Pana jako sceptyka szybkiego rozwoju technologii, zwłaszcza w momencie, gdy ten przekracza nasze możliwości kontroli i rozumienia. Ale czy widzi Pan pozytywne strony AI dostępnej dziś na wyciągnięcie ręki — a wkrótce może nawet na ruch gałki ocznej?
Prof. Andrzej Zybertowicz: Tak, oczywiście widzę pozytywne strony AI – np. wygoda, dostępność informacji, czy wsparcie w pracy przy wykonywaniu niektórych typów zadań.
Jednak moje systemowe podejście prowadzi do wniosku, że korzyści z AI są nieproporcjonalnie małe wobec szkód. Skala realnych strat – już poniesionych – oraz duży kaliber przyszłych zagrożeń, tworzą bilans zdecydowanie ujemny. Na szczęście, wraz z coraz większymi możliwościami tzw. Wielkich Modeli Językowych, które zobaczyliśmy w roku 2025, pojawia się więcej pogłębionych dyskusji. Przyszłe – niestety nie wiadomo jak odległe – prawdopodobne poważne zagrożenia, jakie przynieść może dalszy rozwój AI, wywołały pogłębiony namysł, nad tym, co nas, zapewne, czeka. Ponieważ na temat przyszłych przygód ludzkości z AI już można przeczytać sporo poważnych opracowań, chciałbym poświęcić uwagę temu, co już faktycznie się wydarzyło. Ale co, niestety, nie jest jeszcze należycie zdiagnozowane.
Chodzi mi o działanie licznych algorytmów AI z fazy pre-generatywnej, tj. sprzed ery transformerów, czyli LLMów (Large Language Models). Mam na myśli te względnie proste modele AI, np. tzw. silniki rekomendacyjne, stale pracujące w tle mediów społecznościowych (ale też i kanałów streamingowych jak Spotify i Netflix), które rozpoznają nasze upodobania i następnie podpowiadają, jaki kolejny filmik na YT, Facebooku czy TikToku „powinien” nas „zainteresować”. Te modele tzw. „wąskiej” (narrow) AI w ostatnich kilkunastu latach swoje zadanie maksymalnego zwiększenia czasu, jaki użytkownicy spędzają przed ekranem, zrealizowały z nadwyżką. Użytkownicy masę czasu spędzają przed ekranem – grając, postując, lajkując, hejtując, przewijając tik toki czy shorty.
Te dość proste algorytmy AI pomogły rozbudować liczne cyfrowe technologie uzależniające (przykładem jest scrollowanie bez końca), które powodują, że nawet gdy z jakichś powodów „odpinamy się” od ekranu (bo trzeba jechać do szkoły czy pracy), to i tak czujemy nieodparte „swędzenie” w mózgu tak silne, by przy pierwszej okazji sięgnąć po smartfon czy kontynuować grę na kompie.
Ten wymiar efektów algorytmicznego zarządzania obiegiem informacji w mediach społecznościowych, czy nawet w Internecie w ogóle, jest dość dobrze opisany i względnie szeroko uświadamiany. Znacznie gorzej jest ze zrozumieniem konsekwencji spędzania ogromnej ilości ludzkiego czasu przed ekranami. A konsekwencje te okazały się ogromne, wielopoziomowe, trzeba nawet powiedzieć: wszędobylskie, choć w wielu kontekstach niełatwe od precyzyjnego uchwycenia. Postaram się to ująć, przechodząc przez różne poziomy funkcjonowania systemów społecznych.
Najbardziej podstawowy jest może poziom, by tak rzec, fizjologiczny – dokładniej fizjologii pracy mózgu. W ostatnich kilkunastu latach u setek milionów, zapewne dziś już nawet miliardów, ludzi w wyniku kontaktu z niekończącymi się strumieniami atrakcyjnych bodźców (bo przecież, gdyby nie były atrakcyjne, to czy spędzalibyśmy tyle czasu przed ekranami) nastąpiło rozregulowanie w naszych mózgach tzw. układu nagrody, wraz z systemem samokontroli naszych zachowań włącznie. Jednym z efektów tego rozregulowania jest utrata zdolności do wyznaczania sobie i osiągania życiowych celów długofalowych.
Uderza to dość bezpośrednio w filozoficzno-egzystencjalny poziom ludzkiego istnienia – powoduje utratę poczucia sensu życia. To z kolei stało się jednym z czynników podatności na depresję. Nasiliły się dolegliwości wymagające wsparcia psychologicznego bądź psychiatrycznego. Nastąpił znaczny wzrost liczby prób samobójczych, zwłaszcza wśród młodego pokolenia.
Na poziomie psychologicznym intensywna ingerencja technologii cyfrowych w pracę ludzkich umysłów przyniosła:
po pierwsze, spadek naszych kompetencji poznawczych – np. nastąpiło znaczne skrócenie czasu, przez który potrafimy utrzymać koncentrację na trudnym zadaniu. Przyswajanie ogromnej ilości pofragmentaryzowanych, niespójnych, w dużej mierze fałszywych lub bezsensownych informacji w ogóle nie przekłada się na lepsze rozumienie świata, w którym żyjemy. Wprost przeciwnie – przekłada się na wzrost dezorientacji i poczucia zagubienia.
Po drugie, obok osłabienia kompetencji poznawczych nastąpiło obniżenie naszych kompetencji społecznych. Po prostu, spędzając mniej czasu z innymi, nie ćwiczymy empatii i umiejętności komunikacyjnych, w tym zdolności codziennego negocjowania relacji z innymi, co przecież jest niezbędne dla współpracy. Przyniosło to m.in. wzrost narcyzmu, indywidualizmu i nasilenie się poczucia osamotnienia.
Z kolei na poziomie interakcyjno-społecznym mamy rozpad więzi – poczynając od rodzinnych i przyjacielskich, poprzez zawodowe (więcej pracy zdalnej) aż do narodowych. To ostatnie następuje m.in. ze względu na zrywanie międzypokoleniowej transmisji kulturowej przebiegającej w rodzinach, szkołach, wspólnotach sąsiedzkich oraz religijnych. W tym kontekście trzeba mówić o zerwaniu ciągłości pokoleń.
Powyższe z kolei przyczyniło się – na poziomach politycznym i cywilizacyjnym – do nasilonej polaryzacji oraz wzrostu napięć geopolitycznych.
Można powiedzieć, że odwieczna ludzka skłonność do manipulacji zyskała nagle turbodoładowanie – została zautomatyzowana, sprofesjonalizowana i zeskalowana do poziomu przemysłowego, to są właśnie rzeczywiste, empirycznie mierzalne „osiągnięcia” uzyskane dzięki zastosowaniu tych wąskich modeli AI.
Gdyby pokusić się o syntezę tego w jednym zdaniu, to można powiedzieć tak: wraz z rewolucją cyfrową nastąpił wielki wzrost złożoności działania systemów społecznych, któremu nieustannie towarzyszy spadek zdolności rozumienia tego, jak owe systemy działają oraz spadek kompetencji społecznych (np. negocjowania kompromisów) niezbędnych do radzenia sobie z coraz trudniejszymi wyzwaniami politycznymi.
Mówiąc nieco metaforycznie, chciałem przed chwilą pokazać łańcuch przyczynowo-skutkowy od neuronu do geopolityki. Te efekty są potwierdzone w badaniach np. Haidta, Twenge, Przybylskiego oraz w raportach WHO i UNESCO.
Moim zdaniem, żadne z dotychczasowych korzyści uzyskanych z rozwoju AI nie są w stanie zrównoważyć tych już poniesionych szkód. Dodam, że rozmawiamy w styczniu 2026, czyli w momencie, gdy pierwsze raporty z laboratoriów zajmujących się rozwojem AI wskazują, że niektóre modele zaczynają ukrywać się przed testami oceniającymi ich umiejętności i bezpieczeństwo. I to nie jest żart.
Był Pan jedną z pierwszych osób publicznych w Polsce, które ostrzegały przed zagrożeniami nowych technologii — w książkach Samobójstwo Oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat (2015) Cyber kontra real: Cywilizacja w techno-pułapce (2022), AI Eksploracja (2024) i w wielu debatach publicznych. Jakie trzy nawyki pomogłyby dziś każdemu z nas wzmacniać odporność na cyfrowe uzależnienia i rozproszenie uwagi?
Zacznijmy od spraw najprostszych.
Jeden: Chroń poranki i wieczory – Zasada Czystego Umysłu.
Nigdy nie zaczynaj ani nie kończ dnia z ekranem. Pierwsza i ostatnia godzina dnia to czas święty dla Twojej psychiki. Jeśli po przebudzeniu od razu sięgasz po telefon, oddajesz sterowanie swoim nastrojem algorytmowi, zanim jeszcze wstaniesz z łóżka. Kup więc tradycyjny budzik i zostaw telefon w innym pokoju na noc. Odzyskaj kontrolę nad początkiem dnia. To będzie trening umysłu, który nauczy cię, że nie musisz reagować na każdy sygnał.
Dwa: Wyłącz „dzwonki Pawłowa” – Zasada Ciszy.
Wyłącz absolutnie wszystkie powiadomienia, które nie pochodzą od żywych ludzi (SMS/telefon). Żadnych newsów, lajków, promocji. Każde piknięcie to przerwanie Twojej myśli i zastrzyk stresu. Załóż, że telefon jest narzędziem, po które sięgasz Ty, kiedy masz cel, a nie smyczą, która ciągnie Ciebie, kiedy aplikacja chce Twojej uwagi.
Trzy: Człowiek ma zawsze pierwszeństwo – Zasada Obecności.
Gdy z kimś rozmawiasz, telefon nie istnieje. Nawet jeśli rozmowa jest nudna – wytrzymaj to. Poczucie nudy to sygnał, że Twój mózg, przyzwyczajony do cyfrowej stymulacji, domaga się taniej dopaminy. Nie ulegaj temu. Patrz w oczy drugiej osoby, słuchaj jej głosu. To właśnie w tych „nudnych” momentach buduje się prawdziwa więź, której technologia nas pozbawia. Traktuj to jako trening odzyskiwania swojego człowieczeństwa.
Dodam przy okazji, że te metody są stosowane w programach terapeutycznych dla osób z nadmiernym czasem ekranowym, np. w USA i Australii.
Żyjemy w świecie zalanym informacjami, gdzie granica między prawdą a manipulacją stale się zaciera. Jaki „program odporności” dla młodych — w postaci prostych narzędzi i postaw — mógłby stać się fundamentem edukacji w epoce przesytu bodźców?
Odpowiedzią nie jest kolejna aplikacja edukacyjna, ale wizja radykalnego powrotu do rzeczywistości. Uczestniczę w projekcie badawczym „Model powszechnej służby publicznej dla Polski” realizowanym na Akademii Sztuki Wojennej pod kierunkiem dr. Macieja Gurtowskiego. Wypracowujemy koncepcję nowej instytucji, której celem jest budowanie odporności społecznej oraz przeciwdziałanie społecznym i psychologicznym zagrożeniom wynikającym z nadużywania mediów społecznościowych i innych technologii ekranowych. Chodzi o stworzenie takiego „poligonu doświadczalnego rzeczywistości”. Innymi słowy, o zbudowanie instytucjonalnego antidotum na samotność i bezsens, które młodzież zna z autopsji aż za dobrze.
Nasze podejście zakłada wyciągnięcie młodych ludzi z baniek informacyjnych i rzucenie ich na głęboką wodę realnych problemów.
Chodzi o to, by przez specjalnie obmyślone ćwiczenia grupowe pokazać młodym, że życie offline, w świecie analogowym, może być nie tylko zdrowsze i bardziej pożyteczne, ale też bardziej ekscytujące niż ciągłe zanurzenie w świat cyfrowy, czyli bycie online.
Inspirując się doświadczeniami m.in. Włoch i Francji, nasz projekt zakłada, że praca na rzecz innych odgrywa kluczową rolę w procesie kształtowania się młodego człowieka. Powszechna służba publiczna ma stać się nową, społecznościową formą zaangażowania rozwijającą empatię, krytyczne myślenie i docenianie aktywności niezależnych od technologii cyfrowych.
Wyobraźmy sobie miesiąc, w którym nastolatek nie walczy o lajki na TikToku, ale pomaga powodzianom, remontuje świetlicę wiejską albo opiekuje się seniorami w hospicjum. To powinno zadziałać, gdyż praca fizyczna i pomoc drugiemu człowiekowi dają natychmiastową, analogową informację zwrotną, której nie da się sfałszować filtrem na Instagramie. To buduje sprawczość. Służba publiczna ma być „szczepionką” – doświadczeniem, że życie offline jest trudniejsze, ale nieskończenie bardziej satysfakcjonujące i sensowniejsze niż scrollowanie. To nauka empatii przez działanie, a nie przez klikanie. By pokazać konkrety. Proponujemy coś w rodzaju Szkoły fałszywych wiadomości, czyli np.:
* Lekcje „fact-checkingu” – jak sprawdzić źródło, by ujawnić, kto materiał napisał i dlaczego opublikował.
* Gry scenariuszowe w rodzaju: „jak byś zareagował, gdybyś zobaczył wiadomość, że rzymskie Koloseum zostanie przerobione na nowoczesne centrum handlowe?”
Nauka wątpienia to być może najważniejsze narzędzie w epoce postprawdy.
Sztuczna inteligencja przyspiesza rozwój, ale też wzmacnia przewagę koncernów i elit technologicznych. Co zrobić, by dostęp do jej możliwości nie pogłębiał podziałów społecznych, lecz wspierał wspólnotę?
Pierwszym krokiem powinno być krytyczne przemyślenie, a w konsekwencji odrzucenie ideologii techno-entuzjazmu. Przez techno-entuzjazm rozumiem przekonanie, że rozwój technologii jest bezproblematycznym dobrem. Że, np. zamiast mozolnie pracować nad swoim charakterem i współpracować z innymi, wystarczy znaleźć techniczne rozwiązanie problemu. Po co wkładać wysiłek w wychowywanie ludzi do uczciwości, solidarności i lojalności, skoro możemy poddać ich skutecznemu nadzorowi elektronicznemu!
Ale to pułapka. Takie podejście nie likwiduje podziałów, tylko je betonuje: bogaci będą mieli ludzkich nauczycieli i prywatność, a biedni – algorytmicznych nadzorców i boty edukacyjne.
Zauważmy, że wiara w to, iż „technologia rozwiąże wszystko” jest wygodna dla bogatych, bo zwalnia ich z dzielenia się zasobami. Jeśli chcemy, by AI służyła wspólnocie, musimy przestać traktować ją jak „magiczne zaklęcie” zwalniające nas z wysiłku moralnego. Technologia powinna być tylko narzędziem wspierającym ludzkie relacje, a nie ich tanim zamiennikiem dla uboższej części społeczeństwa. Inaczej stworzymy cywilizację dwóch prędkości: panów technologii i ich cyfrowych poddanych.
Coraz częściej mówi się, że algorytmy zamiast poszerzać debatę, zamykają nas w bańkach. Jakie mechanizmy — prawne, instytucjonalne, ale też kulturowe — mogą zapewnić, że wolność słowa przetrwa w epoce sztucznej inteligencji?
Wolność słowa w epoce AI wymaga głębokiej zmiany myślenia o tym, czym jest cenzura. W XX wieku cenzura polegała na tym, że władza wycinała treści. A w XXI wieku cenzura polega na tym, że algorytm zalewa nas potokiem treści tak, że prawda tonie w szumie, zaś to, co niewygodne, nigdy nie trafia do naszego „feedu”. To jest cenzura „przez nadmiar” i cenzura „przez nieistotność”. Aby temu zaradzić, potrzeba działań na co najmniej trzech poziomach.
Po pierwsze, prawo do „algorytmicznej przezroczystości”. Użytkownik powinien odzyskać kontrolę nad własnym oknem na świat. Trzeba wymusić na platformach, by każdy użytkownik miał suwak typu: „chcę widzieć treści, które potwierdzają moje racje” (bańka) albo „chcę widzieć treści, które rzucają mi wyzwanie”. Dziś ten suwak jest ukryty i ustawiony domyślnie na „maksymalne uzależnienie”.
Po drugie, instytucjonalny powrót do „Strażników Bram” (Gatekeepers), ale w nowej formie. Przez lata niektórzy z nas cieszyli się, że Internet zabił tradycyjne mainstreamowe media, zwłaszcza te o ambicjach monopolistycznych. Ale okazało się, że zamiast redaktorów, którzy weryfikowali fakty, dostaliśmy algorytmy, które promują emocje. Potrzebujemy publicznych, niezależnych audytorów algorytmów, którzy będą sprawdzać, czy systemy rekomendacyjne nie promują systemowo kłamstwa i nienawiści tylko dlatego, że to się lepiej klika.
Po trzecie, i chyba najważniejsze – zmiana kulturowa: powrót do „niespiesznej debaty”. Pora zrozumieć, że wolność słowa to nie to samo, co „wolność zasięgu" (freedom of reach). Masz prawo mówić bzdury, ale nie masz prawa, by algorytm wzmacniał te bzdury milion razy w ciągu sekundy. Musimy przestać traktować wiralowość jako miarę prawdy. Jeśli jako społeczeństwo nie nauczymy się cenić nudnej, powolnej prawdy wyżej niż ekscytującego kłamstwa, to żadne prawo nas nie uratuje. AI po prostu zagada nas na śmierć.
Prof. Andrzej Zybertowicz – profesor nauk społecznych, socjolog, publicysta i doradca trzech prezydentów RP. Autor książek o zagrożeniach technologicznych:
• Samobójstwo Oświecenia? (2015)
• Cyber kontra real (2022)
• AI Eksploracja (2024)
Polecamy Państwu „DO RZECZY+”
Na naszych stałych Czytelników czekają: wydania tygodnika, miesięcznika, dodatkowe artykuły i nasze programy.
Zapraszamy do wypróbowania w promocji.
