Czy ChatGPT ogłupia? Nie, ale obnaża nasze lenistwo poznawcze

Czy ChatGPT ogłupia? Nie, ale obnaża nasze lenistwo poznawcze

Dodano: 
Chat GPT,Chat GPT Logo,Open IA,Open IA Logo,Microsoft
Chat GPT,Chat GPT Logo,Open IA,Open IA Logo,Microsoft Źródło: Unsplash
Baruch Jaakov Janowicz W dobie powszechnej automatyzacji coraz więcej codziennych zadań — od pisania maili po przygotowywanie analiz — powierzamy sztucznej inteligencji. Szybkość, efektywność, dostępność 24/7. Jednak czy wraz z tym postępem nie dzieje się coś mniej widocznego, a bardziej niepokojącego — coś z naszym sposobem myślenia?

Badanie przeprowadzone przez Massachusetts Institute of Technology (MIT) — "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" — rzuca światło na to, co naprawdę dzieje się z naszym mózgiem podczas korzystania z narzędzi AI, zwłaszcza w zadaniach twórczych i poznawczych. I nie są to dobre wieści dla tych, którzy wierzą, że technologia zawsze oznacza rozwój.

Eksperyment, który warto potraktować poważnie

MIT przeprowadziło starannie zaprojektowany eksperyment z udziałem 54 uczestników. Zostali oni podzieleni na trzy grupy:

  • grupa korzystająca z ChatGPT (LLM),
  • grupa używająca tradycyjnych wyszukiwarek,
  • grupa „brain-only” — pisząca bez wsparcia narzędzi.

Każdy uczestnik pisał eseje w czterech sesjach. W ostatniej zamieniano im warunki — osoby wcześniej korzystające z AI pisały bez niej, a „brain-only” dostawały dostęp do ChatGPT. Równolegle rejestrowano aktywność mózgową (EEG), analizowano język i strukturę tekstów (NLP), a także zbierano subiektywne odczucia uczestników.

Sztuczna inteligencja, prawdziwy dług poznawczy

Wyniki badania ujawniają istotne różnice:

Aktywność mózgu — osoby piszące bez wsparcia wykazywały najwyższy poziom aktywności neuronalnej. Mózg pracował intensywnie i wielopłaszczyznowo. Użytkownicy AI — najniższy poziom wysiłku poznawczego.

Pamięć i poczucie autorstwa — osoby korzystające z AI miały trudności z cytowaniem własnych treści i rzadziej postrzegały tekst jako „swój”. Spadało zaangażowanie emocjonalne i identyfikacja z tym, co napisali.

Język i struktura — eseje tworzone z AI były bardziej jednorodne, mniej oryginalne, przypominały siebie nawzajem. Co ciekawe, nauczyciele oceniali je niżej pod względem jakości, choć AI-sędziowie przyznawali im wysokie noty za spójność i klarowność.

Efekt długoterminowy — osoby intensywnie korzystające z AI przez kilka miesięcy wykazywały wyraźny spadek zdolności poznawczych, kreatywności i pamięci. Autorzy nazwali to zjawisko "długiem poznawczym" — sytuacją, w której krótkoterminowe ułatwienia prowadzą do długofalowego pogorszenia funkcji umysłowych.

AI jako lustro naszych nawyków

Warto jednak pamiętać, że wszystko zależy od sposobu używania narzędzia. Jeśli jedyne, co czytamy i piszemy, to maile w pracy i odpowiedzi generowane przez ChatGPT, nasz umysł może się rozleniwić. Ale to nie wina technologii — tylko naszego stylu pracy i uczenia się.

W wielu przypadkach AI pobudza myślenie i czytanie, a nie je zastępuje. Dobrze wykorzystane narzędzie skłania do zadawania pytań, sięgania po teksty naukowe, filozoficzne, publicystyczne. Sztuczna inteligencja może być partnerem w eksplorowaniu świata, nie jego substytutem.

Z psychologicznego punktu widzenia — to, co rozwija mózg, to aktywne zaangażowanie i refleksja. Jeśli korzystamy z AI, by pogłębić rozumienie, a nie skrócić drogę, to nie osłabiamy umysłu — wręcz przeciwnie.

W praktyce często warto unikać AI przy działaniach matematycznych, rachunkach, krótkich wiadomościach. Takie decyzje nie wynikają z doktryny, lecz z troski o własną sprawność poznawczą. W obszarze refleksji duchowej czy egzystencjalnej obecność AI bywa rozpraszająca. Tam, gdzie myśl potrzebuje ciszy i obecności, automatyczna odpowiedź nie ma racji bytu.

ChatGPT nie przypomina kalkulatora. Bardziej niż narzędzie, przypomina wymagającego rozmówcę. A to oznacza, że nie powinien przejmować inicjatywy. Istnieje ryzyko, że jego obecność wypchnie wewnętrzny monolog i poczucie autorstwa.

AI nie ogłupia. Ona obnaża. Ujawnia lenistwo, skróty poznawcze, brak nawyku do samodzielnego myślenia. Problemem nie jest technologia — lecz brak refleksji i wewnętrznej motywacji.

Nie narzędzie, lecz sposób użycia

Dla edukatorów, liderów i ludzi zarządzających wiedzą ten wniosek powinien być szczególnie istotny: to nie AI jest zagrożeniem. To sposób, w jaki z niej korzystamy.

Dla osób ciekawych, świadomych i aktywnych intelektualnie — AI może być partnerem, przyspieszaczem, katalizatorem. Dla innych stanie się zewnętrznym umysłem, który z czasem zastąpi wewnętrzny.

Jakie mogą być zasady higienicznego korzystania z AI w pracy i edukacji? Kilka intuicyjnych, ale skutecznych podpowiedzi:

  • Najpierw samodzielny szkic, potem AI jako wsparcie.
  • Nie pytaj AI o coś, co możesz łatwo wydedukować lub sprawdzić samodzielnie.
  • Unikaj AI tam, gdzie ważne są emocje, osobista perspektywa lub duchowość.
  • Korzystaj z AI tak, jak korzystasz z kalkulatora — pomoc przy złożonych operacjach, nie przy prostych dodawaniach.
  • Dbaj o ograniczenie czasu ekspozycji — nadmierna zależność od AI zmienia nie tylko sposób pisania, ale i myślenia.

Co dalej z edukacją i przywództwem poznawczym?

W świecie coraz powszechniejszej automatyzacji, największym wyzwaniem nie jest dostęp do wiedzy — ale zachowanie podmiotowości i zdolności do jej twórczego przetwarzania. Badanie MIT pokazuje, że jeśli tego nie dopilnujemy, narzędzia zaprojektowane do wspierania naszej inteligencji mogą niepostrzeżenie ją osłabić.

Sztuczna inteligencja przychodzi z obietnicą ułatwienia życia. Ale jeśli zdamy się na nią bezrefleksyjnie, nie zauważymy, kiedy przestaniemy zadawać pytania — a zaczniemy tylko klikać „generuj”.

Wtedy pozostanie nam już tylko jedno pytanie: czy to jeszcze nasze myśli, czy już tylko wygodne symulacje?


Polecamy Państwu „DO RZECZY+”
Na naszych stałych Czytelników czekają: wydania tygodnika, miesięcznika, dodatkowe artykuły i nasze programy.

Zapraszamy do wypróbowania w promocji.


Źródło: DoRzeczy.pl
Czytaj także