"Sztuczna inteligencja" a prawda o człowieku – uwagi z perspektywy filozofii i antropologii realistycznej

Dodano:
AI, zdjęcie ilustracyjne Źródło: Wikimedia Commons / Kroger4 / Creative Commons Attribution 2.0
Dr Artur Górecki | Czy "sztuczna inteligencja" naprawdę jest inteligencją, czy tylko językową metaforą, która zaciera granice między narzędziem a osobą?

Tekst z perspektywy filozofii i antropologii realistycznej pokazuje, dlaczego mylenie symulacji z rozumieniem grozi redukcją człowieka do "systemu", erozją pojęcia prawdy oraz rozmyciem odpowiedzialności za decyzje podejmowane "przez algorytm".

Problem nazwy: dlaczego określenie „sztuczna inteligencja” może wprowadza w błąd

Określenie „sztuczna inteligencja” (dalej: SI) już na poziomie języka budzi poważne zastrzeżenia, zwłaszcza z punktu widzenia filozofii realistycznej. Słowa nie są obojętnymi etykietami: porządkują myślenie, sugerują interpretacje, wyznaczają granice tego, co uznajemy za możliwe i rzeczywiste. Tymczasem w samym wyrażeniu „sztuczna inteligencja” zawarta jest sugestia, że mamy do czynienia z inteligencją w sensie właściwym, tylko „wytworzoną” technicznie. To nazwa retorycznie skuteczna, ale poznawczo ryzykowna, bo łatwo prowadzi do pomyłki kategorialnej: do utożsamienia narzędzia obliczeniowego z podmiotem poznającym. Bardziej adekwatne byłoby mówienie o systemach uczenia maszynowego, modelach statystycznych czy automatyzacji wnioskowania w wąskich dziedzinach, ponieważ oddaje to fakt, że chodzi o techniki przetwarzania danych i generowania wyników, a nie o rozum (łac. ratio) w sensie ludzkim (W filozofii klasycznej, zwłaszcza w arystotelesowsko-tomistycznej tradycji, rozum i intelekt są najczęściej traktowane jako dwie funkcje tej samej władzy umysłowej). Kiedy jednak słowo „inteligencja” zadomowi się w potocznym opisie maszyny, wówczas niepostrzeżenie zmienia się też opis człowieka: skoro komputer „myśli”, to człowiek zaczyna jawić się jako komputer zbudowany z białka. I tu otwiera się pole najbardziej zasadniczych zagrożeń.

Symulacja a rozumienie: o intelekcie jako władzy duszy

Filozofia realistyczna, a wraz z nią realistyczna antropologia, wychodzi z założenia, że poznanie ma odniesienie do rzeczywistości niezależnej od umysłu i języka, a prawda polega na zgodności intelektu z tym, co jest. Jednocześnie realizm utrzymuje, że człowiek jest jednością cielesno-duchową: ma ciało, posługuje się mózgiem i zmysłami, ale nie wyczerpuje się w procesach fizyczno-chemicznych. Intelekt i wola są władzami duszy, a więc nie dają się w pełni sprowadzić do ruchu materii, choć są z ciałem głęboko związane. Na tym tle widać wyraźnie, dlaczego współczesne narracje o SI tak często skręcają w stronę redukcjonizmu. Skoro maszyna potrafi generować zdania, pisać eseje, rozwiązywać testy, a nawet naśladować dialog, rodzi się pokusa, by uznać, że to wystarcza do „posiadania rozumu”. Jednak podobieństwo zewnętrznego zachowania nie jest jeszcze tożsamością natury. Model może wytworzyć wypowiedź przypominającą sąd, ale to nie znaczy, że dokonuje aktu sądzenia w sensie filozoficznym, że „widzi” prawdę, rozumie sens i odnosi go do bytu. W realistycznym ujęciu to zasadnicza różnica: człowiek poznaje nie tylko układy znaków, lecz znaczenia; nie tylko korelacje, lecz racje; nie tylko to, co typowe, lecz także to, co konieczne i ogólne. Potrafi uchwycić istotę rzeczy, formułować pytania o sens i cel, a przede wszystkim odnosić się do prawdy jako do dobra poznania. System obliczeniowy nie czyni tego samego, nawet jeśli skutecznie imituje rezultat na poziomie języka.

Skuteczność bez podmiotowości: ryzyka dla prawdy, odpowiedzialności i relacji

Właśnie dlatego pierwszym zagrożeniem „sztucznej inteligencji” nie jest fantastyczna wizja buntu maszyn, lecz stopniowe przestawienie myślenia o człowieku na tory mechanistyczne. Jeśli w kulturze utrwali się przekonanie, że rozum jest po prostu szczególnie złożonym przetwarzaniem informacji, wówczas człowiek zacznie być postrzegany (jeśli już tak nie jest!), jako „system”, a jego "wnętrze" jako zbędna hipoteza. Godność osoby zacznie się w praktyce mierzyć funkcją: sprawnością, produktywnością, użytecznością, zdolnością adaptacji. Łatwiej wtedy usprawiedliwić instrumentalne traktowanie ludzi w pracy, edukacji czy służbie zdrowia, bo skoro człowiek jest „zasobem”, to wystarczy go dobrze „optymalizować”. Realistyczna antropologia sprzeciwia się temu u podstaw: osoba nie ma wartości dlatego, że działa wydajnie, lecz dlatego, że jest osobą; nie jest środkiem do celu, lecz bytem o wewnętrznej godności zasądzającej się na podobieństwie do Boga.

Drugim zagrożeniem jest erozja pojęcia prawdy. Modele generatywne potrafią tworzyć odpowiedzi spójne, płynne i przekonujące, nierzadko bez realnego oparcia w rzeczywistości. Powstaje nowy rodzaj złudzenia: treść wydaje się prawdziwa, bo brzmi fachowo albo pasuje do oczekiwań, a nie dlatego, że jest zgodna z rzeczywistością. Z perspektywy realizmu to szczególnie groźne, bo przesuwa kulturę od wymogu zgodności z bytem ku kryterium wiarygodności stylistycznej i społecznej akceptacji. Jeśli człowiek przyzwyczai się do tego, że „odpowiedź” zawsze przychodzi szybko, w formie ładnie ułożonego tekstu, będzie coraz rzadziej podejmował trud sprawdzania, rozumowania, dociekania racji. A bez tej pracy intelektu jednostka i społeczeństwo traci coś więcej niż informacje: traci nawyk miłości prawdy i zdolność odróżniania rzeczy od ich perswazyjnych opisów.

Z tym wiąże się trzecie niebezpieczeństwo: rozmycie odpowiedzialności. W realizmie tylko osoba jest podmiotem czynów moralnych, bo tylko osoba działa świadomie i wolnie, a więc może być odpowiedzialna. Narzędzie — nawet najbardziej skomplikowane — nie ma sumienia, intencji ani wolnego wyboru dobra. Tymczasem w praktyce instytucjonalnej pojawia się wygodna formuła: „tak zdecydował algorytm”. Można nią przykryć decyzje o przyjęciu do pracy, o kredycie, o ocenie ucznia, o priorytecie leczenia czy o selekcji treści. W efekcie powstaje sytuacja, w której nikt nie czuje się autorem decyzji, a krzywda staje się „błędem systemu” albo „wynikiem modelu”.

Czwarte zagrożenie dotyczy relacji międzyludzkich. Systemy konwersacyjne potrafią imitować empatię, cierpliwość i zainteresowanie, oferując człowiekowi rozmowę bez ryzyka wstydu czy odrzucenia. To może być pomocne w pewnych zastosowaniach, ale realistyczna antropologia przypomina, że relacja osobowa jest czymś więcej niż wymianą zdań i emocjonalnym „dopasowaniem”. Prawdziwe spotkanie z drugim człowiekiem wymaga uznania jego wolności, nieprzewidywalności, a także przyjęcia zobowiązań: wierności, odpowiedzialności za słowo, gotowości do przebaczenia. Symulacja relacji może dać poczucie bycia wysłuchanym, ale nie daje wspólnoty osób, bo po drugiej stronie nie ma „kogoś”, kto poznaje, chce, wybiera i kocha.

Wreszcie pojawia się pokusa najgłębsza, światopoglądowa: projekt, w którym SI staje się argumentem za posthumanizmem. Skoro rzekomo można wytworzyć inteligencję, to może da się także „przenieść człowieka” do maszyny, unieważnić cielesność, a nawet obiecać jakąś technologiczną nieśmiertelność. Realizm odpowiada tu stanowczo: osoba nie jest zbiorem danych ani programem do skopiowania. Jeśli intelekt jest władzą duszy, to nie jest on czymś, co da się w całości odtworzyć przez skanowanie stanów mózgu i ich replikację w innym nośniku. Ciało nie jest przypadkowym dodatkiem, a dusza nie jest aplikacją.

Dlatego realistyczna krytyka tak zwanej sztucznej inteligencji nie musi być odrzuceniem technologii. Może — i powinna — być wezwaniem do trzeźwości: do nazywania rzeczy po imieniu, do odróżniania symulacji od poznania, narzędzia od osoby, skuteczności od prawdy, automatyzacji od odpowiedzialności. Sama nazwa „sztuczna inteligencja” jest tu pierwszym polem walki o realizm, bo wprowadza sugestię, że maszyna posiada to, co jest właściwe duchowemu wymiarowi człowieka. Tymczasem technika może być bardzo potężna, a jednocześnie pozostać tym, czym jest: wytworem ludzkich rąk, narzędziem do określonych zadań, zależnym od danych, celów i wartości wprowadzonych przez człowieka. Jeżeli zachowamy realistyczną antropologię — przekonanie, że intelekt jest władzą duszy, a nie tylko wynikiem chemii mózgu — wówczas systemy obliczeniowe mogą zostać włączone w porządek rozumny i moralny. Jeśli natomiast pozwolimy, by metafory stały się dogmatem, to największym „zwycięstwem” SI okaże się nie przewyższenie człowieka, lecz przekonanie człowieka, że nie jest niczym więcej niż maszyną.

Dr Artur Górecki – historyk, filozof, publicysta; aktualnie dyrektor Centrum Edukacyjnego Ordo Iuris

Źródło: DoRzeczy.pl
Polecamy
Proszę czekać ...

Proszę czekać ...

Proszę czekać ...

Proszę czekać ...