Tylko na DoRzeczy.plCzy algorytmy zagrabiły demokrację?

Czy algorytmy zagrabiły demokrację?

Zdjęcie ilustracyjne
Zdjęcie ilustracyjne / Źródło: Pixabay / Domena Publiczna
Dodano 24
OLGIERD SROCZYŃSKI | Paradoksalne w twierdzeniach lewicowców o zawłaszczaniu demokracji przez big data jest to, że milcząco zakładają one poprawność stereotypów.

Temat analityki big data, algorytmów uczących się i sztucznej inteligencji jest ostatnio bardzo gorący. Zresztą jako motyw przechodzący z fantastyki naukowej do rzeczywistości ma wszelkie podstawy, żeby rozgrzewać publiczną debatę. Czy ludzie słusznie obawiają się powstania Skynetu i buntu maszyn – na to pytanie wciąż nie mamy satysfakcjonującej odpowiedzi, jak na każde pytanie dotyczące przyszłości. Niemniej to, co wiemy obecnie o maszynach uczących się i ich wpływie na rzeczywistość, rodzi podobne emocje.

"The Guardian" odgrzewa dość wiekowy już temat wpływu algorytmów na demokrację, tym razem lokalizując "problem" w Polsce. Temat jest wiekowy, gdyż dokładnie ten sam zarzut, pod adresem tej samej firmy – Cambridge Analytica – był wysuwany w kontekście wyników wyborów prezydenckich w USA oraz Brexitu w 2016 roku. Chodzi mianowicie o to, że dzięki danym gromadzonym przez Facebook, możliwe stało się dokładniejsze profilowanie potencjalnych wyborców i skuteczniejsze docieranie do nich z konkretnymi informacjami.

Właśnie tak – profilowanie dokładniejsze i skuteczniejsze. Lewica zatem nie neguje w żaden sposób poprawności analityki, którą możemy prowadzić na wielkich zbiorach danych. Ta zaś polega na automatycznym wyszukiwaniu korelacji pomiędzy zdarzeniami z pozoru niepowiązanymi, których "żywy" analityk nie szukałby z powodu braku czasu, natomiast odpowiednio skonstruowany algorytm jest w stanie wykryć w czasie rzeczywistym.

Weźmy prosty przykład: jeżeli dysponujemy grupą osób, które obserwują na Facebook pewnego polityka, to możemy dostrzec, że duża część z nich obserwuje również innego polityka tej samej partii lub publicystę o podobnej orientacji ideologicznej. Jest to dość oczywiste. Niemniej platformy takie, jak Facebook czy Google, zbierają informacje nie tylko na temat jednej kategorii zainteresowań: przekazujemy im informacje na temat oglądanych filmów, odwiedzanych miejsc, słuchanej muzyki, czytanych książek, a nawet przebytych chorób. Każda aktywność – nie tylko "lubienie" czegoś, ale także wyszukiwanie czy oglądanie – zostawia po sobie cyfrowy ślad. Wziąwszy pod uwagę, jaki czas przeciętny użytkownik internetu spędza online, żaden człowiek na świecie nie będzie w stanie wgłębić się w czytanie naszej cyfrowej historii. Jeżeli jednak oddamy to zadanie odpowiednio skonstruowanemu algorytmowi, to będzie on w stanie te informacje uporządkować i skatalogować, a następnie zrobić ich użytek – i to w ciągu ułamków sekundy.

Dzięki takiemu profilowaniu treści marketingowe, które wyświetlają się nam na portalach społecznościowych czy w sieciach reklamowych, są coraz lepiej dopasowane do naszych prawdopodobnych wyborów. Oczywiście nie wszystkie treści targetowane są aż tak wyrafinowane – jeżeli robiliśmy zakup w sklepie z butami, to Facebook wyświetli nam reklamę tego sklepu na podstawie pliku cookie, który pobraliśmy przy wizycie. Może się jednak okazać, że reklamodawca wyświetla nam reklamę środka na problemy z prostatą, tylko dlatego, że powiedzieliśmy o sobie, że słuchamy polskiego rocka i czytamy książki o drugiej wojnie – mimo że fakty te nie są ze sobą w żaden oczywisty sposób związane. Algorytm "nie wie", że chodzi o wiek, "wie" tylko, że sieć powiązań powoduje, że osoby posiadające takie, a nie inne zainteresowania, w przeszłości często klikały w reklamy związane z problemami z prostatą.

Nie jest trudno zauważyć, że jest to proces analogiczny do tworzenia stereotypów: na podstawie pewnych danych historycznych tworzymy sobie obraz jednostki, dokładając do tego kolejne skojarzenia. Jeżeli zauważymy dziesięciu Czechów, którzy piją piwo, tworzymy stereotyp pt. "Czesi piją piwo" i każdy następny spotkany Czech będzie przez ten pryzmat postrzegany.

Lewica od lat walczy ze stereotypami, ponieważ częstokroć skojarzenia, które wiążą się z określonymi grupami społecznymi, bywają negatywne. Jest to zresztą oczywiste – stereotypizacja jest formą ewolucyjnego przetrwania w bardzo skomplikowanym świecie, a to, co jest dla przetrwania fundamentalne, to unikanie zagrożeń. Szufladkowanie, nawet najbardziej prostackie, chociaż może być krzywdzące, jest jak najbardziej ewolucyjnie uzasadnione. Lewicowa narracja odrzuca jednak stereotypy jako nieuzasadnione, wprowadzając różnymi ścieżkami środki ochrony przed dyskryminacją. A zatem ktoś, kto zatrudniał w przeszłości trzy osoby o niebieskich oczach, które okazały się złymi pracownikami, nie powinien odrzucać niebieskookiego kandydata tylko z powodu koloru jego oczu. Analogicznie, w świecie rzeczywistym: koloru skóry, płci, pochodzenia etnicznego, manifestowanego stylu życia.

Problemem dla lewicy stała się cyfrowa stereotypizacja, która wykluczała z podejmowania decyzji czynnik ludzki. W zeszłym roku ukazała się w Polsce książka Cathy O'Neil, Broń matematycznej zagłady, opisująca wpływ algorytmizacji na życie społeczne, która stanowi w miarę aktualne zestawienie wszystkich najważniejszych argumentów w debacie na temat cyfrowej analityki. I tak amerykańskie banki odmawiały zdolności kredytowej albo podnosiły wysokość składki ubezpieczeniowej dla osób czarnoskórych czy Latynosów, ponieważ z historycznych danych wynikało, że kredyty udzielane tym grupom stanowią wysokie ryzyko – ale "decyzja" taka podejmowana była nie na podstawie koloru skóry, ale innych danych, które okazywały się być z pochodzeniem etnicznym skorelowane. Podobną tendencję zauważono w algorytmizacji pracy policji i prokuratury, a także profilowania kandydatów do pracy. Warto nadmienić, że algorytmizacja decyzji ze skutkami prawnymi będzie w całej Unii Europejskiej limitowana na mocy Rozporządzenia o Ochronie Danych Osobowych, które wchodzi w życie 25 maja tego roku.

Jedynym argumentem, który dotyka relacji pomiędzy rzeczywistością a wynikami analityki big data, jest jak dotąd podważanie wartości danych, którymi karmi się algorytmy w procesie uczenia. Jeżeli więc dane będą "rasistowskie" – na przykład policjanci nastawieni byli wcześniej na większą kontrolę dzielnic zamieszkałych przez mniejszości etniczne – to wyniki też będą "rasistowskie", przypisując większe ryzyko tym dzielnicom, a więc powodując obłożenie ich zwiększoną kontrolą policyjną. I tak dalej.

Oczywiście problem "przesądu" w zbieraniu danych jest istotnym zagadnieniem epistemologicznym. W erze cyfrowej jednak odchodzi on w niepamięć. Dane, na których pracują algorytmy odpowiedzialne za profilowanie nie są już danymi deklaratywnymi, a więc informacjami, które świadomie przekazujemy drugiej stronie. Częściej stanowią zbiór pozostawianych mimowolnie cyfrowych śladów. I wbrew lewicowej narracji coraz częściej okazuje się, że tworzone w taki sposób stereotypy cyfrowe są wiernym odbiciem rzeczywistości. Co więcej, to właśnie sama lewica je potwierdza.

O co chodzi? Od lat socjologowie i politologowie, zaangażowani zarówno w badanie, jak i wykorzystywanie danych do tworzenia marketingu politycznego, borykają się z problemem "milczącej większości". Badanie rzeczywiście losowo dobranych prób jest metodologicznym wyzwaniem, któremu bardzo często trudno jest podołać, nawet niekoniecznie przez niedbalstwo badacza. To sprawia, że powtarzają się wielkie zaskoczenia, kiedy kandydaci, którym sondaże przedwyborcze nie dawały większych szans, nagle wygrywają. Ostatnie lata to szereg takich niespodziewanych wyborów: zwycięstwo PiS, zwycięstwo Andrzeja Dudy, referendum w sprawie Brexit, wreszcie – zwycięstwo Donalda Trumpa. Żadnego z tych scenariuszy związani z lewicą komentatorzy nie przewidywali. Co się więc stało?

Refleksje na temat rzeczywistych przyczyn sukcesu, powiedzmy, prawicowej oferty politycznej – takie jak słynne badanie Macieja Gduli w Miastku – do tej pory są rzadkością. To przecież oznaczałoby, że komentatorzy i prognostycy się mylili. A oni nie mylą się nigdy. Zadecydował więc inny czynnik, który zmanipulował wszystkie te wybory. Chiny? Rosyjski wywiad? Ludzie-jaszczury? Okazuje się, że właśnie algorytmy big data.

Co można zrozumieć z zarzutów stawianych Cambridge Analytics, na podstawie danych zebranych z milionów facebookowych profili stworzono mechanizm, który dobierał osoby podatne na konkretne treści, a więc takie, które z wysokim prawdopodobieństwem zainteresowane będą takim, a nie innym przekazem. Następnie mechanizm "ułatwiał dostęp" do nich, co wpłynęło na ich popularność i przełożyło się na wyborczy wynik kandydatów prawicowych, czy też głosowanie za wyjściem Wielkiej Brytanii z Unii Europejskiej. To mogło się przyczynić do mobilizacji większej liczby ludzi, którzy w innym scenariuszu pozostaliby bierni w obliczu wyborów politycznych.

Przyjmijmy, że tak naprawdę było. Problem w tym, że zarzut ten wcale nie oznacza, że wynik wyborów został zafałszowany, albo – jak głosił inny artykuł z "The Guardian" z zeszłego roku – ludzie zostali "ograbieni z demokracji". Wręcz przeciwnie: mobilizacja grupy wyborców, którzy pozostaliby bierni, oznacza więcej demokracji, a skuteczność profilowania – że cyfrowe stereotypy odzwierciedlają rzeczywistość.

Możemy oczywiście uznać, że widząc przekaz marketingowy dopasowany idealnie do naszego profilu, działamy z konieczności – jest to świat rzeczywiście smutny, chociaż wówczas również nie ma mowy o "zagrabieniu demokracji", fałszerstwie czy manipulacji. Skoro działa mechanizm konieczności, to nie ma scenariusza alternatywnego. Natomiast jeżeli uznamy, że nie jesteśmy w pełni zdeterminowani, to każde działanie jest naszym wolnym działaniem.

/ Źródło: DoRzeczy.pl
/ dcy
 24
  • Pan Murzyński - Filipiński IP
    Algorytmy jak na razie usiłują sprzedać mi przez internet kolejną parę butów dlatego, że kupiłem pierwszą.
    Big data, są jak Ciemna Energia i Ciemna Materia w astrofizyce.
    Ponieważ teoretyczne obliczenia miały się nijak do rzeczywistości, bo obserwacje natury dowiodły, że w kosmosie mamy deficyt materii i energii, trzeba było albo zmienić przyjęty model budowy Wszechświata, albo znaleźć miejsce gdzie jest ukryty deficyt. Wykorzystano trik stosowany już w nauce Średniowiecza, zamiast szukać, nazwano coś czego nie ma, przyjęto za pewnik, że istnieje, a poszukiwaniami zajęto się na sam koniec, zresztą niezbyt intensywnie, bo tylko naiwni wierzą, że coś znajdą.
    Ponieważ "milcząca większość" w polityce jest nieprzewidywalna dla twórców algorytmów, ci też musieli jakoś wytłumaczyć swoje błędy. W zasadzie sprawa i tu jest zakończona, zjawisko jest nazwane, czyli istnieje. Można zająć się szukaniem algorytmu big data.
    ps.
    Wracając do pojęć podstawowych:
    Demokracja jest martwa co najmniej od momentu wybuchu II Wojny Światowej. To teoria którą ja osobiście przyjmuję jako pewnik. Dlatego nie ma sensu zajmowanie się utratą czegoś, czego nie ma od dawna.
    Dodaj odpowiedź 4 0
      Odpowiedzi: 0
    • CCCCCCCCCCCCCCC IP
      wszystkie algorytmy to pic na wode probuja tlumaczyc CENZURE ktore nie jest niczym innym od tej co byla w czasie socjalizmu na ulicy Mysiej . Roznica jest taka ze zukenberg jest milion razy skuteczniejszy ALE TAK samo stalinowski . Cenzuruja zywi ludzie dotarlem do nich . CEZNURUJA WIADOMOSCI ktore sa drukowane w wielkich gazetach swiata !!! WYSYLAJAC WKLEJAJACEGO DANA WIADOMOSC NP . O MORDZIE NA STATKU PLYNACYM DO ITALII PRZEZ ISLAMISTOW 20 MLODYCH DZIEWCZAT NA 30 DNIOWY URLOP BAN . INSTRUKCJE CO I JAK CENZUROWAC OTRZYMUJE ZUCK OD MERKEL WLADCOW EUROPY I USA . TAK SAMO SA CENZUROWANE WIADOMOSCI O UKRAINSKIM LUDOBOJSTWIE W CZASIE 2 WOJNY JAK I POZNIEJ MA BYC ISLAM W EUROPIE I UKRAINA MA BYC BUFOREM DLA AMERYKI PRZED ROSJA I W IMIE TEGO LAMIE SIE WSZELKIE ZASADY I POSTEPUJE JAK W LATACH 40 TYCH I POCZATKU 50 TYCH JESZCZE BEZ OBOZOW .
      Dodaj odpowiedź 1 0
        Odpowiedzi: 0
      • Pan Utu IP
        Następuje równanie do średniej, polegające na tym, że Internet i pozostałe media dostosowują się do potrzeb typowego debila (przepraszam urażonych). Skutkuje to na przykład tym, że nie można zobaczyć w kablówce dobrego programu popularno-naukowego. Wkrótce nie kupimy telewizora, który będzie odtwarzał system DTS, bo przeciętniaki tego nie potrzebują. Ktoś kto nie bryluje w mediach społecznościowych nie dostanie pracy itp. itd. Algorytmy wycinają jakikolwiek indywidualizm. Rodzi się świat facebookowej szarej ludzkiej masy.
        Dodaj odpowiedź 5 0
          Odpowiedzi: 0
        • janekk IP
          Po to człowiek ma mechanizm odpornościowy aby bronił go przed chorobami i po to ma łeb aby chronił go przed głupotami. Internet i telewizja to nowe zjawisko w ewolucji stąd i mała odporność na zainfekowanie u wielu i wielu też chętnie z tego korzysta aby to wykorzystać.
          Dodaj odpowiedź 4 0
            Odpowiedzi: 0
          • ehhh.... IP
            Tu nie trzeba żądnych wyrafinowanych algorytmów: manipulacja osobą zawsze się wykonuje z pozycji asymetrii informacji. Jeśli wyborca ma komplet informacji o kandydacie wybór jest merytoryczny. Te algorytmy służą tylko do tego aby w inteligentny/automatyczny sposób grać nie fair - dozując informację. Jeśli życie publiczne jest jawne i oparte na prawdzie są one bezużyteczne.
            Dodaj odpowiedź 3 0
              Odpowiedzi: 0
            • świrus IP
              Do niedowiarków: w "zamach" wierzycie, a w fakty już nie?

              Można się jednak próbować bronić przed procederem - usunąć fb, a zamiast google używać duckduckgo. Google wyszukuje lepiej, przyznaję, jednak duckduckgo, też daje radę. Używam już dłuższy czas.

              Poszukajcie sobie artykułu na niebezpieczniku, tam jest to lepiej opisane.

              Świetny temat autorze! Oby więcej takich!
              Dodaj odpowiedź 3 0
                Odpowiedzi: 0
              • Rumcajs IP
                Jesli na fb naprawde dzialaja jakies algorytmy to one są strasznie glupie. Zawsze mi wyświetlają to czego nie lubię. Posty znajomych kodowcow etc.Chcą żebym polubił? Nie ma glupich.
                Dodaj odpowiedź 4 2
                  Odpowiedzi: 0
                • Robert IP
                  Pojęcie multikulturalizmu zostało stworzone przez ten sam umysł co feminizm i inne nazizmy. Sama psychologia tłumaczy pojęcia swoich i obcych, to oczywiste. Stereotypy nie są złe, istnieją od zawsze i zawsze będą istnieć.
                  Dodaj odpowiedź 2 1
                    Odpowiedzi: 0
                  • Mikołaj IP
                    Dzisiaj każde wejści do sieci powoduje natychmiastowe skutki w postaci reklam i długofalowe w postaci naszego profilu wykorzystywanego przez wielkie korporacje. Trudno od tego uciec.
                    Dodaj odpowiedź 3 0
                      Odpowiedzi: 1
                    • jurekw IP
                      am kilka uwag:
                      1. To niezupełnie prawda, że "dane, na których pracują algorytmy [...] nie są już danymi deklaratywnymi, a więc informacjami, które świadomie przekazujemy drugiej stronie". Dane zostały zebrane na Facebooku - na którym zostały świadomie umieszczone przez użytkowników.
                      2. W tekście nastąpiło pomieszanie dwóch technologii - stąd mylące wnioski. Analiza Big Data rzeczywiście pozwala naleźć korelacje jakich analityk bez tego narzędzia mógłby nie dostrzec. Jest mocno wątpliwą teza, że taka analiza pozwala zdobyć informacje bardziej przydatne, niż analizy statystyczne.
                      Jednak cała "afera" dotyczy przygotowania danych do tej analizy - czyli algorytmu profilowania (lub - jak to nazwano w tekście - stereotypizacji). To nie jest robione poprzez typową analizę Big Data, ale analizę aktywności konkretnej osoby w oparciu o założone kryteria.
                      I tu mamy rzeczywiście nową jakość - ale nie dotyczy to metod badawczych, tylko samego marketingu politycznego. Dotąd skupiano się na przekonaniu wyborców do programów. W erze post-prawdy najważniejsze jest, by polityk wyglądał jak "swój chłop", a do tego np. dane o tym, czy wyborcy piją piwo czy też mocniejsze trunki jest ważna.
                      3. Najważniejszy w tym jest jednak sam sam stosunek do prawdy. Trump mówił sprzeczne ze sobą rzeczy w różnych miejscach. Bo tak wynikało z badań.
                      Dodaj odpowiedź 4 3
                        Odpowiedzi: 0
                      • vhtdvb IP
                        Tez mi nowina. Od pra pra korpo userow traktuje jak dzi#ki. Ps. ten wasz reCAPTCHA nie jest po to aby zbierac prawdziwe ip?
                        Dodaj odpowiedź 2 1
                          Odpowiedzi: 0
                        • dncx1 IP
                          Przypominam autorowi, że DoRzeczy jest medium, które wspiera układ władzy najbardziej socjalistyczny, a nawet narodowo socjalistyczny jakiego nie mieliśmy od 1025 roku. Wiec nie wiem o czym tu rozmowa. PIS wygrał właśnie przez BigData, ukierunkowane reklamy i nachalną propagandę anty PO, pełną pół prawd i górw..o prawd. Więc jeśli już niech najpierw obecny układ władzy przyzna się, że korzystał sprytnie z tych danych by wykonać rewoltę narodowo socjalistyczną w Polsce.
                          Dodaj odpowiedź 6 20
                            Odpowiedzi: 2
                          • Guliwer IP
                            Autor zdaje się nie rozumieć, że BigData nie służy do tego aby przekaz został dopasowany do naszego profilu. Odwrotnie, to my, nasze profile zostaną dopasowane do pożądanego wzorca. Najpierw algorytm rozpozna nasze "czułe punkty", a później podsuwając nam w odpowiednich momentach odpowiednie treści sprawi, że nasz światopogląd odpowiednio się uformuje i stanie się zgodny z pożądanym. Nawet marketing nie zajmuje się już zaspokajaniem naszych potrzeb, a tylko ich kreowaniem.
                            Dodaj odpowiedź 16 3
                              Odpowiedzi: 2
                            • ale ubaw IP
                              w skrocie mozna bylo napisac:....SOCJOTECHNIKA w rekach syjonistow...nie potrzeba hitlera-krzykacza by KIERUNKOWAC (programowac) masy.... cala nauka (od psychologi, programowania, propagandy, szczucia, straszenia) jest ZAWARTA teraz w alegorytmach.... i tak bedzie wygladala PRZYSZLOSC NIEWOLNIKOW...beda oni PROGRAMOWANI.... (wystarczy poczytac co niektorzy pisza w komentarzach onet,wp czy dorzeczy, aby przekonac sie jak mozna czlowiekowi ODEBRAC MYSLENIE).
                              Dodaj odpowiedź 9 1
                                Odpowiedzi: 1
                              • rutmistrz IP
                                W niedalekiej przyszłości zostaniemy wszyscy sklasyfikowani i poddani obróbce cyfrowej zarówno pod względem fizycznym jak i  psychicznym( duchowym też). Taka koszmarna przyszłość wyziera z kartek tej książki. Na dzisiaj opisuje stan społeczeństwa amerykańskiego ale przecież część procedur zaczyna być stosowana w Europie ( bankowość, kadry...) Prywatność precz. Nie mniej warto ją przeczytać aby wiedzieć co z pewnością nas (zwykłych obywateli) będzie czekać.
                                Dodaj odpowiedź 12 3
                                  Odpowiedzi: 1

                                Czytaj także