Budzimy się rano. Sięgamy po smartfona. Wchodzimy na fejsa i nawiązujemy kontakt ze światem. To nasze podstawowe źródło informacji o rzeczywistości. Prawie-rzeczywistości, bo jednak przepuszczonej przez algorytmy, których zadaniem jest otaczanie nas treściami dopasowanymi do naszych preferencji.
Facebook zgromadził już 1,59 miliarda użytkowników. Każdy z nich – nas – ma unikalną kombinację sieci znajomości, preferencji i oczekiwań. Jeśli skonfrontuje się to z liczbą kilkudziesięciu miliardów komunikatów publikowanych dziennie na Facebooku, próbujących dotrzeć do uwagi 1/7 ludności świata… cóż, nie trzeba mieć pięknego umysłu, żeby dojść do wniosku, że przydałby się jakiś system filtrowania i segregowania takich ilości treści.
Tego rodzaju system, a ściślej algorytm, oczywiście istnieje, choć jego składowe są tylko częściowo jawne. Kontrowersje budzi przede wszystkim sposób, w jaki funkcjonuje. Niewidzialna selekcja tego, co widzimy i tego, czego nie widzimy, może mieć odczuwalny wpływ na nasz światopogląd – zamykając nas w specyficznej „bańce” informacyjnej, filter bubble.
- W skali mikro filter bubble utrudnia nam dotarcie do informacji, z którymi możemy się nie zgadzać, które mogą wydać nam się niewygodne czy kontrowersyjne, ale które powinny dotrzeć do naszej świadomości. Choćby po to, aby poszerzyć wiedzę o świecie, otworzyć się na odmienne punkty widzenia.
- W skali makro filter bubble może prowadzić do poważnego osłabienia dyskursu publicznego. Obracając się wyłącznie w gronie osób, które lubimy i konstruując wyobrażenie o świecie na podstawie informacji, z którymi się zgadzamy, obwarowujemy się wśród swoich przekonań. Stajemy się mniej skorzy do dyskusji. A tu już dotykamy podstaw zdrowej demokracji liberalnej i otwartych społeczeństw.
Brzmi groźnie? A może histerycznie? To nie wszystko. Mechanizm filtrowania treści Facebooka rodzi również pytania o etykę. Algorytmy to w praktyce maszyny, kierowane czysto obiektywnymi kryteriami ważności, operujące zupełnie poza wymiarem etyki. Nie kwestionują, nie rozważają, nie wahają się. Nie zadają sobie pytań rodzaju: a co jeśli? a może jednak? chyba, że…? Po prostu robią – efektywnie i w zgodzie z przyjętymi regułami. My, w swojej ludzkiej niedoskonałości, postępujemy zgoła inaczej. Czasem na szczęście, czasem na nasze nieszczęście.
Ale po kolei.
Newsfeed, EdgeRank & all that jazz
Pierwszą rzeczą, którą widzimy po wejściu na Facebooka, jest newsfeed, czyli tablica agregująca niedawną aktywność osób znajdujących się w gronie naszych znajomych (inaczej: tablica aktywności lub aktualności). Każda dokonana przez nich akcja, zdarzenie to tzw. edge. Może nim być udostępnienie, skomentowanie lub polubienie cudzego statusu, udostępnienie albo otagowanie zdjęcia itd. Mnożąc te działania przez kilkuset znajomych w naszym kręgu i dodając do tego wszystkie śledzone fanpages (w tym lajki, które rozdawaliśmy stronom w stanie nietrzeźwym), staje przed oczami obraz newsfeedu wypełnionego przytłaczającą masą informacji.
Zakłada się, że gdyby nie mechanizm filtrujący treści, przy każdej nowej wizycie użytkownika na FB czekałoby na niego średnio 1500 edges! Więcej>>
Aby uwolnić nas od tego rodzaju problemu Facebook stworzył algorytm filtrujący treści wyświetlanie w newsfeedzie. Jego jedyną rolą jest obliczanie i przewidywanie tego, jak interesujące wydadzą się nam wybrane aktualności. Jako, że funkcją algorytmu jest priorytetyzacja edges, system nazwano EdgeRank.
Zdarzenia wyświetlane w aktualnościach są dobierane na podstawie Twoich połączeń oraz aktywności na Facebooku. Dzięki temu możesz zobaczyć więcej zdarzeń o interesującej Cię tematyce lub pochodzących od znajomych, z którymi najczęściej się kontaktujesz. Liczba polubień i komentarzy do danego posta oraz typ zdarzenia (np. zdjęcie, film, zmiana statusu) również ma wpływ na to, czy zobaczysz to zdarzenie w swoich aktualnościach.
– Centrum Pomocy Facebooka
Powyższe wyjaśnienie jest bardzo ogólne, nie dotykające w żaden sposób składowych algorytmu EdgeRank. A te dzielą się na trzy podstawowe koszyki, tj.:
- stopień powiązania (Affinity Score), wyrażający intensywność relacji między użytkownikami i edges. Przykładowo: częste “lajkowanie”, komentowanie, udostępnianie czy tagowanie jakieś osoby wzmacnia stopień powiązania, a w efekcie – częstszym wyświetlaniem zdarzeń tej osoby na naszej tablicy aktywności.
- wagę interakcji (Edge Weight), określającą wartość określonej akcji. “Lajk” jest mniej wartościowy od komentarza, a komentarz od udostępnienia jakiejś treści. Przykładowo: kiedy udostępniamy zdarzenie jakiegoś innego użytkownika, jego aktywność będzie częściej wyświetlać się w naszym newsfeedzie, niż gdybyśmy jedynie polubili to zdarzenie.
- czas (Time Decay), czyli to, jak długo edge egzystuje na Facebooku. Zmienna ta premiuje nowsze zdarzenia, a deprecjonuje starsze. Najprościej ujmując: aktualności starsze wypierane są przez nowsze, a w newsfeedziepierwszeństwo mają te najświeższe.
EdgeRank stale ewoluuje, np. nie mierzy już wyłącznie poziomu indywidualnych interakcji między użytkownikami i edges, ale także bierze pod uwagę tzw. globalne interakcje. Niemniej sama idea mechanizmu pozostaje niezmienna. Algorytm ma dbać o to, aby nie przytłoczyć użytkownika nadmiarem informacji, jednak samemu arbitralnie decydując o treściach, które zostaną wyświetlone w serwisie do jego wiadomości, a które nie. Biorąc pod uwagę nasze nawyki w poszukiwaniu newsów, można pokusić się o rozumowanie: to nie ja znajduję newsa, tylko news znajduje mnie – ale o tym, czy dany news rzeczywiście mnie znajdzie, decyduje już algorytm.
You’re in my bubble!
Eli Pariser to amerykański aktywista internetowy, założyciel portalu Upworthy. Jako jeden z pierwszych zwrócił uwagę opinii publicznej na zagrożenia płynące z personalizacji informacji opartej na algorytmach obecnych w social media i wyszukiwarkach internetowych. Jego wystąpienie na konferencji TED w 2011 roku wprowadziło do dyskursu pojęcie filter bubble – cyfrowej bańki, będącej efektem internetowej personalizacji, filtrującej i blokującej dopływ części informacji. W słowach Parisera, filter bubble to „osobiste i niepowtarzalne uniwersum informacyjne, w którym każde z nas żyje online”.
Eli Pariser swoje wnioski skonstruował na podstawie dwóch eksperymentów. Najpierw aktywista poprosił parę swoich przyjaciół o wpisanie w Google frazy “BP” (British Petroleum). Pierwszej osobie wyniki wyszukiwania podsunęły informacje o ofercie inwestorskiej, drugiej – informacje o wycieku ropy naftowej. Inną parę przyjaciół Pariser poprosił o wpisanie w wyszukiwarkę frazy “Egipt”. I podobnie, jeden przyjaciel natrafił na ofertę biura podróży, zaś drugi na artykuł dotyczący przemocy władz egipskich na placu Tahrir w trakcie tzw. Arabskiej Wiosny.
Już to stanowiło podstawę do sformułowania wniosku o kompletnie różnych obrazach rzeczywistości, do jakich prowadzi algorytm filtrujący wyszukiwane treści w Google (PageRank). Jednak inna obserwacja Parisera dotyczyła już stricte algorytmu filtrowania treści na Facebooku. Autor zauważył, że korzystając z serwisu i klikając w linki udostępnianie przez część jego znajomych o liberalnym światopoglądzie, z jego newsfeedu stopniowo znikają treści publikowane przez znajomych o światopoglądzie konserwatywnym. Wszystko to bez jego zgody, ponieważ EdgeRank samoistnie ogranicza dostęp do treści, które Pariser mógłby – ale nie musiałby – uznać za polaryzujące.
Te same mechanizmy, które mają odciążyć naszą uwagę od nadmiaru treści spoza kręgu zainteresowań, zamykają nas równocześnie w szczelnej „bańce” informacyjnej. Filter bubble to w praktyce bycie otoczonym jedynie przez ludzi, których lubimy i przez treści, z którymi się zgadzamy. Kształt “bańki” uzależniony jest od tego kim jesteśmy i co robimy, jednak świadomie nie decydujemy, co przez nią do nas przeniknie ani co zostało na zewnątrz niej. W ten sposób nie jesteśmy w stanie nawet ocenić, czy to czego filter bubble do nas nie dopuściło rzeczywiście byłoby dla nas niegodne uwagi.
Ciekawą ilustrację może stanowić eksperyment przeprowadzony przez Matta Honana z magazynu “WIRED”, który postanowił “lajkować” każdą (dosłownie każdą) treść, wyświetlającą się w jego newsfeedzie. Rezultat?
- Pierwszym skutkiem był niemal całkowity brak treści udostępnianych przez innych użytkowników, a jedynie śmieciowej jakości informacje od marek, które… wyświetlały się także znajomym autora, stanowiąc poniekąd formę SPAMu.
- Drugim skutkiem, który ujawnił się w szczególności po polubieniu pro-izrealskiego artykułu dot. konfliktu w Strefie Gazy, było przesunięcie się znacznej części wyświetlanych aktualności silnie w prawo na osi poglądów politycznych.
Ten przykład dobrze obrazuje obawę Eliego Parisera – niewidzialne algorytmy, bezrefleksyjnie cenzurujące pewne treści pod pozorem naszego dobra, ograniczają dostęp do pewnych informacji i zawężają światopogląd.
Would you kindly burst my bubble?
Cyfrowe “bańki” informacyjne mogą stanowić zagrożenie dla społeczeństwa, zubażając dyskurs publiczny i czyniąc nas bardziej podatnymi na propagandę i manipulację. Tradycyjne media jeszcze do niedawna stanowiły rolę tzw. gatekeepers, czyli instancji decydującej o tym, jakie informacje powinny trafić do opinii publicznej i w jakiej formie. Rola gatekeepera była nierozerwalnie związana z etyką dziennikarską, która kładzie akcent nie tylko na obiektywność i rzetelność, ale także prezentowanie odmiennych punktów widzenia i informacji – często niewygodnych, niepożądanych, a jednak potrzebnych. W sytuacji, w której rolę medium informacyjnego przejmują przede wszystkim social media z Facebookiem na czele, rolę gatekeeperów przejmują algorytmy, czyli de facto maszyny. Ich największym ograniczeniem jest operowanie poza wymiarem etyki. Algorytmy sortują według sztywnych reguł ważności, jednak nie posiadają miękkiej umiejętności subiektywnego rozróżnienia tego, co rzeczywiście ważne, od tego, co nieistotne lub szkodliwe z perspektywy naszego szeroko rozumianego dobra ogółu.
Czas więc na nieco mięska. Co możemy zrobić, aby minimalizować negatywny wpływ algorytmów filtrujących treści, a tym samym ograniczyć szkodliwość filter bubble?
Na poziomie czysto technicznym i indywidualnym…
…wystarczy sięgnąć do opcji dostępnych w serwisie Facebook i wykorzystać kilka funkcji, które zmniejszają szczelność filter bubble.
Zmienić opcję filtrowania wyświetlanych zdarzeń w newsfeedzie z “najciekawsze” na “najnowsze”. Wówczas układ tablicy przyjmie odwrócony chronologicznie strumień aktualności, zamiast priorytetyzujący te najchętniej „lajkowane”, komentowane i udostępniane. Daje to wrażenie większego porządku i prostsze kryterium segregowania treści.
Wybrać opcję “otrzymuj powiadomienia” w przypadku najbardziej wartościowych stron lub osób, na których aktualnościach najbardziej nam zależy. Wówczas można mieć pewność, iż informacje udostępniane przez daną osobę lub organizację obligatoryjnie wyświetlą się na naszej tablicy aktualności – niezależnie od mechanizmu filtrowania treści.
Można dokonać sortowania i klasyfikacji stron oraz znajomych wg ich ważności dla nas, przypisując specjalne etykiety ważności oraz tworząc spersonalizowane zakładki dla śledzonych przez nas stron. Stanowi to formę dodatkowych, kontrolowanych filtrów treści.
Na poziomie makro…
…czyli z perspektywy społeczeństwa, kluczem do ograniczenia negatywnego wpływu filter bubble jest transparentność. Zdaniem Holly Green, publicystki „Forbesa”, niezbędna jest większa publiczna świadomość tego, w jaki sposób funkcjonują algorytmy takich serwisów jak Google czy Facebook. Na ten moment jedynie garstka ludzi zdaje sobie sprawę z istnienia tego rodzaju mechanizmów, nie wspominając o znajomości meandrów ich funkcjonowania i związanych z tym implikacjach. Edukując w tym temacie poprzez szkołę i media, być może my, użytkownicy, zaczniemy dostrzegać związek między prostą czynnością, jaką jest „danie lajka”, a tym ile informacji do nas dociera, a ile nie. I być może nawet te proste czynności zaczniemy wykonywać w sposób bardziej refleksyjny, nie zapominając o “bańce”, w jakiej łatwo możemy dać się zamknąć. A którą na co dzień trudno jest nam dostrzec.
Skomentuj