Jak internet robi nas w bańkę, czyli czym jest bańka informacyjna/filtrująca?

Gdy pewnego dnia dostrzegasz, że nareszcie wszyscy podzielają Twoje poglądy, prawdopodobnie jesteś „ofiarą” bańki filtrującej zwanej też bańką informacyjną. Sprawdźcie, co to właściwie jest filter bubble, jakie niesie zagrożenia i jak sprawić, by się przed nią uchronić?

Bańka filtrująca/informacyjna – co to jest?

Większość ludzi zdaje sobie już sprawę z tego, że sztuczna inteligencja pomaga nam w internecie wyszukiwać filmy na sobotni wieczór czy znaleźć idealny hotel na wakacje. Nie ma w tym nic złego, o ile zdajemy sobie sprawę z działania tego mechanizmu i zachowamy rozsądek, nie zdając się całkowicie na sugestie, które internet podsuwa nam pod nos w pierwszej kolejności. Bowiem jeśli nasza cyfrowa aktywność będzie kierowana wyłącznie zaleceniami sztucznej inteligencji, narażamy się na ryzyko stworzenia wirtualnego świata o spolaryzowanych opiniach.

W Google funkcja spersonalizowanego wyszukiwania początkowo dotyczyła tylko użytkowników, których profile połączone były z kontem Gmail. Od 4 grudnia 2009r. rozszerzono tę opcję dla wszystkich użytkowników na świecie. Aby wdrożyć tę aktualizację, firma z Mountain View musiała dostosować swój algorytm, wprowadzając szereg zmian.

Koncepcja baniek filtrujących została po raz pierwszy zidentyfikowana przez Eli Parisera, założyciela portalu Upworthy. Jako jeden z pierwszych zwrócił on uwagę na zagrożenia płynące z personalizacji informacji opartej na algorytmach obecnych w social mediach i wyszukiwarkach internetowych. Pojęcie filter bubble zostało wprowadzone do obiegu, po wystąpieniu Parisera na konferencji TED w 2011 roku, gdzie w ten sposób nazwano efekt internetowej personalizacji, filtrującej i blokującej dopływ części informacji.

W swoich książkach Pariser wyjaśnił jak wyniki wyszukiwania w Google różnią się w zależności od historii użytkownika. Przytoczył on przykład, w którym dwie osoby szukały hasła „BP” (British Petroleum). Jednej z tych osób wyniki wyszukiwania pokazywały informacje o ofercie inwestorskiej, a drugiej – informacje dotyczące niedawnego wycieku ropy naftowej. W kolejnym eksperymencie wpisano frazę „Egipt” i tutaj także wyniki wyszukiwania różniły się od siebie: w jednym przypadku dotyczyły biura podróży, a w drugim przemocy władz egipskich na placu Tahrir w trakcie tzw. Arabskiej Wiosny.

Już te doświadczenia stanowiły podstawę do sformułowania wniosku o kompletnie różnych obrazach rzeczywistości, do jakich prowadzi algorytm filtrujący wyszukiwane treści w Google. Pariser nazwał tę refleksję bańką filtrującą, czyli „osobistym ekosystemem informacji”, który izoluje nas od wszelkiego rodzaju dysonansów poznawczych, ograniczając to, co widzimy. Jednocześnie praktycznie wszystko, co robimy online, jest monitorowane – z korzyścią dla kogoś innego. Można więc powiedzieć, że informacje, na jakie natrafiamy w pierwszej kolejności w internecie, odzwierciedlają nasze zainteresowania, podczas gdy obserwatorzy algorytmiczni nieustannie obserwują to, co nas ciekawi.

wyszukiwarka google

Bańka informacyjna w social mediach

Początkowo portale społecznościowe dawały użytkownikom pełną swobodę wyboru kontaktów, źródeł wiadomości, które śledzili, oraz tematów, które były dla nich istotne. Jednak Pariser przeprowadził też test, który dotyczył algorytmu filtrowania treści na Facebooku i test ten ukazał, że social media na tej samej zasadzie co Google zamykają nas w bańce informacynej.

Pariser zauważył, że korzystając z Facebooka i klikając w linki udostępnianie przez część jego znajomych o liberalnym światopoglądzie, z jego tablicy stopniowo zaczęły znikać treści publikowane przez znajomych o światopoglądzie konserwatywnym. 

Ciekawym doświadczeniem podzielił się także Matt Honan z magazynu Wired, który postanowił “lajkować” dosłownie każdą treść, wyświetlającą się na jego tablicy na Facebooku. Pierwszym skutkiem jego działań był prawie całkowity zanik treści udostępnianych przez innych użytkowników. Zamiast tego jego tablica wypełniona była reklamami różnych firm. Co więcej zaczęły one wyświetlać się także jego znajomym. Drugi skutek był najbardziej widoczny po polubieniu pro-izrealskiego artykułu dot. konfliktu w Strefie Gazy. Wtedy znaczna części wyświetlonych informacji zaczęła mieć prawicowy charakter.

Ten przykład dobrze obrazuje obawę Eliego Parisera, że niewidzialne algorytmy, bezrefleksyjnie cenzurujące pewne treści pod pozorem naszego dobra, ograniczają dostęp do pewnych informacji i zawężają światopogląd. Ta selektywność może prowadzić do swoistej endogamii i mieć wpływ na nasze zachowanie, nasze preferencje, a także nawet na działania przyjaciół i znajomych.

bańka mydlana

Bańka informacyjna – co nam grozi?

Podsumowując powyższe, koncepcja bańki filtrującej odnosi się do okoliczności, w których nasza aktywność online jest ograniczona do przestrzeni, gdzie wszystko, co napotykamy, wydaje się potwierdzać nasze poglądy. Te same mechanizmy, które mają odciążyć naszą uwagę od nadmiaru treści spoza kręgu zainteresowań, tak naprawdę zamykają nas w szczelnej „bańce” informacyjnej. Filter bubble w praktyce oznacza więc bycie otoczonym jedynie przez ludzi, których lubimy i przez treści, z którymi się zgadzamy.

Co prawda kształt tej bańki jest uzależniony od tego co robimy, jednak świadomie nie decydujemy co do niej finalnie przeniknie, a co gorsze, co zostało poza nią. W ten sposób nie jesteśmy w stanie nawet ocenić, czy to czego bańka filtrująca do nas nie dopuściła, rzeczywiście byłoby dla nas niegodne uwagi.

Życie w takich bańkach ma zatem ogromny minus w postaci polaryzacji opinii. Taki mechanizm prowadzi do tworzenia wirtualnych środowisk, w których wszyscy członkowie mają podobne poglądy na określone tematy, a odmienne opinie są automatycznie odrzucane jako naciągane lub bezpodstawne.

Utrudnienie w dotarciu do informacji, z którymi niekoniecznie się zgadzamy, a nawet tych, które wydają się dla nas absurdalne, uniemożliwia nam poszerzanie swojej wiedzy i samodzielne budowanie światopoglądu.

Patrząc szerzej może to prowadzić do osłabienia dyskursu publicznego i czynić nas bardziej podatnymi na propagandę i manipulację. Przekonani o tym, że wszyscy dookoła wyznają podobne wartości, obwarowujemy się swoimi przekonaniami i mamy mniejszą ochotę do merytorycznych i konstruktywnych dyskusji, które są przecież niezwykle ważne chociażby w kontekście zdrowej demokracji i budowania otwartego społeczeństwa.

Taki mechanizm filtrowania budzi więc pytania o etykę tego typy działań. Algorytmy, czyli działania sztucznej inteligencji kierują się obiektywnymi kryteriami ważności, nie wdając się w szczegóły treści, i nie kwestionując ich. Po prostu działają zgodnie z przyjętymi regułami, nie posiadając miękkiej umiejętności subiektywnego rozróżnienia tego, co naprawdę ważne, od tego, co nieistotne lub szkodliwe z perspektywy naszego szeroko rozumianego dobra ogółu. Mimo wszystkich niedoskonałości człowieka, ludzie potrafią patrzeć na rozmaite treści z większym zrozumieniem, szerszą perspektywą, a nawet empatią, której przecież na próżno szukać u maszyn.

Jeszcze do niedawna to tradycyjne media stały na straży tego, jakie informacje powinny trafić do opinii publicznej i w jakiej formie. Rola tzw. gatekeepera była nierozerwalnie związana z etyką dziennikarską, której fundamentem jest powinna być obiektywność i rzetelność, a także prezentowanie odmiennych, czasem niewygodnych, ale potrzebnych informacji.

W czasach, w której rolę medium informacyjnego w ogromnej mierze przejął internet i social media (czyt. też Kampanie polityczne w internecie i social mediach) takimi gatekeeperami zostały te, jak już ustaliliśmy, niedoskonałe i niewrażliwe algorytmy.

filter bubble

Jak przebić bańkę?

Fakt istnienia takich baniek informacyjnych może nie napawać optymizmem. Niezbędna jest większa publiczna świadomość tego, w jaki sposób funkcjonują algorytmy takich serwisów jak Google czy Facebook.

Brak tej świadomości jest niebezpieczny np. w przypadku osób starszych. Trafiając nawet przypadkiem na jakiś artykuł czy film nie są oni świadomi tego, że kolejne polecenia w podobnej tematyce nie wynikają z faktu, że nagle wszyscy zaczęli podzielać określone poglądy, a właśnie z tego, że polecenia te zostały dobrane przez algorytmy. W końcu tracą oni kontrolę nad tym, co jest filtrowane, a co nie, ponieważ wiadomości są dostosowywane do utrwalenia ich dotychczasowych opinii. Finalnie samodzielnie zaczynają ograniczać się do danych kanałów informacyjnych, programów, czy gazet, które się z nimi zgadzają.

Jako jedno z podstawowych działań, które mogą nas uchronić od zamknięcia w bańce jest zrozumienie, że poglądów jest więcej niż te, które nasuwają nam się w pierwszej kolejności. Warto dociekać i być otwartym na merytoryczną dyskusję, nawet, gdy jest to trudne. Według Parisera kluczowe byłoby stworzenie i promowanie narzędzi zachęcających do debaty i wymiany opinii, podobnie jak na forach internetowych, które kwitły pod koniec lat 90. i na początku XXI wieku.

Oprócz takich ogólnych działań opierających się na świadomym dobieraniu informacji, można również podjąć kilka, czysto technicznych, kroków, które utrudnią algorytmom zamknięcie nas w bańce, m.in.:

  • Korzystać z rozszerzeń blokujących reklamy w przeglądarce. Wadą jest to, że niektóre witryny nalegają na wyłączenie przez użytkowników blokowania reklam przed wyświetleniem strony.
  • Czytać z serwisów informacyjnych i blogów, których celem jest przedstawienie szerokiej perspektywy.  
  • Korzystać z przeglądania incognito, usuwać historię wyszukiwania i logować się na swoje konto tylko wtedy, gdy jest to konieczne.
  • Usuwać lub blokować pliki cookie przeglądarki. Pliki cookie można usunąć ręcznie i dostępne są rozszerzenia przeglądarki, które je usuwają. W niektórych przypadkach pliki cookie są przydatne, dlatego usuwanie powinno odbywać się dyskretnie.
  • Na Facebooku zmienić opcję filtrowania wyświetlanych zdarzeń na tablicy z najciekawsze na najnowsze
  • W przypadku ulubionych i najbardziej wartościowych kont wybierać otrzymuj powiadomienia.

Źródło: wethecrowd.pl, wired.com, www.bbva.com, fs.blog