Wiewiórka nie może być ważniejsza od sytuacji w Afryce

Wśród opinii o nowym portalu Tomasza Lisa pojawiła się też taka, że strona NaTemat jest słabo spersonalizowana. Nie zapamiętuje artykułów i wpisów na które wcześniej kliknęliśmy, aby podczas kolejnych odwiedzin wyświetlać nam te, które nas interesują. Oczywiście kwestia NaTemat jest tu drugorzędna bo po tych kilku dniach raczej nie zapowiada się, aby projekt Lisa spełnił marzenie o dużym ogólnopolskim portalu z dziennikarstwem wysokiej jakości – po prostu reklamy w internecie są za tanie, żeby utrzymać silny zespół redakcyjny. Chodzi o kwestię samej personalizacji.

Oferta skrojona indywidualnie dla klienta sprawdza się w wielu branżach, ale nadużywana w szeroko pojętych mediach internetowych jest pomysłem z gatunku tych, które choć brzmią rozsądnie to na dłuższą metę zaszkodzą samym odbiorcom. Personalizacja ułatwia wybór w zalewie treści i tym samym oszczędza czas, tyle że w rzeczywistości to nie my decydujemy o tym co czytamy, nie decyduje też człowiek, który filtrując informacje kieruje się określonym systemem wartości. Decyduje za nas algorytm, który sprawia że po prostu głupiejemy.

pierwszy poruszył problem aktywista internetowy i polityczny Eli Parisier, który zauważył kilka lat temu, że Google w odpowiedzi na identyczne pytanie wyświetla inne wyniki, w zależności od kilku kryteriów takich jak lokalizacja, rodzaj przeglądarki, historia kliknięć. Podobnie robi Facebook usuwając z naszej tablicy, bez naszej zgody, informacje od znajomych z którymi mamy mniej interakcji. Nawet jeśli  lubimy czytać to o czym piszą na stronie, decyduje za nas algorytm.

Przez 100 lat społeczeństwo opierało się na gatekeeperach czyli zawodowych wydawcach, redaktorach i dziennikarzach, którzy oprócz treści błahych i lekkich dopuszczali te istotne z punktu widzenia demokracji i funkcjonowania wspólnoty. Człowiek pełniący funkcję filtra, choć niedoskonały,  kieruje się jakimś systemem wartości. Działa to nie tylko w mediach, ale w ogóle w obiegu informacji. To dlatego o tym jaki dokument trafi na biurko Baracka Obamy nie decyduje komputerowy algorytm, ale grono  25 asystentów, 25 ich zastępców oraz 50 asystentów specjalnych. Grono to dba by prezydent maksymalnie wykorzystał swój czas.

Personalizacja promuje najczęściej treści lekkie, sensacyjne, które jako istoty z natury leniwe chętniej klikamy niż rzeczy wymagające większego skupienia i przemyślenia. Jak powiedział Mark Zuckerberg: „wiewiórka umierająca w Twoim ogrodzie, może być dla ciebie bardziej interesująca niż sytuacja w Afryce”. W efekcie internet, który miał być oknem na świat, jednoczyć ludzi, sprawia że oddalamy się od siebie coraz bardziej. Coraz trudniej będzie nam odbierać informacje nie skrojone specjalnie dla nas, trudniejsze w odbiorze. Widać to także w Polsce, choćby po tym jak w ciągu kilku lat stabloidyzowała się Gazeta.pl.

Siłą czytania książek czy gazet jest to, że oprócz artykułów na interesujące nas tematy, przy okazji dowiadujemy się rzeczy o których istnieniu nie wiedzieliśmy, z dziedzin pokrewnych albo zupełnie nam odległych – jednym słowem to informacje, których sami z siebie nigdy byśmy nie szukali, a które poszerzają nasze horyzonty. Parisier przyrównuje treści serwowane nam przez algorytmy do „śmieciowego jedzenia” atrakcyjnie podanego, łatwo, dostępnego, więc kupowanego impulsowo, ale w dłuższej perspektywie szkodliwego.

Oczywiście mający wśród znajomych fachowców w danych dziedzinach, którzy mailowo, na Facebooku czy Twitterze zwrócą im uwagę na ciekawe tematy do przeczytania, są w lepszej sytuacji. A co z całą resztą? Znajoma dziennikarka radiowa przestała przyjmować praktykantów, gdy okazało się, że kolejni kandydaci, absolwenci uczelni humanistycznych mają luki w podstawowej wiedzy o otaczającym nas świecie, niespotykane w poprzednich rocznikach. To zresztą kolejny kontrintuicyjny trend:  szkodzi  bezrefleksyjne korzystanie z internetu, który miał być „oknem na świat”, zapewniającym błyskawiczny dostęp do informacji o którym poprzednie pokolenia mogły pomarzyć.

Źródłem nadmiernej personalizacji jest oczywiście postęp technologiczny. Zaczęło się to bodaj w 2003 lub w 2004 roku, gdy inżynierowie Google’a znaleźli tani i efektywny sposób analizy danych. Zamiast powierzać ją kilku dużym, kosztownym komputerom, wpadli na pomysł aby dane dzielić i rozsyłać między wiele mniejszych, tanich komputerów. Model skopiował Craig Hutting, tworząc aplikację Hadoop z którego zaczęły korzystać inne firmy. Dzisiaj personalizują wszyscy, robi to Facebook, niedawno jeszcze większe zindywidualizowanie treści pod kątem ogłosiło Yahoo.

Jakiś czas temu Economist prognozował, że w dobie  serwisów społecznościowych i wyszukiwarek, newsy będą się rozchodziły na podobnej zasadzie jak jeszcze 150 lat temu, w erze przed powstaniem masowych mediów, gdy podstawowym źródłem informacji były rozmowy w kawiarni, w gospodzie, na targu, a wszystkie pojawiające się tam opinie były równorzędne. Tyle, że wtedy rzadkością była demokracja liberalna, której warunkiem istnienia jest minimalna choćby wiedza obywateli o sprawach o których debatuje parlament czy rząd.

Ten wpis został opublikowany w kategorii Media, Trendy i oznaczony tagami , , , , , , , , . Dodaj zakładkę do bezpośredniego odnośnika.

Dodaj komentarz

Twój adres email nie zostanie opublikowany.