Jogger cyferfilozoficzny

Filozofia Internetu -- Filozofia w Internecie

Zemsta gate-keeperów I

dnia 07 grudnia 2005, o godzinie 14:55:26 /

Z cyklu: Idą zmiany...

Na początku było słowo, i słowo zostało puszczone w eter. Ale kto je autoryzował?

Informacja zawsze była selekcjonowana. Gdy tylko przekaz przekroczył granice zagrody nadawcy, ktoś zaczął decydować, czy dana informacja może być rozpowszechniana. Czasem decydowaly względy polityczne (tylko błaznowi wolno publicznie mówić, że Król jest głupi), czasem merytoryczne (teksty kłamliwe i błędne nie powinny być publikowane), zawsze jednak ktoś podejmował decyzję, i stosownie do niej działał. Oto strażnicy bram do upowszechniania wiedzy. Przybierają różne role: bibliotekarze decydujący o tym, które teksty są dostępne, a które są "w opracowaniu"; średniowieczni skrybowie decydujący o tym, który tekst zostanie przepisany; drukarze decydujący o tym, który tekst wrzucić na maszyny; redaktorzy programowi decydujący o tym, który program trafi na antenie. Mieli sporą władzę i korzystali z niej.

W czasach mediów o stożkowej strukturze hierarchicznej (nadajnik i wiele odbiorników) technologia im sprzyjała. Łatwo było pilnować dostępu do jedynej drukarni czy jedynego nadajnika. Pojawienie się globalnej, rozproszonej sieci komputerowej zmieniło wiele. Struktura upowszechniania informacji również się przekształciła. Każdy mógł publikować, każdy mógł rozpowszechniać, gate-keeperzy stali się "przestarzali" i zbędni. Miała oto nadejść wreszcie wymarzona wolność i demokracja dla świata informacji i wiedzy.

Powszechność przeszła w ilość. Niezliczone źródła informacji stały się błogosławieństwem i przekleństwem zarazem. Różnorodność źródeł i inspiracji okupiona została utratą wiarygodności i kłopotami z odnalezieniem tej jednej, pożądanej informacji. Pozornie pajęczyna jest niewielka. Mimo miliardów stron, odległość między dwiema dowolnymi witrynami pokonać można przy użyciu zadziwiająco niewielu kliknięć (według badań Alberta i innych z 1999 roku było to około 19 kliknięć). Jednak odnalezienie tej właściwej ścieżki nie zawsze jest łatwe, zwłaszcza jeśli cel podróży znamy tylko w przybliżeniu. Korzystamy więc z technologicznego i ludzkiego wsparcia.

Technologia to przede wszystkim wyszukiwarki, wraz ze swymi sekretnymi algorytmami i niezliczonymi robotami, pająkami i crawlerami, nieustannie przeczesującymi Pajęczynę. Pajączki odwiedzają strony internetowe, gromadzą informacje na temat ich treści, a następnie wędrują dalej po kolejnych linkach. Uzyskane w ten sposób dane są gromadzone w stosownych bazach i udostępniane poprzez interfejs wyszukiwarki. System usiłuje jednak dostarczyć nam jak najbardziej trafne i wartościowe wyniki, selekcjonując zawartość bazy danych na wiele rozmaitych (i zwykle tajnych) sposobów. (O niektórych czynnikach mających wpływ na pozycję strony w wynikach wyszukiwania Googla można przeczytać na stronie midei. Więcej o sekretach Googla na stronie Wszystko o Google.)

Algorytmy, póki co, są tępe. Nawet te najbardziej wyrafinowane można oszukać. I nawet te najbardziej wyrafinowane premiują strony najbardziej popularne, a nie te najlepsze. Strona znajdująca się wysoko w wynikach wyszukiwania, częściej jest znajdowana, odwiedzana i linkowana, a dzięki temu znajduje się wyżej w wynikach wyszukiwania. To swoiste sprzężenie sprawia, że sieć przestaje być jednorodna i zdecentralizowana. W sieci pojawiają się węzły nieproporcjonalnie często odwiedzane. Tę cechę sieci oddaje model "muszki" prezentowany w artykule Brodera i innych z roku 2000. Zgodnie z tym modelem stosunkowo niewielkie centrum sieci pochłania bardzo dużo sieciowego ruchu. Strony centralne powiązane są wyjątkowo gęstą siecią odnośników, co w połączeniu z mechanicznym, wyszukiwarkowym sprzężeniem prowadzi do tego, że ściągają one widzów jak czarna dziura. Gdzieś na obrzeżach znajdują się obszary IN i OUT, które jednokierunkowo linkują do centrum, lub też są z centrum linkowane. Centrum to około 30% Pajęczyny, obszary IN i OUT to jakieś 20% każdy. Korzystając z wyszukiwarek z bardzo dużym prawdopodobieństwem trafimy na stronę z centrum. Na dalszych miejscach mogą znaleźć się strony z pozostałych dwóch obszarów. Reszta -- rubieże zewnętrzne, stanowiące jakieś 30% Pajęczyny -- pozostaje niezwykle trudno dostępna.

Niegdyś mówiło się o tzw. Głębokim Internecie, obszarze niedostępnym dla wyszukiwarek, ze względu na niedoskonałość mechanizmów. Miały to być głównie strony w zamkniętych obszarach Sieci oraz te generowane dynamicznie. Dziś robociki wyszukiwarek coraz lepiej radzą sobie z indeksowaniem treści zamkniętych w bazach danych, dzięki temu "dynamizm" stron przestał być problemem. Nie znaczy to jednak, że ukryty Internet się kurczy. Trafiają tam po prostu strony nisko oceniane przez wyszukiwarki, zalgorytmizowanych gate-keeperów naszych czasów. Tu nie ludzie, lecz algorytmy dokonują selekcji. Nie na wejściu, lecz na bramce dostępowej użytkownika -- efekty pozostają te same. Tak wychwalana decentralizacja rynku treści okazuje się tylko kolejnym sieciowym mitem. W efekcie i tak najłatwiej nam znaleźć treści najbardziej popularne, co nie musi oznaczać, że najlepsze. (Więcej o tym, jak wyszukiwarki przejmują funkcję gate-keeperów można przeczytać w artykule Wyszukiwarki i ich rola w kształtowaniu Internetu Justyny Hofmokl i Alka Tarkowskiego.)

Tabloidyzacja rozmaitych obszarów sieci jest naturalną konsekwencją działania takich mechanizmów. Niejako jesteśmy na nią skazani. Bo podobnie sytuacja wygląda wówczas, gdy w poszukiwaniach wspierają nas ludzie, a nie maszyny. Ale o tym w następnym odcinku.

Jeśli chcesz skomentować ten wpis, odnajdź go na blog.sienko.net.pl.

Wszystko zostanie zapamiętane

dnia 03 grudnia 2005, o godzinie 22:06:58 /

Z cyklu: Złowione w sieci...

Mały drobiazg (za stroną Electronic Frontier Foundation), który powinni przeczytać wszyscy, którzy uważają, że sieci społeczne to doskonały pomysł. Artykulik Mary Joy Kramer, Forfeiting privacy, one post at a time.

Warto pamiętać, że wszystko co publikujemy w Sieci, zostanie w niej na długo...

Jeśli chcesz skomentować ten wpis, odnajdź go na blog.sienko.net.pl.

Mój blog nie jest Web 2.0

dnia 02 grudnia 2005, o godzinie 20:27:38 /

Z cyklu: Złowione w sieci...

The score for http://blog.sienko.net.pl/ is 4 out of 27

Takie wyniki podaje web2.0validator.com.

Inne śmiesznostki w tym temacie:

Jeśli chcesz skomentować ten wpis, odnajdź go na blog.sienko.net.pl.

Web 3.0 - kiedy?

dnia 02 grudnia 2005, o godzinie 16:30:35 /

Z cyklu: Idą zmiany...

Promocja dźwignią handlu. Liczy się nowe, kreatywne hasło, które pozwoli ludziom wmówić, że oto dostają coś zupełnie innego, gdy tymczasem wciskamy im towar od dawna zalegający w magazynach. Hasłem na dziś jest Web 2.0.

Czym jest ta tajemnicza druga wersja sieci? O tym możesz przeczytać w wielu miejscach w sieci, zarówno po polsku jak i po angielsku. Czujesz już oddech rewolucji na plecach? Nowa wersja sieci wyłania się na naszych oczach. Opiera się na technologiach bazodanowych, dynamicznie wykorzystywanych na stronach www, oddolnych inicjatywach użytkowników, narastającej specjalizacji i niszowości serwisów, sieciach społecznych i tym podobnych hasłach. Opowiada się o nowych pomysłach ekonomicznych, dynamicznej zmienności nowej sieci, dopasowywaniu treści do odbiorcy, kolektywnej, rozproszonej mądrości i tym podobnych. A wszystko to w istocie jest biciem marketingowej piany.

Sieć web ewoluuje i dojrzewa - to jedno nie ulega wątpliwości. Obecnie można zaobserwować to, że wyrasta ona z wieku dziecięcego, charakteryzującego się dowolnością w działaniu i buntem. To z łatwością tłumaczy nawrót w stronę sieciowych standardów, które wcale nie przewidywały przyszłości, lecz ją po prostu tworzyły. Poszukuje się ekonomicznych sposobów wykorzystania ogromnego zasięgu sieci -- stąd i ekonomia o długim ogonie, będąca po prostu naturalną konsekwencją funkcjonowania sieci. Szuka się sposobów zarządzania informacją dostosowanych do potrzeb użytkowników sieci, a nie ludzi, którzy wychowani w realnym świecie, od czasu do czasu sieci używają -- stąd też mechanizmy bazodanowe, które pod wieloma względami ułatwiają życie ludziom zalewanym przez morze informacji. Szuka się nowych form reklamy, które nie będą drażnić wyrobionych technicznie użytkowników, nie od dziś potrafiących używać softu blokującego popupy i inne reklamy -- stąd i "uprzejme" technologie, typu AdSense.

Nie ma w tym wszystkim żadnej rewolucji. To tylko zwykła ewolucja. Po co więc nadmuchiwać balon z napisem Web 2.0? Po co ogłaszać, że firma Sun będzie kropką w tym haśle (za Jarkiem Zgodą)?

Odpowiedź jest oczywista: dla pieniędzy. Trzeba napędzać koniunkturę. A robią to zwłaszcza Ci, którzy mogą się pod takie nowe hasło podczepić. Ale bańka wkrótce pęknie i co wtedy? Najpierw kilka bankructw, a potem wyczekiwanie na Web 3.0. Ja już jestem w awangardzie -- pisałem o trzeciej odsłonie sieci jako jeden z pierwszych. Google to zapamięta...

Jeśli chcesz skomentować ten wpis, odnajdź go na blog.sienko.net.pl.

Hipertekst o hipertekstach

dnia 01 grudnia 2005, o godzinie 23:31:54 /

Z cyklu: Złowione w Sieci...

Ot, mały, znaleziony dzisiaj drobiazg. Literatura a Internet. O powieściach hipertekstowych, to bardzo sympatyczny tekst Katarzyny Stobrawy, wprowadzający do problematyki hipertekstu. Autorka w dużym stopniu odnosi się do Bloku Sławomira Shuty - jednej z pierwszych polskich hiperfikcji. Warto rzucić okiem.

Jeśli chcesz skomentować ten wpis, odnajdź go na blog.sienko.net.pl.

Dywersyfikacja źródeł

dnia 01 grudnia 2005, o godzinie 10:54:34 /

Z cyklu: Idą zmiany...

Bardzo trendy stało się ostatnio dyskutowanie o dywersyfikacji źródeł -- zwłaszcza w kontekście rozmaitych rur z gazami. Zasada powinna być jednak powszechniej znana i wykorzystywana. Zwłaszcza w odniesieniu do źródeł wiedzy.

Najprostszą metodą kontroli jest dostarczenie ludziom odpowiednich informacji i pozwolenie, na podejmowanie "samodzielnych" decyzji i budowanie "samodzielnych" opinii. Dlatego tak ważne jes to, by wszystkie informacje sprawdzać w różnych źródłach. Nie wolno przyjmować ich bezrefleksyjnie.

Każdy, kto ma co wieczór chwilkę na obejrzenie rozmaitych wiadomości, zdaje sobie sprawę z różnic pomiędzy tym, jak i o czym informują nas Polsat, TVN i TVP. Oglądając kilka serwisów, możemy cieszyć się myślą, że jesteśmy zorientowani lepiej niż inni, bo poznajemy różne punkty widzenia. A to wszystko są przecież oficjalne media i różnice są drobne. Internet oferuje tu znacznie szersze możliwości.

Istnieją główne serwisy newsowe, takie jak onet, gazeta czy wp. Łatwo się jednak przekonać, że informacje wędrują pomiędzy nimi często w bardzo bezpośredni sposób. Tu nie ma szczególnie dużej różnorodności. Warto poszukać głębiej. Sięgamy po wyszukiwarki.

Wszechobecny Google przestaje budzić zaufanie. Zbyt często jest traktowany jako przewodnik po całej sieci, a nie wszystko da się "wygooglać". Wiadomo, że jest cała masa ciekawych stron, które nigdy nie pojawią się w wynikach wyszukiwania. Tak zwany Ukryty Internet jest jak ta część góry lodowej, znajdująca się pod wodą. Ogromny i nieznany. Warto przynajmniej skorzystać od czasu do czasu z innych wyszukiwarek. Clusty oraz Alltheweb to tylko dwa przykłady wyszukiwarek, korzystających z innych mechanizmów, niż Google.

Jeśli chodzi o newsy, informacje o ważnych wydarzeniach, warto skorzystać z niezależnych serwisów informacyjnych. Takich jak na przykład:

Są jeszcze popularne serwisy takie jak Slashdot czy EFF. Jest gdzie szukać. Warto szukać. Bo wiedza jaką posiadamy, wyznacza granice naszych myśli i czynów.

Jeśli chcesz skomentować ten wpis, odnajdź go na blog.sienko.net.pl.


Licencja Creative Commons
Ten tekst jest dostępny na licencji Creative Commons.

Powered by Jogger. Copyright (c) 2002-2003 Justin Mecham oraz JabberPL Group.
Wszystkie prawa zastrzeżone. Legalność; Informacje