Strona główna/Hipertekst jako „system operacyjny świata”

Hipertekst jako „system operacyjny świata”

Drugi fragment książki Piotra Celińskiego “Interfejsy. Cyfrowe technologie w komunikowaniu”, wydanej w serii Monografie Fundacji Nauki Polskiej. Przedruk dzięki uprzejmości autora. Przywrócono wersję oryginału, przed skrótami redaktora wydawnictwa FNP.

Zdaniem kanadyjskich krytyków cyberkultury, Arthura i Mari-Louise Krokerów, Ameryka współcześnie dzięki przewadze w wytwarzaniu, wdrażaniu i wykorzystaniu cyfrowych technologii stworzyła cyfrowy system operacyjny świata.

U progu trzeciego tysiąclecia Stany Zjednoczone Ameryki Północnej zdominowały świat. Współczesna dominacja tego supermocarstwa przybiera tradycyjne wymiary – odbywa się w sferze wpływów ekonomicznych, politycznych i militarnych. O przykłady realizacji tej polityki siły i władzy Wielkiego Brata nie trudno – począwszy od prowadzonych zupełnie dowolnie wojen prewencyjnych, przez monopolizację wielu dziedzin handlu, aż do prób globalnej kontroli produkcji i dystrybucji różnych dóbr. Jednak te dobrze już znane przestrzenie hegemonii w dobie globalnego rynku nie wystarczą dziś do uzyskania pełnej kontroli nad pozostałymi uczestnikami stosunków międzynarodowych. Zdaniem Arthura i Mari-Louise Krokerów, kanadyjskich krytyków cyberkultury, Ameryka współcześnie, dzięki przewadze w wytwarzaniu, wdrażaniu i wykorzystaniu cyfrowych technologii komunikacyjnych, dominuje jednak przede wszystkim w obszarze kultury. Krokerowie postrzegają działania USA w tym zakresie jako tworzenie i użytkowanie czegoś na kształt cyfrowego systemu operacyjnego świata, w którym zasadniczą rolę odgrywa interfejs hipertekstu. Jest jednak nie tylko uniwersalnym językiem i interfejsem współczesnej kultury: dzięki temu globalnemu „Windows” Amerykanie realizują swoje imperialne interesy i umacniają hegemonię. Mówiąc innymi słowy, Ameryka dostarcza współczesnej cyberkulturze niezbędnych do jej sprawnego funkcjonowania oprzyrządowania i oprogramowania – technologiczne środowisko pracy, ale przy okazji doskonale wykorzystuje swoją monopolistyczną pozycję jedynego jej producenta i kontrolera. Funkcjonuje jako nadzorca i serwisant globalnej infrastruktury przepływów informacji i główny technolog interfejsu cyfrowej kultury. Stany projektują, normatywizują, wytwarzają i wprowadzają do obiegu olbrzymią większość cyfrowych standardów technologicznych, mechanizmów ich kulturowej i społecznej implementacji, stosownych kodów i platform operacyjnych[1].

Amerykanie starają się także kontrolować dominujący interfejs współczesnej cyberkultury, swoje najbardziej obiecujące hipertekstowe dziecko – Internet. Nominalnie międzynarodowa, choć znajdująca się pod rzeczywistą kontrolą administracji amerykańskiej, specjalistyczna agenda (ICANN) rejestruje nazwy i adresy internetowe dla wszystkich w skali globu użytkowników, tam powstaje większość z powszechnie dostępnego i używanego do jego obsługi oprogramowania, tam zarejestrowanych jest najwięcej stron www i serwerów internetowych[2]. Warto jednak zauważyć, że już dawno Internet wymknął się, przynajmniej częściowo, amerykańskiej dominacji stając się w jakiejś części własnością wszystkich współtworzących go użytkowników i powszechnym narzędziem komunikacyjnym, nawet jeśli sami Amerykanie są innego zdania. Technologie sieciowe, a pośród nich Internet przede wszystkim, rozwijają się także, przynajmniej w niewielkim stopniu, niezależnie od kulturowej i technologicznej dominacji USA. W sensie kulturowym lokalne odmiany i mutacje Sieci mogą okazać się odporne na pojawiające się uniwersalne, globalne zagrożenia – tak jak lokalne kultury radzą sobie na różne sposoby z globalnymi problemami i na różne sposoby wykorzystują docierające do nich z różnych innych kultur technologie.[3]

W tej antymonopolowej rozgrywce idzie także o upowszechnianie alternatywnych wobec obecnie dominujących technologii, systemów operacyjnych i aplikacji użytkowych – kolejnych warstw interfejsowych. Najwymowniejszym przykładem takiej dominacji jest monopol systemów operacyjnych Windows wytwarzanych przez światowego giganta branży IT – Microsoft. Przyjęty na potrzeby tych systemów sposób metaforycznej translacji technologii cyfrowych dla zastosowań amatorskich w postaci „okien” i pulpitu jest dzisiaj tożsamy z sensem funkcjonowania komputerów w powszechnym użytkowaniu[4]. Włączenie się co cyberprzestrzeni i funkcjonowanie w cyberkulturze oznacza dziś dla większości przeciętnych użytkowników konieczność mentalnego wpasowania się w świat desktopu i okien. Jedynie posiadający fachową wiedzę i umiejętności programistyczne i inżynierskie mogą sobie pozwolić na potencjalne posługiwanie się innymi, niż graficzne, okienkowe interfejsy systemów operacyjnych. Wobec tej zakrojonej na skalę globalną, cyfrowej hegemonii Windows powstał już szeroko zakrojony ruch oporu, by przywołać tu popularną semiotyczną terminologię Johna Fiske’a. Światowa społeczność użytkowników Sieci swój sprzeciw wobec dominującej roli wielkich korporacji produkujących software wyraża choćby w formule idei i ruchu open source. W ramach tego ruchu powstają ciekawe alternatywy dla dominujących form oprogramowania, takiej jak alternatywne systemy operacyjne Linux czy pakiet programów biurowych Open Office, wciąż jednak ruch ten nie jest na tyle silny, aby zaoferować własne konkurencyjne rozwiązanie dla okien i pulpitu czy innych strategicznych fragmentów współcześnie dominujących interfejsów. Problem dominacji zauważają nie tylko prywatni użytkownicy cyberkultury. Coraz częściej taka sytuacja staje się przedmiotem działania oficjalnych struktur państwowych i organizacji międzynarodowych. Unia Europejska, na przykład, od jakiegoś czasu deklaruje zamiar finansowania budowy własnego, europejskiego systemu operacyjnego, który mógłby konkurować z wszechobecnymi produktami pochodzącymi zza oceanu. Różnorodność dostępnego oprogramowania i sprzętu jest podstawowym warunkiem nie tylko bezpieczeństwa przez zagrożeniami skierowanymi w pojedyncze rozwiązania, ale także genetycznej różnorodności gatunków technologii cyfrowych, której ta forma może w przyszłości zawdzięczać lokalną, kulturową unikalność, niezależność i specyfikę.

Amerykanie nie rezygnują i nie zamierzają łatwo oddać władzy sprawowanej nad cyberkulturą. Bogaci w doświadczenia takich globalnych korporacji jak McDonalds starają się wpasować także w potrzeby lokalnych konsumentów technologii cyfrowych. By możliwe było utrzymanie sprzedaży software’u jak największej liczbie klientów z całego świata, firmy zajmujące się jego wytwarzaniem stosują praktykę internacjonalizacji oprogramowania. Sprowadza się ona do dostosowania kulturowej (najczęściej tylko językowej) warstwy programu do lokalnych wymogów, przy jednoczesnym omijaniu jakichkolwiek zmian w strukturze jądra programu. Powstaje w ten sposób oprogramowanie z łatwo modyfikowalnym naskórkiem, ale stałym, identycznym we wszystkich lokalnych odmianach kodem źródłowym[5]. To znaczy, że przedstawiciele innych kultur otrzymują aplikację identyczną ze stworzoną na potrzeby amerykańskiego rynku, ze wszystkimi tego kulturowymi determinantami – to proceder, który znamy już dobrze z importowanych seriali, filmów, książek[6] Dodatkowo to język angielski (amerykański) stał się „urzędowym” językiem sieci – w jego zapisie funkcjonuje większość stron internetowych, a znajomość komend wyrażanych przy jego pomocy jest niezbędna dla wszystkich, którzy próbują posługiwać się zarówno technologią jak i oprogramowaniem[7]. Ten wątek kulturowego imperializmu USA realizowanego przy pomocy interfejsu hipertekstu zakończmy odnotowaniem jednego z najważniejszych jego przejawów. W ciągu ostatnich miesięcy pojawiły się na łamach prasy komputerowej doniesienia na temat możliwości rejestracji domen kończących się rozszerzeniem .xxx stosowanym przy treściach pornograficznych. W imieniu globalnej społeczności Internautów decyzję w tej sprawie podejmie amerykański wymiar sprawiedliwości, który takie kompetencje sam sobie przyznał[8].

Wydaje się, że przedstawiona w latach 70. ubiegłego wieku przez amerykańskiego teoretyka kultury Herberta Irvinga Schillera, a dziś potwierdzana w odniesieniu do cyberkultury przez małżeństwo Krokerów, krytyka imperializmu kulturalnego nie straciła wiele ze swej adekwatności i aktualności[9]. Schiller wskazywał wówczas na środowisko komunikacyjne mediów masowych uwikłane w realizację dominującej nad światem potęgi administracji Stanów Zjednoczonych. Mass media, jak był przekonany, tylko na pozór przedstawiały wówczas rzeczywistość kulturową jako strukturę pluralistyczną i nieograniczoną, gwarantującą każdemu odbiorcy możliwość wyboru między wieloma prezentowanymi wartościami i stylistykami. Tylko na pozór, ponieważ faktycznie „szufladkowały” jego świadomość karmiąc go wzorami amerykańskiej kultury kapitalizmu. Obecnie to cyberkultura, równolegle do już istniejących analogowych interfejsów kultury, w narastającej ilości przykładów staje się przestrzenią takiej hegemonii.

Nawigatorzy i kartografowie hipertekstowego morza

Jednym z mechanizmów amerykańskiej cyberhegemonii jest tworzenie struktury metakodu Internetu, czyli jego mapowanie wedle określonych kryteriów. Użytkownicy hipertekstowej sieci w swojej przeważającej większości, co jest spowodowane przede wszystkim niewystarczającymi umiejętnościami oraz wiedzą na temat jej użytkowania, potrzebują przewodników i map – chętnie korzystają z tych, które okazują się dla nich łatwo dostępne. Zdolność przeciętnego internauty w zakresie samodzielnej nawigacji w interfejsie cyfrowej przestrzeni danych jest ograniczona. Olbrzymie i częściowo tylko opisane zasoby globalnej pajęczyny wymykają się zdolnościom ludzkiego oglądu. Nawet jeśli przyjazny interfejs osobistego komputera pozwala wydawać polecenia urządzeniu i pozostawać w cyfrowym środowisku w charakterze ośrodka decyzyjnego, to wejście w hipertekst (poza danymi gromadzonymi na własny użytek) i poruszanie się w wyobrażonym kierunku stanowi zadanie niemal niewykonalne samodzielnie. Bez odpowiedniej pomocy nie jesteśmy w stanie zadać wprost Sieci pytania, a nawet gdyby to z pewnością nie udałoby się ogarnąć i przeanalizować zbioru otrzymanych odpowiedzi. Aby uczynić tę czynność prostą i dostępną dla wielu użytkowników stworzono w Internecie najpierw bazy danych o danych – czyli portale katalogujące według swojego klucza zawartość Sieci. Pierwszym z takich portali był yahoo.com. Następnym krokiem było stworzenie mechanizmów przeszukiwania danych zapisanych w sieciach według indywidualnych, szczegółowych kluczy, którymi na różne sposoby posługują się poszczególni internauci. Tymi indywidualnymi kluczami umożliwiającymi segregowanie i kategoryzację zasobów Internetu są zapytania, które użytkownicy zgłaszają mechanizmom szukającym – wyszukiwarkom. Owe wyszukiwarki, które w pierwszej fazie swojego istnienia były niewielkimi witrynami pośredniczącymi pomiędzy wyszukanymi algorytmami katalogującymi Internet, przeszły ewolucję, która dziś gwarantuje im pozycję najczęściej odwiedzanych sieciowych lokalizacji i jednocześnie najbardziej lukratywnych e-biznesów. Pracujący nad ich kształtem cyfrowi „kartografowie” ujarzmiają koloryt i strukturę sieci – obecność jakiejś lokalizacji na przygotowywanych przez nich mapach jest gwarancją udanego biznesu i szans na egzystencje w bardzo konkurencyjnym środowisku. Kolejność na listach odpowiedzi wyszukiwarek na zadawane im przez użytkowników zapytania jest zatem przedmiotem najbardziej zaciętej walki w cyberprzestrzeni. Zdobyte na tych listach wyniki są jedną z niewielu gwarancji przeżycia danej inicjatywy, a brak takiej pozycji oznacza skazanie na cybermargines. W zależności od możliwości i potrzeb „kartografowie” rysują różne rodzaje map. Dla jednych z nich liczą się tylko wyniki finansowe przekładające się na kształt list wyników. Im więcej dana witryna internetowa jest w stanie zapłacić za pozycję na liście odpowiedzi na różne pytania, tym wyższą na niej pozycję zajmie. Tak funkcjonuje znana głównie w USA witryna lycos.com. Konkurenci działają bardziej merytorycznie. Podstawą ich strategii może być na przykład popularność różnych stron mierzona za pomocą liczby jej odwiedzin. Katalogowanie na potrzeby wyszukiwania może także odbywać się według kryteriów semantycznych. Wówczas najbardziej adekwatne są witryny, które na dane zapytania dostarczają najbardziej dosłownych odpowiedzi. W praktyce te wszystkie kryteria, choć w różnych proporcjach i zależnościach, mają wpływ na ostateczny algorytm przeszukiwania i katalogowania Internetu. „Kartografowie” hipertekstu wytyczają i organizują większość hipertekstowych podróży – w praktyce okazuje się, że aż 80% wszystkich wizyt w Sieci dotyczy zaledwie 5% wszystkich opublikowanych w niej stron.[10] Decyzje podejmowane przez wyszukiwarki i serwisy katalogujące Internet można w tej sytuacji określić bez narażenia się na nadużycie jako przestrzeń władzy i kontroli nad zanurzonymi w cyfrowe przestrzenie duszami. Problem ten jest w pewnym sensie pozorny i faktyczny zarazem. Pozorny, bo przecież w zalewie informacji z pewnością nie wszystkie mają poznawczo ważny charakter, często określa się Sieć wręcz jako wielki śmietnik. W tej sytuacji dostęp do map i przewodników jest najczęściej pożądany i wygodny dla podróżnych. Faktyczny, ponieważ dotyczący nie tylko rzeczywistości hipertekstu, ale także obecnych w kulturze tradycyjnych baz danych, takich jak choćby biblioteki. W bibliotekoznawstwie amerykańskim (i nie tylko) stosuje się znany wskaźnik wyrażony proporcją 20/80. Oznacza on, że 80% wypożyczeń jest realizowanych przy wykorzystaniu 20% zbiorów. Pozostała część zbiorów są zatem sporadycznie, jeśli w ogóle, używane.[11]

Spróbujmy w tym kontekście przyjrzeć się najpopularniejszej spośród dziś funkcjonujących wyszukiwarek, giganta pośród przedsięwzięć w branży ICT, google.com. Każdego dnia ta ogromna baza danych odpowiada na 200 milionów zapytań, a w swojej bazie katalogowej posiada ponad 4 biliony opisanych i skatalogowanych stron Sieci.[12] Ciekawe, że o ile w przypadku oprogramowania opcje zawarte w menu i dostępne dla użytkowników mają mieć przede wszystkim wartość użytkową, o tyle porządkowanie zawartości globalnego hipertekstu w google.com opiera się, tak przynajmniej podają oficjalne dokumenty korporacji, na kryterium dobra i zła. Dwóch trzydziestokilkuletnich dziś założycieli i szefów firmy decyduje o 200 milionach opinii na wiele tematów – należy do nich władza kierowania internautów w określone miejsca, władza przewodnika obiecującego krótką i wygodną ścieżkę do celu. Don’t be evilnie bądź zły – to maksyma, której spełnienie gwarantuje danym dowolnej treści obecność w zasobach firmy i dalej na monitorach internautów. Google realizuje świadomą politykę informacyjną – nie podaje odpowiedzi, które mogłyby promować nienawiść czy działać na czyjąś szkodę. Właściciele firmy wzięli na siebie rolę sędziów poprawności i sprawiedliwości. Firma kategoryzuje i segreguje rzeczywistość na fragmenty według Google dobre i według Google złe.[13]

Piotr Celiński


.

[1] A., M. Kroker, Hacking The Future – stories for the flesh-eating 90’s, Montreal 2001, s. 10.

[2] ICANN (Internet Corporation for Assigned Names and Numbers) Internetowa Korporacja ds. Nadawania Nazw i Numerów. To instytucja odpowiedzialna za nadawanie i administrowanie nazwami domen internetowych oraz ogólny nadzór nad działaniem serwerów DNS. Utworzona w 1998 r. przez rząd USA, który formalnie scedował na nią kompetencje w zakresie nadzoru technicznego Internetu. Na temat sporów i kontrowersji wokół działalności ICANN zob. np.: K. N. Cukier, Who will control Internet?, Foreign Affairs”, November/December 2005; ICANN be independent, The Economist, Sep. 26th-Oct. 2nd 2009. Agencja podejmuje decyzje określające np. rozszerzenia adresów sieciowych, dysponując takimi jak choćby: .gov, .com, .org, a także udzielając stosownych dyspozycji odnośnie użytkowania rozszerzeń krajowych (np.; .pl).

[3] Amerykanie wytwarzają ponad 80% dostępnego w świecie oprogramowania. Podaję za: P. O’Sullivan, Building Cultural Diversity into the Development of Multilingual Applications, “The LISA Newsletter: Globalization Insider XI/2.4” 2003, Ireland: IBM/Lotus Software Group

[4] Metafora okien pochodzi już z czasów pierwszych prób przystosowania interfejsu komputera do potrzeb przeciętnego użytkownika. Szerzej na temat samego interfejsu, czyli środowiska komunikacji pomiędzy człowiekiem a komputerem zob. M. Weiser, The world is not a desktop, “Interactions” 1994, s. 7-8.

[5] Zob. P. Hall, Software Internationalization Architectures, [w:] Decision Support Systems for Sustainable Development in Developing Countries, ed. by G. E. Kersten, Z. Mikolajuk, A. Yeh, Boston 1999, s. 298.

[6] Zob. np. T. Vöhringer-Kuhnt, The Influence of Culture on Usability, http://userpage.fu-berlin.de/~kuhnt/thesis/results.pdf (05.2009).

[7] P. Robinson, M. Kenstbaum, The personal computer, culture and the uses of free time, “Social science computer rewiev” 1999, s. 209-216.

[8] W 2005 roku w ICANN zapadały decyzje na temat niedopuszczenia do publicznego obiegu witryn z rozszerzeniem .xxx zawierających treści erotyczne. Zob. J. Petrus,Wirtualna ulica czerwonych latarni, CHIP, http://newsroom.chip.pl/news_140488.html (05.2009).

[9] Zob. np. H. I. Schiller, Sternicy świadomości, tłum. U. Szczepańczyk, Warszawa 1976.

[10] J. Waxman, The Old 80/20 Rule Take One on the Jaw, [w:] Internet Trends Report 1999 Review, San Francisco 2000.

[11] Zob. np. K. Hudzik, „Biblioteka otwarta” – czyli jaka?, „Bibliotekarz” 1999, nr 7-8, s. 7.

[12] Zob. szerz. www.google.com/press/funfacts.html (05.2009).

[13] Zob. szerz. np: B. Girard, The Google Way: How One Company Is Revolutionizing Management as We Know It, San Francisco 2009; J. Jarvis, What Would Google Do?, New York 2009.