Professional Documents
Culture Documents
• Sam termin “społeczeństwo informacyjne” powstał w Japonii, gdzie został użyty przez Tadao
Umesao w 1963 roku, a więc już ponad 40 lat temu. Jego popularyzację świat zawdzięcza
innemu japońskiemu naukowcowi. Kenichi Koyama, bo o nim mowa, był autorem dzieła
“Wprowadzenie do teorii informacji”. W Japonii sama też praktyczna realizacja tej idei
nastąpiła najszybciej, o czym piszę w innym miejscu tego rozdziału. [Japonia]
• Literatura obfituje w definicje społeczeństwa informacyjnego. Możemy te definicje podzielić
na kilka grup. “Techniczne” podkreślają, iż decydujący dla rozwoju SI jest rozwój
nowoczesnej technologii informacyjnej. “Ekonomiczne” podkreślają znaczenie wiedzy i
informacji w gospodarce,. “Zawodowe” zwracają uwagę na przekształcenia rynku pracy
spowodowane rozwojem SI. “Przestrzenne” uznają za społeczeństwo informacyjne każde
państwo. Wreszcie, definicje “kulturowe” stwierdzają, iż współczesna kultura stała się
rodzajem wirtualnej rzeczywistości, kreowanej przez informację dostarczaną przez media.
• W klasycznym już artykule Tima O'Reilly pt. ”What is Web 2.0? Design
Patterns and Business Models for the Next Generation of Software” autor
omawia tytułową ideę i zestawia charakterystyczne cechy nowej filozofii
Internetu, która nie dotyczy tylko samych witryn tworzonych przez
użytkowników, lecz oprogramowania i technologii, które spełniają
standardy o których powiem poniżej.
• Zaczyna przede wszystkim od tego, że nie ma stałego i “twardego” zestawu
kryteriów, które kwalifikowałyby dany program lub serwis internetowy do
opisywanej grupy – jest ona raczej zbiorem rozmytym, gdzie różne cechy
zazębiają się, a serwis lub program może do tego zbioru należeć, nawet
jeśli spełnia tylko część kryteriów wyróżniających.
• Jedną z podwalin tej filozofii jest fakt, iż Web 2.0 pozwala dotrzeć “do
krańców Internetu”, - nie tylko do stron “centralnych” (czyli dużych i
znanych, zatrudniających pokaźne grono redaktorów), pomagając
zagregować informacje wytworzone przez użytkowników, którzy w
tradycyjnym Internecie nie mieliby żadnych szans na to, aby ich głos został
usłyszany.
• Po drugie, serwisy Web 2.0, szczególnie te które odniosły sukces,
posiadają wbudowane mechanizmy, dzięki którym przyrost treści jest
ubocznym efektem pracy internautów. Tylko taka architektura systemu
może zapewnić, iż rozwija się on sprawnie, gdyż nie zapominajmy, iż jest
on tworzony przez użytkowników za darmo, tak więc muszą oni ze swej
działalności czerpać pozafinansowe korzyści.
• Po trzecie, bardzo ważnym elementem jest, iż internauci tworzą
poprzez swoją działalność jakąś nową wartość, która powstaje w
interakcji między ludźmi – całość jest czymś więcej niż tylko sumą
części. Na przykład, wskutek dyskusji zostaje wytworzona wiedza,
która nie jest tylko sumą wiedzy dyskutantów, lecz całkiem nową
jakością.
• Po czwarte, ważną ideą jest kwestia, iż podobnie jak wolne
oprogramowanie (czyli tworzone przez internautów i za darmo
udostępniane), witryny Web 2.0 są stale ulepszane - są
permanentnym placem budowy. To użytkownicy decydują jakie
funkcjonalności są potrzebne, jakie im odpowiadają. Administratorzy
serwisu dostosowują te funkcjonalności do potrzeb społeczności, tak
żeby serwis stawał się coraz atrakcyjniejszy i praktyczniejszy dla jego
użytkowników. Niektóre serwisy nazywają siebie z dodatkiem "beta",
co oznacza, że witryna jest wciąż w stadium (roz)budowy i
ulepszania.
• Po piąte, co wydaje się dość oczywiste, jest to system
zdecentralizowany. Każdy serwis typu Web 2.0 ma co prawda
administratora, ale jego wpływ na treść serwisu ogranicza się do roli
“nocnego stróża”, interweniuje tylko w przypadkach naruszenia
regulaminu lub prawa. Sama zawartość serwisu nie jest kształtowana
przez żadne gremium.
W artykule pt. “Experience Attributes: Crucial DNA of Web 2.0” autorstwa
Brandona Schauera wymienione zostały podstawowe cechy, które
konstytuują i charakteryzują serwis Web 2.0. Niektóre z nich zazębiają się z
tym, co można przeczytać w tekście Tima O'Reilly, niektóre są
dodatkowymi spostrzeżeniami. Autor wyróżnia następujące cechy:
• wartość dodana przez użytkowników: użytkownicy przyczyniają się do
podniesienia ogólnej wartości serwisu;
• efekt sieci: wartość sieci dla użytkowników rośnie wraz z dołączeniem do
niej każdej nowej jednostki – jest to oczywiste, ponieważ im więcej
użytkowników, tym więcej potencjalnych interakcji między nimi i tym więcej
istniejącej i potencjalnej treści;
• decentralizacja: nie ma centrum sterującego i zasady są w dużej mierze
ustalane przez użytkowników, rolą administratora jest dostarczenie
odpowiednich narzędzi i pilnowanie przestrzegania regulaminu serwisu;
• współautorstwo: użytkownicy biorą aktywny udział w tworzeniu głównej
treści witryny (nie tylko treści w znaczeniu autorskich publikacji, lecz także
np. komentarzy);
• tzw. “remixability”: nieprzetłumaczalny termin który oznacza możliwość
dowolnego zestawienia informacji dostarczonych przez użytkowników w
dowolny sposób i wydobycie ich z bazy danych wtedy kiedy jest to
potrzebne;
• systemy emergentne: skumulowane działania na najniższych poziomach
systemu nadają formę całemu systemowi. Użytkownicy czerpią wartość nie
tylko z samego serwisu, ale także z tego, jak działają na nim inni.
• synergizm: skomasowana wartość drobnych transakcji tworzy znaczącą,
często większą od ich prostej sumy wartość ogólną
• Propozycja klasyfikacji serwisów typu Web 2.0 stworzoną
przez Sebastiana Kwietnia, piszącego na ten temat na swoim
blogu znajdującym się pod adresem web20.pl. Dzieli on tego
typu serwisy na 5 grup:
• społeczności – wirtualne kręgi znajomych, służące
nawiązywaniu nowych znajomości poprzez sieć,
prezentowaniu siebie i dyskusji - są one odpowiednikiem
kręgów towarzyskich; tutaj zaliczymy też takie odmiany jak
społeczności biznesowe czy tematyczne/branżowe
• serwisy oparte na współautorstwie – treść strony, w postaci
elektronicznej twórczości jest tworzona przez internautów,
może to być treść w postaci tekstu, plików audio, wideo,
grafiki
• specjalizacja – niszowe serwisy, służące zaspokojeniu
nietypowych potrzeb użytkowników, niektóre z nich można
traktować jako ciekawostki
• systemy przyrostowe – dzielenie się wiedzą, np. wymiana
linków, informacji, ulubionych miejsc na mapie; wzajemne
odpowiadanie na swoje pytania
• “długi ogon” - systemy, gdzie skomasowana wartość
drobnych transakcji tworzy znaczącą wartość ogólną
Podział serwisów na 3 grupy zależnie od podstawowego modelu, na jakim się
opierają. Te typy to: społeczności, współautorstwo i agregacja informacji.
Podkategorie:
• Linki - użytkownicy prezentują ciekawe, znalezione w sieci linki do
dowolnych stron. Przykładem może być del.icio.us, polski serwis
linkologia.pl czy też linkr.pl. Specyficznym tego typu serwisem jest
iloggo.pl, który agreguje linki do ulubionych witryn swoich użytkowników,
przy czym linki te przedstawione są w graficznej formie, jaką stanowi logo
tych stron.
• Linki do informacji - ciekawe publikacje znalezione w sieci. Ta
podkategoria, nieco inaczej niż poprzednia, nie poleca stron jako całości,
lecz tylko wybrane, ciekawe informacje. Użytkownicy głosują na linki,
wybierając najciekawsze, które potem pojawiają się na stronie głównej.
Polskimi przedstawicielami tego typu serwisów są: wykop.pl, etapia.pl a
także gwar.pl (będący częścią portalu gazeta.pl) i linkr.pl, a w USA
popularnym serwisem jest digg.com i wiele innych. Istnieją także
agregatory RSS - polskim przykładem jest tu hraps.pl.
• Inne serwisy to np. agregatory trendów. Ciekawym przykładem jest
trendomierz.net/trendomierz.pl. Ten serwis, według zdania które
zamieszczono na jego głównej stronie, "agreguje informacje dostępne w
polskim internecie, aby wizualizować widoczne w nich trendy."
• Kolejne kategorie związane są z organizowaniem czasu i
przestrzeni, stanowiąc pomost pomiędzy Internetem a
rzeczywistością.
• Po pierwsze, są to serwisy, na których można ogłosić
planowane wydarzenia i zaprosić na nie mniejszą lub większą
grupę ludzi. Organizując np. koncert, można ogłosić to na
stronie serwisu i w ten sposób zachęcić ludzi do przybycia. Z
kolei osoby odwiedzające stronę mają przegląd ciekawych i
aktualnych wydarzeń.
• W Polsce są to serwisy takie jak idziemy.net i wkrotce.pl, a w
USA – upcoming.org.
• Z kolei serwisy organizujące przestrzeń - geograficzne. Są to
serwisy, w których na udostępnionej przez administratora mapie
można zaznaczać interesujące miejsca. Użytkownicy mają
przegląd ciekawych miejsc, z kolei osoby je dodające mogą
zapewnić sobie w ten sposób reklamę. W Polsce typ ten
reprezentują miejsca.net oraz miejsce.info, w USA obecny jest
flagr.com.
• W naszym kraju obie powyższe idee póki co słabo się przyjęły.
Być może jednym z powodów jest fakt, iż dodatkową atrakcją
tego typu serwisów jest możliwość łączenia się z nimi przez
komórkę, a w Polsce niestandardowe usługi mobilne nie są
szczególnie popularne (co może się w kolejnych latach zmienić).
• Kolejna podkategoria, „wymiana”, również łączy świat wirtualny z
rzeczywistym. Serwisy tego rodzaju służą wirtualnej wymianie
przedmiotów i usług, które następnie zostają fizycznie dostarczone do
odbiorcy. Polskie przykłady to podaj.net (wymiana książek) oraz
bubbler.pl (wymiana wszelkiego rodzaju przedmiotów i usług). Witryny
te blisko spokrewnione są z aukcjami internetowymi, które jednak lokują
się poza mapą Web 2.0.
• Istnieje wiele serwisów, które zbierają nadesłane przez użytkowników
dowcipy i humorystyczne obrazki, nagrania audio i wideo – określane
mianem wspólnym - "humor". Możemy do nich zaliczyć takie polskie
serwisy jak maxior.pl lub smieszne.pl albo satyr.pl.
• Kolejną kategorią są serwisy typu "pytania i odpowiedzi". Zasada
działania jest zazwyczaj podobna: użytkownik zadaje pytanie (ogólne,
lub na bardziej zawężony temat), a inni użytkownicy udzielają mu
odpowiedzi. Wadą tego typu serwisów jest, iż muszą mieć sporą pulę
użytkowników, by byli w stanie odpowiedzieć na bardzo różnorodne
pytania; po drugie - należy stosować zachęty, żeby użytkownicy nie
tylko zadawali pytania, ale także na nie odpowiadali; po trzecie wreszcie
- jakości tych odpowiedzi nie sposób sprawdzić. W Polsce najbardziej
znanym tego typu serwisem jest pytamy.pl, ponadto istnieją
zadajpytanie.pl oraz pomocy.net.pl. W USA istnieje serwis askeet.com.
• Następnie, należy wymienić serwisy ogłoszeniowe, które także tworzone
są przez internautów, aczkolwiek nie są one tak interaktywne jak
wymienione do tej pory. Polskim serwisem tego typu jest gumtree.pl, a
amerykańskim – craigslist.org.
• Istnieją witryny, które umożliwiają stworzenie własnej strony startowej –
skomponowanie jej z ulubionych i najczęściej używanych linków – czyli
w istocie stworzenie spersonalizowanego mini portalu - wrót do
internetu. W Polsce tego typu serwisem jest startowy.com. W serwisie
tym wszyscy mogą przeglądać i wykorzystywać strony stworzone przez
użytkowników.
• Kolejną kategorią są strony agregujące informacje handlowe,
najczęściej o obniżkach – w Polsce to np. abytaniej.pl, okazja.waw.pl a w
USA – dealigg.com.
• Blisko spokrewnione z powyższym typem są serwisy opinii
konsumenckich, np. działający w USA epinions.com, w którym ludzie
przedstawiają swoje opinie i dyskutują na ich temat. W Polsce na chwilę
obecną podobny serwis jeszcze nie istnieje. Można rzecz jasna
wyobrazić sobie podobny serwis dotyczący wszelkich innych opinii,
jednakże wtedy bliższy byłby on forom dyskusyjnym.
• Ciekawym niszowym pomysłem są serwisy umożliwiające tworzenie
ankiet w Internecie. Jest to raczej narzędzie niż typowy serwis Web 2.0,
umieściłabym więc ten typ na peryferiach mapy. Sytuacja wyglądałaby
inaczej, gdyby respondenci ankiet rekrutowani byli spośród
użytkowników serwisu, jednakże takie rozwiązanie wykluczyłoby
naukowe i handlowe zastosowanie generowanych ankiet, chyba że
ankieter chciałby badać grupę użytkowników serwisów Web 2.0.
Polskim przykładem takiego serwisu jest webankieta.pl.
• Istnieją również serwisy agregujące blogi i zawarte na nich informacje.
Najbardziej znanym amerykańskim serwisem tego typu jest
technorati.com, z kolei w Polsce podążają tą drogą blogfrog.pl i
10przykazan.com.
• Wreszcie, najnowszym odkryciem amerykańskich internautów
jest serwis twitter.com, w którym można online napisać co w
danej chwili się robi. Przez twórców serwis określany jest jako
"Instant Status Provider" czyli "Natychmiastowy Dostawca
Statusu" w dosłownym tłumaczeniu. Status jest dostarczany
przez użytkownika najczęściej z użyciem komórki. W Polsce
istnieje podobny serwis robisz.pl, a także blip.pl.
• W kategorii „agregacja i dystrybucja informacji” istnieje w
zasadzie nieskończona pula pomysłów, bowiem tak wiele jest
różnorodnych rodzajów informacji, którymi można się
wymieniać. Te monofunkcyjne zazwyczaj serwisy łatwo jest
też tworzyć – w sieci dostępne jest oprogramowanie
umożliwiające ich całkowite zbudowanie właściwie od ręki.
• Podsumowując - każdy serwis typu Web 2.0 musi skupiać
wokół siebie społeczność, jednak im więcej ma on funkcji i im
silniej integruje użytkowników, tym bardziej zbliża się do
społeczności w rozumieniu omówionej powyżej mapy Web
2.0.
Analiza grafiki wybranych serwisów Web 2.0.
• Web 2.0. wyróżniana jest także ze względu na pewne atrybuty techniczne i dotyczące
projektowania stron
• Publikuj.net - jest to serwis służący publikacji i komentowaniu wszelkiego rodzaju
tekstów. Grafika jest stonowana, większe powierzchnie są w kolorze białym i kawowym,
poszczególne działy są dodatkowo wyróżnione nagłówkami i innymi elementami
graficznymi stanowiącymi na stronie akcent w intensywnym kolorze. Elementy te
oscylują wokół barw takich jak turkus, pomarańczowy, jasna zieleń i fiolet; występuje
efekt rozświetlenia. Na tych elementach widnieją kontrastujące białe napisy stworzone z
użyciem bezszeryfowej czcionki. W jednym miejscu, w celu szczególnego wyróżnienia
sekcji strony, zastosowano intensywną czerwień. Logo właściwie nie istnieje - nazwa
serwisu jest napisana bezszeryfową czcionką, zawsze po lewej stronie nagłówka. W
serwisie obecne są bardzo uproszczone ikonki operacyjne (strzałki, koperty). Ciemny
fiolet jest kolorem czcionki w serwisie, która jest bezszeryfowa (wyłączając same teksty
publikacji, które są tradycyjnie czarne i pisane czcionką szeryfową). Graficzne nagłówki i
ramki mają zaokrąglone rogi, połączenia kolorystyczne tworzą wrażenie świeżości i
przejrzystości.
• Patrz.pl - jest to serwis służący do umieszczania w nim plików graficznych i wideo.
Dominującym kolorem jest żywa, jasna zieleń, w którym to kolorze jest większość
elementów graficznych serwisu - jest on raczej monochromatyczny. Czcionka jest
jasnozielona i szara. Tabelki i nagłówki obecne w serwisie są zielone, operują efektami
rozświetlenia i szkła. Dla kontrastu są również grafitowe nagłówki i tabelki z efektem
rozświetlenia. W serwisie znajdują się także ikonki kategoryzacyjne oznaczające
poszczególne działy serwisu, a także ikonki operacyjne. Wszystkie one operują efektem
rozświetlenia i szkła, utrzymane są w kolorze jasnej zieleni. Jedna z nich zawiera
turkusową kropkę, która stanowi kontrastowy akcent. Logo serwisu utrzymane jest w
podobnej stylistyce i kolorystyce - zawiera jasną zieleń i szarość powtarzające się w
innych częściach serwisu.
• Osobie.pl - to społeczność internetowa. Skierowana jest ewidentnie do
młodzieży - w serwisie znajdują się zdjęcia radosnych, niekiedy
oryginalnie ubranych młodych ludzi, zajmujących się czynnościami
związanymi z rozrywką. Na obrazkach tych widnieje napis: "Wyzwól
swoją osobowość" i logo osobie.pl. Strona utrzymana jest w
intensywnych kolorach pomarańczowym i niebieskim, ikonki są
uproszczone i opływowe, utrzymane w wiodących barwach
serwisu. Logo jest także pomarańczowo-niebieskie. Czcionka w serwisie
jest bezszeryfowa i również w tych kolorach.
Myspace.com
• Jest to największy na świecie serwis typu społeczność. Wg Wikipedii, we
wrześniu 2006 roku było w nim 106 milionów kont, a codziennie przybywa 230
tysięcy nowych. W 2003 roku społeczność została założona przez Toma
Andersona i Chrisa De Wolfe wraz z kilkoma programistami. Jej częściowym
właścicielem była firma Intermix Media. W roku 2005 MySpace została kupiona
przez News Corporation Ruperta Murdocha za 580 milionów dolarów.
.
Youtube.com
• Założycielami Youtube.com byli Chad Hurley i Steve Chen. Pierwsza
publiczna odsłona serwisu nastąpiła w maju 2005 roku, a 6 miesięcy
później strona oficjalnie zadebiutowała.
• Firma rozpoczynała jako niewielkie, “garażowe” przedsięwzięcie. W
listopadzie 2005 roku firma typu venture capital, Sequoia Capital,
zainwestowała 3.5 miliona dolarów w nowe przedsięwzięcie. W
kwietniu 2006 zainwestowano kolejne 8 milionów. YouTube bardzo
szybko zdobyła ogromną popularność. W lipcu 2006 oglądano
dziennie milion filmów, a codziennie wgrywano 65 tysięcy nowych.
Każdego miesiąca strona ma około 20 milionów odwiedzin, głównie
nastolatków. 13 listopada 2006 roku YouTube została kupiona za
1650 milionów dolarów przez Google.
Flickr.com
• Flickr to serwis który umożliwia bezpłatne przechowywanie, jak i
oglądanie (a także, za przyzwoleniem autora, wykorzystywanie)
zdjęć. Serwis został założony w lutym 2004 roku przez kanadyjską
firmę Ludicorp. Na początku przedsięwzięcie dotyczyło gromadzenia
zdjęć znalezionych w sieci, potem pojawiły się zdjęcia autorstwa
użytkowników. W marcu 2005, zaledwie po roku działalności, serwis
został kupiony (wraz z właścicielską firmą) przez portal Yahoo.
Czy Web2.0 istnieje?
• Artykuł autorstwa Nicholasa G. Carra, „The amorality of Web 2.0”, opisuje tworzoną
przez użytkowników encyklopedię, Wikipedię. Zawiera ona wiele haseł, ich wybór jest
nieco inny niż w tradycyjnej publikacji tego typu. Autor porównuje tę bazę wiedzy do
śmietnika, ponieważ pełna jest ona nieistotnych faktów, a wiele haseł jest opracowanych
bardzo wybiórczo – zależnie od wiedzy i chęci redaktorów-amatorów. Dodatkowo -
pojawiają się w niej czasem ekstremalne opinie zamiast samych naukowych faktów, a
nawet stwierdzenia, które mijają się z prawdą. Nie da się ukryć, Wikipedia nie zapewnia w
100% wartościowej wiedzy, szczególnie, gdy chodzi o hasła ściśle związane z nauką.
• Argumenty sceptyczne wobec Wikipedii wytacza także Jaron Lanier, autor popularnego
eseju „Digital maoism”, czyli „Cyfrowy maoizm”. Zacznijmy od krytyki dotyczącej
Wikipedii. Lanier uważa, iż niepokojący jest fakt, że ludzie pokładają tak duże zaufanie w
jej zasobach, wierząc w ideę „mądrości tłumu”, która ma rzekomo zapewniać wysoką
jakość tej internetowej encyklopedii. Tymczasem fakt, iż Wikipedia tworzona jest
zbiorowo, nie świadczy automatycznie o jej wysokiej jakości. Posłużmy się
porównaniem: sterowany przez zbiorowe działania ludzi rynek (gospodarka) działa
sprawnie, ale wcale nie oznacza to we wszystkich przypadkach dobrej jakości
produktów. Szczególnie, jeśli chodzi o dziedziny takie jak nauka i kultura, gdzie często
wskutek kolektywnej decyzji ambitne propozycje przegrywają z mało wymagającymi
dziełami przeznaczonymi dla masowego odbiorcy. Również Wikipedia powstaje sprawnie
i szybko, jednak nie jest to równoznaczne z jej doskonałą jakością.
• To, co postrzegane jest jako wada Wikipedii, może być jednak
również jej zaletą, gdyż zwraca ona uwagę na fakty i
zjawiska, które w przeciwnym razie zostałyby bezpowrotnie
zapomniane, a które wyznaczają puls masowej kultury. Te
zjawiska nie zawsze widoczne są dla uczonych, ponieważ są
oni nieliczną i specyficzną grupą, bez udziału ludzi bardzo
młodych. Po drugie, Wikipedia nie zawiera być może tak
rzetelnej informacji naukowej jak tradycyjna encyklopedia, ale
jest przydatna do codziennego użytku – poszukiwania
potrzebnych informacji. Jest napisana prostym językiem i
pozwala popularyzować wiedzę. Po trzecie, mimo błędów,
jakość Wikipedii jest jednak kontrolowana przez jej
użytkowników, tak że kompletny nonsens niedługo zagrzeje
tam miejsce. Wikipedia może być zatem traktowana jako
źródło codziennej, praktycznej wiedzy, a także wiedzy o
najnowszych zjawiskach w kulturze popularnej i masowej.
Kiedy potrzebujemy bardziej wiarygodnej naukowej wiedzy,
możemy sięgnąć do opracowanych przez naukowców,
dostępnych online lub w wersji papierowej wydawnictw
encyklopedycznych. (Ostatnio pojawiła się także idea, aby
Wikipedię wydawać w wersji papierowej).
Czy Web 2.0 wnosi coś jakościowo nowego do Internetu – coś, czego
nie było w nim wcześniej
• Jaron Lanier, krytykując ideę Web 2.0, swoje rozumienie tego terminu odnosi przede
wszystkim do serwisów z kategorii - „agregacja informacji”, co jest tutaj ważnym
założeniem. Autor wnosi, iż serwisy te stworzone są z poszarpanych fragmentów
informacji, które oderwane od kontekstu tworzą wspólny sos.
• Użytkownik i jego opinie, to co chce wyrazić, nie są tak ważne jak sam „content” czyli
zawartość. Nawet w serwisach opartych na współautorstwie autor nie zawsze jest
widoczny.
• Weźmy za przykład wspomniany już wcześniej flickr.com. Jest to w istocie baza
różnych zdjęć, które oglądane są w oderwaniu od swoich autorów i tego, co chcą oni
za pomocą zdjęcia przekazać. Zdjęcia „żyją własnym życiem” - są pogrupowane
według kategorii tematycznych i to one właśnie są głównym kryterium przeszukiwania
fotografii.
• Jak już było powiedziane wcześniej, można wyszukiwać zdjęcia oznaczone na
przykład słowem kluczowym „kot”. Chcąc znaleźć, w jakimkolwiek celu – po prostu
obejrzenia lub wykorzystania – zdjęcie kota, przeglądam wszystkie fotografie opisane
tym słowem kluczowym. Nie bierze się przy tym pod uwagę autora zdjęcia – nie
oceniana jest wartość artystyczna fotografii, jej wartości emocjonalnej dla autora, jej
kontekstu – wykorzystywane jest instrumentalnie to zdjęcie kota, które wydaje się
najbardziej użyteczne do danego celu, na przykład zilustrowania nim własnego bloga.
Z drugiej strony jednak, być może to, że możemy oglądać zdjęcie kota, jest produktem
ubocznym istnienia serwisu flickr. Głównym powodem, dla którego zdjęcia kota
znalazły się w serwisie, był ten, iż użytkownik chciał pokazać swojego kota
najbliższym przyjaciołom, i wykorzystał sieć jako narzędzie do tego celu. To, że
zdjęcie to wykorzystała osoba "z zewnątrz" jest tylko dodatkowym bonusem dla tej
osoby, nie było zaś celem autora fotografii.
• Serwis ten dąży do realizacji kluczowej dla teorii Web 2.0 idei
„remixability”. Prowadzi ona do tego, że treść staje się
całkowicie autonomiczna i można ją prezentować w rozmaitych
konfiguracjach, niezależnych od kontekstu, w jaki wyposażył ją
autor.
• Lanier twierdzi, iż Internet w założeniu miał łączyć ludzi,
tymczasem Web 2.0 nie łączy ich, lecz pozbawia
indywidualności. Autor jednak sam zauważa, iż Web 2.0 nie
musi dążyć do całkowitej „remixability”, że mogą powstawać
serwisy, które na pierwszym miejscu stawiają autora dzieła i
pozwalają mu wyrazić i pokazać innym swoją twórczość i
osobowość, i to właśnie powinno być remedium na
dehumanizację tego nurtu.
• Podsumowując - typowa dla Web 2.0 wiara w kolektyw
przypomina utopie, które widziano już w historii – komunizm,
faszyzm i inne. Jednostka była w nich niczym, podobnie jak w
Web 2.0, liczy się swoista „władza ludu” oraz wspólne „dzieło”,
nie zaś indywidualne opinie i gusta.
Zwolennicy Web 2.0:
Artykuł Paula Grahama - zawierającemu kilka trafnych
spostrzeżeń na temat natury Web 2.0.
• Autor porównuje tradycyjną gazetę tworzoną przez redakcję z
gazetą tworzoną przez internautów. W tradycyjnym modelu
redaktorzy wybierają teksty, które zostaną skierowane do
publikacji. Jest to po pierwsze wybór bezpieczny – czyli
zazwyczaj unika się wszelkich ekstremalnych poglądów; po
drugie – autorytatywny – ponieważ mała garstka ludzi próbuje
trafić w gusta szerokiej grupy odbiorców, co rzecz jasna nie
zawsze się udaje.
• Można jednak wytoczyć argument, iż tradycyjne media są
realizowane przez profesjonalistów, z kolei te tworzone przez
internautów są amatorskie. Ten argument można uznać za
trafny, jeśli chodzi o kwestie finansowe – redakcje mają
zazwyczaj środki na zrealizowanie ciekawych materiałów
filmowych czy dotarcie do znanych osobistości.
• Co jednak z artykułami publicystycznymi, opartymi na
opiniach i analizach? Serwisy Web 2.0 zazwyczaj dysponują
ogromną liczbą autorów – niektórzy z nich są bardzo słabi,
część mierna, ale zdarzają się dobrzy, a nawet wybitni
• Dobrzy w jakim znaczeniu? Tacy, którzy piszą ciekawe i lekkie artykuły – to
dla mniej wyrobionych czytelników, i tacy, którzy piszą rzetelne, ambitne
teksty – to dla bardziej wymagających odbiorców. Tak czy inaczej, to właśnie
owi odbiorcy wybierają tych najlepszych. Zazwyczaj jest to wybór większości,
czyli niekoniecznie ambitna propozycja. Jednakże w porównaniu z np.
tradycyjnymi tygodnikami opinii jest to wybór bardziej dostosowany do potrzeb
i gustów swoich czytelników.
• Co z tekstami reprezentującymi ekstremalne stanowisko? Jeśli są on warte
uwagi, zazwyczaj czytelnicy je zauważają. Dlatego też wiele tekstów, które nie
miałyby możliwości zostać opublikowane, ma szansę zaistnieć. Autor
wspomnianego artykułu wprowadza porównanie z gospodarką wolnorynkową,
która jest reprezentowana przez tworzone przez internautów media (każdy
może opublikować swój tekst, a wyboru dokonuje rynek). Z kolei tradycyjne
media to gospodarka „centralnie planowana”.
• Ponadto, dziennikarze profesjonalni również na początku swej drogi są
amatorami, dopiero doświadczenie i praca, poparte talentem, czynią z nich
profesjonalistów.
• Paul Graham uważa także, iż Web 2.0 oznacza używanie internetu do tego
celu, do którego został stworzony – do wymiany myśli, informacji, wiedzy, co
jest możliwe jedynie w strukturze sieciowej.
• Ten sam autor stwierdza coś jeszcze. Wytacza argument, iż dorobkiem Web
2.0 jest stworzenie nowych, świetnych metod porządkowania treści. Jednym z
najpoważniejszych problemów związanych z globalną siecią jest kwestia
porządkowania i wyszukiwania informacji. Sieć zawiera informację, która jest
bardzo rozproszona, trudno do niej dotrzeć i jest jej bardzo dużo, co
uniemożliwia efektywne jej wykorzystanie.
• Podążając za tym tokiem myślenia, najlepszym rozwiązaniem
służącym selekcji i redukcji ilości informacji jest stworzenie
mechanizmu umożliwiającego wybranie najcenniejszych jej
części. Z kolei wyszukiwanie rozproszonych informacji
wymaga wyszukiwarki, która za pomocą jakichś
mechanizmów będzie je porządkować na podstawie
następujących kryteriów: przydatności dla poszukującego
oraz wartości informacji samej w sobie.
• Tradycyjne mechanizmy rozwiązujące te problemy w sieci to
wyszukiwarki i katalogi. Najpopularniejsza wyszukiwarka,
Google, stosuje mechanizmy oceniania ważności informacji
na podstawie liczby stron w sieci, które do niej odsyłają i ilości
oraz zmienności publikacji pojawiających się na tych
stronach. Przyznaje stronom różną rangę, która decyduje o
miejscu ich pojawiania się w wynikach wyszukiwania. Można
to porównywać z serwisem Web 2.0 – użytkownicy mają
różną „rangę”, która wynika z ilości publikacji i z ocen. Ci
użytkownicy mogą być uporządkowani według swej rangi, a
informacje pochodzące od tych o najwyższej randze będą
traktowane tak jak informacje pochodzące ze stron o
najwyższej randze w Google.
• Katalogi dzielą informację na grupy, ale są to grupy
zamknięte. Dany fragment informacji (np. adres strony
internetowej) może należeć do jednej, ewentualnie do kilku
kategorii, ale ta ostatnia sytuacja jest raczej wyjątkiem niż
regułą.
LINKI
• wykop.pl FILMY
• gwar.pl • filmowo.pl
• linkr.pl • smog.pl
• linkologia.pl • youtube.com
• del.icio.us • streemo.pl
• digg.com
FOTO
SPOŁECZNOŚCI • fotka.pl
• grono.net • obiektywni.pl
• swoi.pl • jpg.pl
• osobie.pl • fotosik.pl
• spinacz.pl • patrz.pl
• friendster.com • flickr.com
• myspace.com • slajd.net
86%
2005 r.
Urzędy gminne
2004 r.
87%
79%
80%
73%
70%
70% 67% 67% 66%65%
65% 65%
63%
62% 60%
59%
60% 56% 50% 58% 58%
55% 55% 55%
51% 51% 52%
50% 48% 47%
44% 44%
41%
36%
40% 37% 35%
36% 36%
31% 30% 31%
30% 27%
18%
20%
13%
10%
0%
0%
0%
0,8
średnia UE
0,6
0,4
0,2
0
• Jeszcze skromniej nasze osiągnięcia wyglądają w
prezentacji wskaźnika pełnego wdrożenia wyróżnionych
usług
• Tu posiadamy pokrycie jedynie w jednej piątej
wyróżnionych, podstawowych czynników społeczeństwa
informacyjnego. Jest to ponad czterokrotnie mniej od lidera
rankingu, a można podejrzewać, że po części są to
szacunki oparte na danych deklaratywnych, a nie
rzeczywistych
• Są to jednak średnie i dlatego sytuacja nie wygląda tak
tragicznie
• Dopiero zawarte w raporcie wyniki szczegółowe – dla
każdego z czynników wskaźnika pełnego dostępu do usługi
pokazują jak daleko mamy od czołówki Europy w tym
zakresie, czołówki, która dla większości usług administracji
publicznej ma już stuprocentowe pokrycie w mediach
elektronicznej administracji
Zamiast zakończenia tego kawałka