Nowy wspaniały Web
2006-11-27 23:30:08Technologie bazodanowe, w pełni interaktywne WWW, automatyzacja wyspecjalizowanych serwisów, prężnie działające społeczności internetowe, sieć semantyczna, XHTML, XML, CSS, JS, AJAX, RDF, OWL, RSS, PHP…
Przytłaczająca ilość pojęć, skrótów i skrótowców została ostatnio upchana w chwyt marketingowy jakim stało się hasło WEB 2.0. Zastanawiające jest tylko czy jedna nazwa jest w stanie pomieścić tak wielką liczbę mądrych wyrazów. Czy cała nagonka nie jest tylko usuwaniem wrogich słów (jak układ tabelkowy, Flash, ActiveX)? Z drugiej strony czy powrót do podstawowych założeń Internetu jest błędny? Jednak czy naturalną ewolucję sieci, stopniowy rozwój użytecznych i wygodnych technologii, odrzucanie mniej lub bardziej nieudanych eksperymentów, czyli ewolucję trzeba od razu obwoływać rewolucyjną nowością? Przyjrzyjmy się bliżej historii sieci i w tym kontekście zastanówmy się nad pojęciem WEB 2.0.
A long time ago…
Dawno, dawno temu kilka wyspecjalizowanych ośrodków badawczych w USA ( bo gdzieżby indziej? ;)) rozpoczęła pracę nad technologią umożliwiającą szybką i elastyczną wymianę danych między komputerami znajdującymi się nie raz na dużych odległościach. W wyniku powstała pierwotna wersja Internetu, która w założeniach miała być możliwie zdecentralizowaną, stabilną siecią z na bieżąco aktualizowanymi danymi. Nikt nie zdawał sobie sprawy z możliwości jakie otwierają się przed każdym człowiekiem dysponującym komputerem podłączonym do telefonu. Pod koniec lat 90 wybuchła światowa euforia. Domorośli webmasterzy zalali globalną sieć witrynami nieczytelnymi, przekombinowanymi (tabela w tabeli wewnątrz tabeli obok tabeli), praktycznie pozbawionymi treści. Bardziej doświadczeni zachłysnęli się Flashem, ActiveX czy DHTML. Przedsiębiorcy zaatakowali agresywnymi reklamami (plaga pop-up’ów). W końcu Internet stał się wszystkim tylko nie medium wymiany rzetelnych danych.
Hegemonia chaosu sieciowego rosłaby nieprzerwanie gdyby nie pojawienie się wyszukiwarek internetowych, w tym Google, które umożliwiły sprawne przekopywanie się przez gąszcz informacji. Pojawił się też Google Page Rank, który pozwolił weryfikować strony na podstawie ilości prowadzących tam odnośników (co w było swoistym miernikiem popularności danej strony, nikt przecież nie zamieści na swojej witrynie odnośnika do jakiegoś gniota). Naturalne stało się odejście od stron przeładowanych niepotrzebną grafiką, wodotryskami, flashowymi intrami. Nastąpił powrót do prostoty, do podstawowych założeń Internetu. I tu właśnie pojawia się termin WEB 2.0.
Brave New Web
Podstawą WEB 2.0 ma być XHTML Strict, XML pod postacią kanałów RSS i języki skryptowe generujące strony w locie na podstawie danych gromadzonych na serwerach. Społeczności internetowe, blogi tematyczne i serwisy oparte na Wiki zastąpią scentralizowane portale.
Oczywiście takie „otwarcie” sieci na użytkowników i ich wiedzę rodzi pewne problemy techniczne. Takie pojęcia jak ontologie, sieci semantyczne czy RDF będą głównymi kierunkami rozwoju sieci, jednak są one tematem na inny artykuł. Skupmy się na teraźniejszości. Oto kilka serwisów obwołanych ikonami WEB 2.0:
• Wikipedia - każdy zna, każdy korzysta
• last.fm - serwis pozwalająca na prowadzenie statystyk wszystkich odsłuchiwanych utworów i na ich podstawie generujący zestawienia i rekomendacje (np. jeśli słuchałaś/eś dużo Deep Purple to może polubisz Led Zeppelin). Oprócz tego udostępnia tzw. tag cloud czyli graficzną reprezentację treści serwisu za pomocą dynamicznego zbioru znaczników, będących jednocześnie odnośnikami do odpowiadających im części serwisu) radio internetowe i złożony mechanizm komunikacji miedzy użytkownikami
• Flickr - witryna stworzona w celu gromadzenia, katalogowania i udostępniania zdjęć, działa na podobnej zasadzie co last.fm (czyli tag cloud)
• YouTube - reklamujący się hasłem Broadcast Yourself serwis umożliwiający publikację plików filmowych. Oparty o mechanizm tag cloud w przeciągu niecałego roku działalności zawojował niemal całą sieć (3 miejsce w rankingu najczęściej odwiedzanych stron na świecie). Niedawno wykupiony został przez Google za (bagatela) 1,65 miliarda dolarów
• MySpace - społeczność internetowa; serwis dający użytkownikom „swoją przestrzeń” w sieci, a więc bloga, konto mailowe, stronę www, możliwość tworzenia galerii zdjęć podobną do tego co oferuje Flickr
Jak widać istotą funkcjonowania tych serwisów jest inicjatywa ich użytkowników- to oni dostarczają treść oraz tworzą żyjącą własnym życiem społeczność. Twórcy przygotowują jedynie mechanizm działania witryny oparty na tag cloud i niemal identycznych technologiach (wszędzie pojawia się Perl/PHP, MySQL, AJAX).
Same Old Web
Dawno, dawno temu kilka wyspecjalizowanych ośrodków badawczych w USA ( bo gdzieżby było i jak indziej? ;)) rozpoczęła pracę nad technologią umożliwiającą szybką i elastyczną wymianę danych między komputerami znajdującymi się nie raz na dużych odległościach. Dawno to było i widać Internet jak zatoczył koło. Tim O’Reilly, który ukuł pojęcie WEB 2.0 najprawdopodobniej chciał podnieść sprzedaż książek o XML i PHP, bo triumf zwykłego hipertekstu, masowość i automatyzacja serwisów to tylko naturalna ewolucja. Rozwój a nie wprowadzanie nowych technologii i rozwiązań, co mogłaby sugerować nazwa. Chyba że przyjmiemy że „brak technologii to technologia” (w myśl idei „brak okazji też okazja” ;)) A może WEB 2.0 to tylko „state of mind”? Może czas już mówić o WEB 3.0 ? 5.0? 10.0?
Przytłaczająca ilość pojęć, skrótów i skrótowców została ostatnio upchana w chwyt marketingowy jakim stało się hasło WEB 2.0. Zastanawiające jest tylko czy jedna nazwa jest w stanie pomieścić tak wielką liczbę mądrych wyrazów. Czy cała nagonka nie jest tylko usuwaniem wrogich słów (jak układ tabelkowy, Flash, ActiveX)? Z drugiej strony czy powrót do podstawowych założeń Internetu jest błędny? Jednak czy naturalną ewolucję sieci, stopniowy rozwój użytecznych i wygodnych technologii, odrzucanie mniej lub bardziej nieudanych eksperymentów, czyli ewolucję trzeba od razu obwoływać rewolucyjną nowością? Przyjrzyjmy się bliżej historii sieci i w tym kontekście zastanówmy się nad pojęciem WEB 2.0.
A long time ago…
Dawno, dawno temu kilka wyspecjalizowanych ośrodków badawczych w USA ( bo gdzieżby indziej? ;)) rozpoczęła pracę nad technologią umożliwiającą szybką i elastyczną wymianę danych między komputerami znajdującymi się nie raz na dużych odległościach. W wyniku powstała pierwotna wersja Internetu, która w założeniach miała być możliwie zdecentralizowaną, stabilną siecią z na bieżąco aktualizowanymi danymi. Nikt nie zdawał sobie sprawy z możliwości jakie otwierają się przed każdym człowiekiem dysponującym komputerem podłączonym do telefonu. Pod koniec lat 90 wybuchła światowa euforia. Domorośli webmasterzy zalali globalną sieć witrynami nieczytelnymi, przekombinowanymi (tabela w tabeli wewnątrz tabeli obok tabeli), praktycznie pozbawionymi treści. Bardziej doświadczeni zachłysnęli się Flashem, ActiveX czy DHTML. Przedsiębiorcy zaatakowali agresywnymi reklamami (plaga pop-up’ów). W końcu Internet stał się wszystkim tylko nie medium wymiany rzetelnych danych.
Hegemonia chaosu sieciowego rosłaby nieprzerwanie gdyby nie pojawienie się wyszukiwarek internetowych, w tym Google, które umożliwiły sprawne przekopywanie się przez gąszcz informacji. Pojawił się też Google Page Rank, który pozwolił weryfikować strony na podstawie ilości prowadzących tam odnośników (co w było swoistym miernikiem popularności danej strony, nikt przecież nie zamieści na swojej witrynie odnośnika do jakiegoś gniota). Naturalne stało się odejście od stron przeładowanych niepotrzebną grafiką, wodotryskami, flashowymi intrami. Nastąpił powrót do prostoty, do podstawowych założeń Internetu. I tu właśnie pojawia się termin WEB 2.0.
Brave New Web
Podstawą WEB 2.0 ma być XHTML Strict, XML pod postacią kanałów RSS i języki skryptowe generujące strony w locie na podstawie danych gromadzonych na serwerach. Społeczności internetowe, blogi tematyczne i serwisy oparte na Wiki zastąpią scentralizowane portale.
Oczywiście takie „otwarcie” sieci na użytkowników i ich wiedzę rodzi pewne problemy techniczne. Takie pojęcia jak ontologie, sieci semantyczne czy RDF będą głównymi kierunkami rozwoju sieci, jednak są one tematem na inny artykuł. Skupmy się na teraźniejszości. Oto kilka serwisów obwołanych ikonami WEB 2.0:
• Wikipedia - każdy zna, każdy korzysta
• last.fm - serwis pozwalająca na prowadzenie statystyk wszystkich odsłuchiwanych utworów i na ich podstawie generujący zestawienia i rekomendacje (np. jeśli słuchałaś/eś dużo Deep Purple to może polubisz Led Zeppelin). Oprócz tego udostępnia tzw. tag cloud czyli graficzną reprezentację treści serwisu za pomocą dynamicznego zbioru znaczników, będących jednocześnie odnośnikami do odpowiadających im części serwisu) radio internetowe i złożony mechanizm komunikacji miedzy użytkownikami
• Flickr - witryna stworzona w celu gromadzenia, katalogowania i udostępniania zdjęć, działa na podobnej zasadzie co last.fm (czyli tag cloud)
• YouTube - reklamujący się hasłem Broadcast Yourself serwis umożliwiający publikację plików filmowych. Oparty o mechanizm tag cloud w przeciągu niecałego roku działalności zawojował niemal całą sieć (3 miejsce w rankingu najczęściej odwiedzanych stron na świecie). Niedawno wykupiony został przez Google za (bagatela) 1,65 miliarda dolarów
• MySpace - społeczność internetowa; serwis dający użytkownikom „swoją przestrzeń” w sieci, a więc bloga, konto mailowe, stronę www, możliwość tworzenia galerii zdjęć podobną do tego co oferuje Flickr
Jak widać istotą funkcjonowania tych serwisów jest inicjatywa ich użytkowników- to oni dostarczają treść oraz tworzą żyjącą własnym życiem społeczność. Twórcy przygotowują jedynie mechanizm działania witryny oparty na tag cloud i niemal identycznych technologiach (wszędzie pojawia się Perl/PHP, MySQL, AJAX).
Same Old Web
Dawno, dawno temu kilka wyspecjalizowanych ośrodków badawczych w USA ( bo gdzieżby było i jak indziej? ;)) rozpoczęła pracę nad technologią umożliwiającą szybką i elastyczną wymianę danych między komputerami znajdującymi się nie raz na dużych odległościach. Dawno to było i widać Internet jak zatoczył koło. Tim O’Reilly, który ukuł pojęcie WEB 2.0 najprawdopodobniej chciał podnieść sprzedaż książek o XML i PHP, bo triumf zwykłego hipertekstu, masowość i automatyzacja serwisów to tylko naturalna ewolucja. Rozwój a nie wprowadzanie nowych technologii i rozwiązań, co mogłaby sugerować nazwa. Chyba że przyjmiemy że „brak technologii to technologia” (w myśl idei „brak okazji też okazja” ;)) A może WEB 2.0 to tylko „state of mind”? Może czas już mówić o WEB 3.0 ? 5.0? 10.0?
Marcin Pietranik
P.S. Wszystkie cytaty są zamierzone