Jak witryny przestrzegają standardów
Pod koniec stycznia opublikowaliśmy wyniki badań przestrzegania standardów przez najpopularniejsze polskie i światowe witryny WWW. Teraz postanowiliśmy sprawdzić, czy coś się w tej kwestii zmieniło.
Jak poprzednio zbadaliśmy za pomocą oficjalnego walidatora strony główne 100 najczęściej odwiedzanych witryn w polskim i ogólnoświatowym Internecie.
W witrynach popularnych wśród internautów z całego świata walidator znalazł w sumie 13 351 błędów. To nieco mniej niż sześć miesięcy temu, gdy było ich 13 589. Musimy pamiętać przy tym, że podawana przez serwis Alexa.com lista najpopularniejszych witryn ulega codziennym zmianom, więc mniejsza liczba błędów nie musi świadczyć o zastosowaniu lepszej jakości kodu. Może być efektem zmian na liście.
Przeprowadzenie walidacji nie było możliwe w przypadku 4 witryn. Pół roku temu takich witryn było 6.
Walidator znalazł 7 bezbłędnie napisanych witryn. Bez żadnego niedociągnięcia stworzone zostały: MSN.com, Wikipedia.org, WordPress.com, Craigslist.org, yandex.ru, BBC.co.uk, Skyrock.com. Z kolei autorzy 8 stron popełnili nie więcej niż 10 błędów. Tutaj należy wymienić MySpace.com (10), Orkut.com.br (10), Apple.com (3), Odnoklassniki.ru (2), RedTube.com (10), LinkedIn.com (5), 4shared.com (7), Mininova.org (10).
Z kolei od 100 do 500 błędów znajduje się na witrynach: YouTube.com (205), Microsoft.com (291), eBay.com (232), Mail.ru (215), Hi5.com (377), Taobao.com (299), Imdb.com (207), Go.com (168), youku.com (352), MediaFire.com (200), eBay.de (278), Megavideo.com (285), AdultFriendFinder.com (201), Livedoor.com (275), Rediff.com (119), Tagged.com (103), deviantART.com (233) i Goo.ne.jp (126).
Także i tym razem w zestawieniu znalazła się spora liczba witryn, na których mamy do czynienia z ponad 500 błędami. W światowej pierwszej setce jest ich siedem. To następujące witryny: AOL.com (885), 163.com (736), Rakuten.co.jp (642), ESPN.com (559). Rekordzistom udało się popełnić ponad 1000 błędów na stronie głównej. Niechlubny rekord należy do Amazona z 1590 błędami. Niedaleko w tyle pozostali Uol.com.br (1203) i Cnet.com (1108).
Przejdźmy teraz do witryn, które cieszą się największą popularnością w Polsce. Tym razem walidator mógł zweryfikować wszystkie strony i znalazł na nich w sumie 8431 błędów. To niewiele mniej niż przed sześcioma miesiącami (9087).
Spadła też, o jedną, liczba bezbłędnie napisanych witryn. Są to: WP.pl, Allegro.pl, Wikipedia.org, O2.pl, MSN.com, Gratka.pl, Kurnik.pl, Nazwa.pl, WordPress.com. Autorzy 13 witryn starali się nie popełnić więcej niż 10 błędów: Interia.pl (1), RedTube.com (10), FilmWeb.pl (1), Chomikuj.pl (4), Orange.pl (4), MySpace.com (10), PoSzkole.pl (5), Misie.pl (4), Krakow.pl (8), WyspaGier.pl (5), ZieloneImperium.pl (8), Ankieta-online.pl (1), Pomponik.pl (4).
Od 100 do 500 błędów znajdziemy na: YouTube.com (205), Gazeta.pl (442), Wrzuta.pl (126), Fotka.pl (194), Torrenty.org (122), OdSiebie.com (110), Microsoft.com (291), Blox.pl (135), Rozklad-PKP.pl (204), JoeMonster.org (343), Gumtree.pl (122), PF.pl (100), Republika.pl (331), Megavideo.com (285), Kafeteria.pl (212), Dziennik.pl (305), deviantART.com (233) i Elektroda.pl (123).
Autorzy witryny Pudelek.pl popełnili 641 błędów. Polskim rekordzistą jest jednak witryna DobreProgramy.pl, na której walidator znalazł 1162 błędy.
Liczba błędów oraz lista najpopularniejszych witryn bez przerwy się zmieniają. Jednak nawet pobieżne porównanie wystarczy, by stwierdzić, że najpopularniejszy nie znaczy bezbłędnie napisany. Chociaż przykład WP, Wikipedii, MSN czy Allegro pokazuje, że możliwe jest stworzenie strony głównej spełniającej wszelkie standardy.
Trzeba jednak pamiętać, że istnienie bezbłędnej strony głównej nie gwarantuje, że podstrony serwisu napisane zostały całkowicie zgodnie ze sztuką.
Komentarze (12)
Wolverine, 3 sierpnia 2009, 19:58
Dlaczego w3c nie przygotuje "standardu" który działa na wszystkich przeglądarkach tylko wymyśla rzeczy które nigdzie nie są obsługiwane dobrze a strony nieprzestrzegające tych reguł nazywa błędnie napisanymi? Ja zawsze pisałem i będę pisał strony które ogląda się za pomocą przeglądarek a nie walidatora w3c.
Tolo, 3 sierpnia 2009, 22:30
Wolverine
Tu jest właśnie porblem. Ale ja go widzę nieco inaczej.
W3C opracowuje standard. A to inni go nie stosują to już inna bajka. W3C przecież nie może ogłosić standardem implementacji jakiejś przeglądarki bo inne dalej nie będą trzymać standardów. Nie może tez przewidzieć co inni spieprzą.
To ze ten sam kod w rożnych przeglądarkach daje rożne efekty to poważny problem ale wygląd strony to nie wszystko. Tam gdzie to możliwe powinno się tak robić żeby się walidator nie czepiał bo kolejna wersja silnika przeglądarki może już to zinterpretować inaczej.
contactlost, 3 sierpnia 2009, 23:05
Kolego wolverine, a wiesz, że czę
contactlost, 3 sierpnia 2009, 23:06
Wolverine, mam nadzieję, że jeste
contactlost, 3 sierpnia 2009, 23:09
Sorry ale ucina mi wypowiedzi Wolverine, wiesz, że strona interntowa to nie tylko wygląd? Wiele z nich odwiedzanych jest tez przez osoby niepelnosprawne, korzystajace z syntezatorow, osoby niedowidzace badz z innymi problemami. To glownie dla nich tworzone sa standardy. Ze ty widzisz wszsytko w porzadku to nie znaczy ze mozesz bez problemu poruszac sie po stronie bedac osoba niewidoma.
Wolverine, 4 sierpnia 2009, 00:23
contactlost, co walidator powie np na zapis
<span style="font-size: x-large">To jest nagłówek</span>? Czy to jest element semantycznej strony przystosowanej do takich rzeczy jak wspomniane przez Ciebie syntezatory?
"Wolverine, wiesz, że strona interntowa to nie tylko wygląd?"
Wiem, dlatego napisałem, że strona ma wszędzie działać a nie wyglądać, a do tego niepotrzebny jest prostokąt z napisem "xhtml valid".
Nie zrozumcie mnie źle, chodzi o to, że skoro rekomendacje w3c nie są w 100% zaimplementowane to zgodność z nimi nie może być wyróżnikiem dobrze napisanej strony.
Eselix, 4 sierpnia 2009, 02:09
Chciałbym nadmienić, że sprawdzanie ilości błędów na stronie walidatorem nie jest zbyt miarodajne. Wystarczy jeden błąd, np. niezamknięty tag, aby walidator ogłupiał i policzył 100 błędów.
Drugim aspektem jest to, że o jakości strony nie świadczy to czy przeszła walidację. Ważna jest łatwości nawigacji, czas ładowania, odpowiedni wygląd w zależności od treści strony, ogólna użyteczność, również, jak wspomniał contactlost, dla osób niewidomych, nie używających myszki, itd. Trzymanie się standardów za wszelką cenę generuje pewne patologie, jak np. ostatnio miałem okazję poprawiać stronę, gdzie każdy obrazek miał atrybut alt="". I co z tego, że strona pewnie i się walidowała, jak zastosowanie tej "sprytnej sztuczki" zupełnie się mijało z celem.
Podobnie jest z xhtml, u kolegi w firmie panuje taka zasada: strona musi być w xhtml i musi się walidować. A że xhtml nie był obsługiwany przez IE6 (nie wiem jak z nowymi wersjami), to trzeba było stosować sztuczki, takie że plik już nie był prawdziwym xml. Ale firma mogła się dumnie reklamować jako tworząca strony zgodne z najnowszymi standardami.
Jeszcze o jednym fakcie chciałbym wspomnieć. Walidator z definicji uzna za błąd jakieś niestandardowe atrybuty. A w dobie Ajaxa i ogólnej interaktywności stron internetowych, takie rzeczy są bardzo przydatne. Na przykład nadanie w polu <INPUT> atrybutu required, które zablokuje wysłanie formularza, gdy to pole pozostanie puste, albo <IMG> z dodatkowym atrybutem wskazującym na obrazek w pełnej rozdzielczości po kliknięciu miniatury.
Walidatory są przydatne, ale i tak nie zapewnią, że dana strona będzie wyświetlać się poprawnie w każdej przeglądarce, a nie każdy może sobie pozwolić na olanie IE i nie traktowałbym ich jako wyznacznika dobrze napisanej strony.
ciembor, 4 sierpnia 2009, 03:06
Niestety, Microsoft się postarał...
Przemek Kobel, 4 sierpnia 2009, 10:04
Walidator przydaje się, żeby zachować jako taką spójność strony (np. w IE bardzo ważne jest, aby ustawić prawidłowe DTD, bo inaczej włączą się jakieś dziwne emulatory starych wersji IE). Ale jeśli stronka renderuje się tak samo na wszystkim od IE6 po Chrome'a i różne wynalazki mobilne, to ścieranie się z wynikami walidatora uznałbym za dyscyplinę sportu.
Przykra rzeczywistość jest taka, że należy używać najmniejszego wspólnego podzbioru technik budowania stron (HTML/CSS/JS). Takiego, który działa na jak największej liczbie przeglądarek. Pisze się trochę dłużej, trzeba dużo testować, ale potem użytkownik nie musi oglądać ostrzeżeń o niezgodności przeglądarek.
vViktor, 4 sierpnia 2009, 11:07
Zdarza się też że na stronach jest niepoprawny kod z tego powodu że jest odpowiednio krótszy i ma na celu optymalizacje. Niestety nie każda przeglądarka sobie poradzi. Pozatym jest wiele rozwiązań które umożliwiają napisanie i krótszego, optymalnego kodu oraz poprawnego kodu np. używając z głową CSS czy nawet JS, AJAX.
pk1001100011, 4 sierpnia 2009, 14:36
MSN.com - napisana niezgodnie ze standardami: -
Wikipedia.org - napisana niezgodnie ze standardami: -
WordPress.com - napisana niezgodnie ze standardami: -
Craigslist.org - napisana zgodnie ze standardami: +
yandex.ru - napisana zgodnie ze standardami: +
BBC.co.uk - napisana niezgodnie ze standardami: -
Skyrock.com - napisana niezgodnie ze standardami: -
WP.pl - napisana niezgodnie ze standardami: -
Allegro.pl - napisana niezgodnie ze standardami: -
Wikipedia.org - napisana niezgodnie ze standardami: -
O2.pl - napisana niezgodnie ze standardami: -
MSN.com - napisana niezgodnie ze standardami: -
Gratka.pl - napisana zgodnie ze standardami: +
Kurnik.pl - napisana niezgodnie ze standardami: -
Nazwa.pl - napisana niezgodnie ze standardami: -
WordPress.com - napisana niezgodnie ze standardami: -
To, że walidator W3C nie pokazuje żadnego błędu nie oznacza, że strona jest zgodna ze standardami. Niektórych rzeczy walidator W3C nie sprawdza. Nie sprawdza na przykład czy strona XHTML jest wysyłana przez serwer jako application/xhtml+xml, application/xml albo text/xml, a według standardów W3C powinna (jeśli tylko istnieje taka możliwość - negocjacja zawartości).
Tam gdzie napisałem, że strona jest niezgodna ze standardami istnieje właśnie taka sytuacja. Mimo, że moja przeglądarka internetowa obsługuje XHTML, to i tak dostaję dokumenty XHTML w postaci dokumentów HTML (typ MIME - text/html). Pliki XHTML nie są wysyłane z odpowiednim typem MIME i nie jest stosowana negocjacja zawartości. Jest to niezgodne ze specyfikacją XHTML.
Mówienie, pisanie, że strony którym dałem minusy są "bezbłędnie napisane" to "nadużycie".
wilk, 4 sierpnia 2009, 19:25
Do walidacji XHTML można użyć np. http://schneegans.de/sv/ który pokazuje także nagłówki (pięknie ujawniające pseudo-XHTML).
Inny dobry walidator to np. http://validator.nu/