Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: [www] Najgorsza strona
Forum PHP.pl > Inne > Oceny
Stron: 1, 2
kujawska
www.worstsite.pl
Ranking stron pod względem ilości błędów w kodzie HTML.
Wprowadzony adres jest automatycznie walidowany przez W3C.
Dla stron z błędami odczytywane są ,także automatycznie, title
i description i w tej postaci publikowane w kolejności błędów.
Proszę o ocenę.
DiH
Zrób oddzielny ranking dla najgorszych stron pod względem grafiki i wrzuć swoją jako pozycję nr. 1.

Edit: Ilość błędów w walidatorze, a "najgorsza strona" i "śmieć internetu" to dość odległe sprawy. Jeśli szukasz śmieciowych stron, po patrz na nie też pod względem łatwości nawigacji, seo, ogólnej oprawy wizualnej itp. Możesz mieć pierdyliard błędów w walidatorze, przez niedodawanie alt do obrazków i podobne bzdety, które mimo, iż mają jakieś znaczenie, to jednak daleko im do poważnych błędów.
kujawska
Grafika jest adekwatna do ilości błędów html na kilogram tagów (errors/tags) prezentowanych przez WorstSite stron.I ma być straszna.
!*!
A jaki jest sens tej strony? Dzięki temu mam im wysyłać oferty ? wink.gif
kujawska
Gratuluję spostrzegawczości.
Okazuje się, że zawodowi webmasterzy(firmy) nie potrafią zrobić porządnie swojej firmowej strony!
Więc jak fatalne musi być ich portfolio.Współczucie dla nabywców tych dzieł.
IceManSpy
No patrz, google też ma tyyyle błędów:
Cytat
Website http://www.google.pl is W3C Invalid (39 Errors, 1 warning(s)), checked as HTML5 and with iso-8859-2 encoding.

Może warto do nich maila napisać?

Znowu zaczynasz rozmowę na temat walidacji. Pokaż, jakie Ty zrobiłeś / łaś strony, to pogadamy. Tylko nie tą z apteką ph34r.gif
!*!
Oj jakiś hexior shakował Ci chyba stronę sad.gif

Cytat
1 News - Damianos Site http://www.worstsite.pl/ 9999


laugh.gif

btw. kogo obchodzą strony "web majstrów" ? Mi tam akurat pasuje to że wypuszczają takie buble dla swoich klientów. Poza tym, błędy w walidacji czasami są konieczne, patrz w google, chyba nie powiesz że to partacze tylko dlatego że zastosowali "optymalizacje".
kujawska
Dziękuję za napaść i troskę o moje dokonania.Apteka jest już zmieniona dzieki światłym uwagom.Niektórzy żałują tamtego humoru.Znajomy malarz mówi, że w jego fachu najważniejszy jest grunt.Nie zagruntuje i za miesiąc sypią się ściany.Co jest tym gruntem w webmasteringu? Google zrezygnowało już dawno z walidacji stron wyszukiwanych bo by już nic nie wyszukało.Ale Google czy eksperymenty (fb) Facebook to są za wysokie progi dla pseudo webmasterów, osiagających znakomite wyniki w psuciu nawet głupotoodpornych szablonów.Deklarujesz Doctype to nie udawaj greka.Co pomyślisz o kimś co deklaruje znajomośc angielskiego a mówi łamanym polskim jednocześnie twierdzi, że obydwa języki ma obcykane i urodził się w dwu krajach jednocześnie.
pitbull82
Jaki DTD ma Twoja strona? XHTML Strict. Jak jest wysyłana? Jako text/html, więc jak mniemam sam za dużo nie wiesz w temacie a bierzesz się za robienie tego typu strony...
everth
Dzisiaj strony każdy robić może - może czas przepchnąć w Sejmie jakąś formę koncesji? wink.gif

@UP
Z XHTMLem pożegnałem się dość dawno ale wersja 1.0 dopuszczała bodajże serwowanie jako text/html.
!*!
Cytat(kujawska @ 25.09.2011, 18:42:01 ) *
Dziękuję za napaść i troskę o moje dokonania.Apteka jest już zmieniona dzieki światłym uwagom.Niektórzy żałują tamtego humoru.Znajomy malarz mówi, że w jego fachu najważniejszy jest grunt.Nie zagruntuje i za miesiąc sypią się ściany.Co jest tym gruntem w webmasteringu? Google zrezygnowało już dawno z walidacji stron wyszukiwanych bo by już nic nie wyszukało.Ale Google czy eksperymenty (fb) Facebook to są za wysokie progi dla pseudo webmasterów, osiagających znakomite wyniki w psuciu nawet głupotoodpornych szablonów.Deklarujesz Doctype to nie udawaj greka.Co pomyślisz o kimś co deklaruje znajomośc angielskiego a mówi łamanym polskim jednocześnie twierdzi, że obydwa języki ma obcykane i urodził się w dwu krajach jednocześnie.


Czyli byłoby Cie stać na wydatek kilku milionów dolarów więcej tylko po to żeby być zgodnym ze standardami? Masz do tego prawo. Ehh kolejny znawca tematu... lubię takich.
kujawska
Dziękuję za uwielbienie.
Pozdrawiam Was na AlmostSite
(ma 3 Errors, 4 warning(s) ).
Wybaczcie brak profesjonalizmu.
tehaha
@kujawska sama walidacja nie może być wyznacznikiem jakości strony. Osobiście zwracam dużą uwagę na walidację serwisów, ale czasami się nie da, niektóre skrypty nie przechodzą walidacji, a obejście tego wprowadzałoby zbędną komplikację. Bardzo często są też sytuacje gdzie klient przez wysiwyg w panelu dodaje jakieś treści z html i wtedy już w ogóle strona, która po wykonaniu przechodziła walidację ma dziesiątki lub nawet setki błędów i co mam pisać do klienta, żeby się nauczył html pisać?

Po za tym walidacja to tylko pojedyncza charakterystyka dobrego kodu html, a co z semantyką, zgodnością SEO, usability, kompatybilnością z różnymi przeglądarkami, kompatybilnością z urządzeniami mobilnymi? Można przecież zrobić kompletnie nie semantyczny kod, używając np. samych tagów <p> odpowiednio ostylowanych i co będzie to wtedy dobra strona bo walidator się na zielono zaświeci? Walidacja sama w sobie nie może służyć do oceny jakości bo jest tylko jedno z wielu kryteriów, a w gruncie rzeczy to jedno z mniej ważnych kryteriów, świadczy tylko dobrze o koderze ale dla właściciela i użytkownika nie ma to znaczenia.
kujawska
Cytat(tehaha @ 25.09.2011, 20:35:07 ) *
@kujawska sama walidacja nie może być wyznacznikiem jakości strony. Osobiście zwracam dużą uwagę na walidację serwisów, ale czasami się nie da, niektóre skrypty nie przechodzą walidacji, a obejście tego wprowadzałoby zbędną komplikację. Bardzo często są też sytuacje gdzie klient przez wysiwyg w panelu dodaje jakieś treści z html i wtedy już w ogóle strona, która po wykonaniu przechodziła walidację ma dziesiątki lub nawet setki błędów i co mam pisać do klienta, żeby się nauczył html pisać?

Po za tym walidacja to tylko pojedyncza charakterystyka dobrego kodu html, a co z semantyką, zgodnością SEO, usability, kompatybilnością z różnymi przeglądarkami, kompatybilnością z urządzeniami mobilnymi? Można przecież zrobić kompletnie nie semantyczny kod, używając np. samych tagów <p> odpowiednio ostylowanych i co będzie to wtedy dobra strona bo walidator się na zielono zaświeci? Walidacja sama w sobie nie może służyć do oceny jakości bo jest tylko jedno z wielu kryteriów, a w gruncie rzeczy to jedno z mniej ważnych kryteriów, świadczy tylko dobrze o koderze ale dla właściciela i użytkownika nie ma to znaczenia.

"sama walidacja nie może być wyznacznikiem jakości strony"
Podstawą jakości strony jest czystość jej kodu HTML.Kodu,który deklaruje się przez Doctype.Te elementy ,które wymieniasz jako "semantyką, zgodnością SEO..itd są bardzo ważne ale tylko wtedy mają sens kiedy są oparte na deklarowanym języku.Walidacja nie jest celem samym w sobie.Walidacja jest instrumentem sprawdzajacym.Inaczej mówiąc.Im jesteś lepszy tym mniej potrzebujesz walidacji.
!*!
Cytat(kujawska @ 25.09.2011, 21:00:51 ) *
"sama walidacja nie może być wyznacznikiem jakości strony"
Podstawą jakości strony jest czystość jej kodu HTML.Kodu,który deklaruje się przez Doctype.


Pogrążasz się. Co ma doctype do tego o czym pisał tehaha? Doctype to przeżytek, pozostałość przeszłości który dziś jest nadal tylko dlatego, aby zapewnić kompatybilność wstecz.
tehaha
Cytat
Te elementy ,które wymieniasz jako "semantyką, zgodnością SEO..itd są bardzo ważne ale tylko wtedy mają sens kiedy są oparte na deklarowanym języku.
Z tym nie mogę się zgodzić, bo jeżeli strona będzie semantyczna, zgodna z SEO, użyteczna i wartościowa dla użytkownika oraz będzie poprawnie się wyświetlać na bardzo wielu przeglądarkach oraz rozdzielczościach, to nie zależnie od ilości błędów w3c będzie to dobra i wysokiej jakości strona. Ja oczywiście szanuje standardy w3c i są dla mnie w pracy "normalką", ale nie jest to wyznacznik jakości strony, więc ranking opierający się wyłącznie o to kryterium nie ma najmniejszego sensu.
Rid
Cytat
Pogrążasz się. Co ma doctype do tego o czym pisał tehaha? Doctype to przeżytek, pozostałość przeszłości który dziś jest nadal tylko dlatego, aby zapewnić kompatybilność wstecz.


Spróbuj pisać bez doctype zobaczymy ja przeglądarki Ci będą twoją stronę renderować.Nawet html5 ma swoje doctype.

Uważam,że opieranie się tylko na standardach wc3 przy ocenie strony mija się z celem
PS.Znajdź m rozbudowany serwis ,bez ani jednego errora.
!*!
Rid proszę, upewnij się pierw zanim coś napiszesz. Nawet jeśli nie będzie doctype, render strony i tak będzie wykonany poprawnie przez przeglądarki. Owszem, jak już zauważyłeś nawet html5 ma swoje doctype, ale to nie znaczy że jest one potrzebne, doctype to pozostałość mniej więcej taka sama jak mozilla w UA w IE. Walidator tego wymaga tylko i wyłącznie dla kompatybilności wstecznej i nic poza tym.
Michalko
Heh, akurat wypuszczenie worstsite.pl to jakby zaśmiecanie Internetu...
Rid
Przytoczę tylko fragment:
Cytat
ale to nie znaczy że jest one potrzebne, doctype to pozostałość mniej więcej taka sama jak mozilla w UA w
IE.

I mogę tylko życzyć miłego pisania.
kujawska
Proste.Zaczynamy stronę od BODY.Albo wogóle bez znaczników i cześć.Ale ktoś(coś) musi te głupoty przetrawić.Przeglądarki co nie.Bo przeglądarki są łaskawe dla głupoty twórców byle czego i co robią tłumacza to na co, na HTML A ty twórco gówna jesteś zadowolony bo grafika super.Przepraszam ale wkurzyłem się.I proszę nie majstrować przy mojej bazie.Dobranoc.
!*!
Rid - dziękuje. Tylko wyjaśnij mi jeszcze jakim cudem przeglądarki nagle zgłupieją i Twojego kodu bez doctype nie zrozumieją? Brak doctype w walidacji, tak TYLKO w walidacji oznacza to iż przeglądarka powinna zastosować rendering dla html4, ale w praktyce tego nie robi. Zrób stronę w html5/xhtml i sprawdźm usuń doctype i co? Wszytko wygląda ok, tylko walidator ma problem a nie przeglądarki.
pitbull82
Ciekawy artykuł w temacie: http://pornel.net/xhtml - szkoda że autor strony nie dał całej strony w h1 - 3, z czego 2 jeden po drugim to trochę mało wink.gif
Rid
Przytoczę z jednego forum:
Cytat
Doctype wskazuje na plik DTD, w którym zdefiniowane są wszystkie znaczniki i atrybuty danej wersji języka HTML lub XHTML (lub własnych plików XML, wtedy sami tworzymy plik DTD i dołączamy poprzez Doctype do pliku).

Poprawny Doctype na stronach ma kluczowe znaczenie dla przeglądarek internetowych. Jeśli na stronie masz poprawny Doctype, to nakazujesz przeglądarce wyświetlać dokument zgodnie ze standardami. Jeśli w dokumencie nie ma Doctype lub Doctype jest niepoprawny, przeglądarka przełącza się w tryb wstecznej kompatybilności (o ile taki tryb posiada. IE posiada i ten tryb znacznie różni się od trybu zgodności ze standardami). Chodzi o to, że przeglądarki obsługiwały niektóre rzeczy szybciej niż te rzeczy pojawiły się w danym standardzie lub programiści przeglądarek uznali, że niektóre rzeczy w standardzie da się zrobić lepiej/inaczej/po swojemu. Następne wersje przeglądarek przyniosły jednak zgodność ze standardem, ale pozostawiono "starą" funkcjonalność w trybie wstecznej kompatybilności. Doctype rozwiązuje sprawę przełączania się pomiędzy trybem zgodności ze standardami a trybem wstecznej kompatybilności.

Powstający obecnie HTML5 rezygnuje powoli z Doctype, bo uznano, że Doctype jest niewygodny i niepotrzebny i są lepsze mechanizmy niż DTD pozwalające określić strukturę dokumentów (XML Schema, RelaxNG, inne), dlatego w przyszłości nie będzie trzeba myśleć o przydługawych Doctype'ach, a na razie jesteśmy skazani na taką "zabawę".

Osobiście uważam, że lepiej jest wstawić poprawny Doctype na początku dokumentu, ponieważ pracujemy wtedy w trybie zgodności ze standardami. Daje nam to poczucie pewności. Mamy w dokumentacji standardu wszystko dokładnie opisane i wiemy, czego się spodziewać po przeglądarkach. Ewentualne różnice w wyniku jaki otrzymamy będą wynikać z błędów w danej przeglądarce.
Gdy zdecydujemy się na pracę w trybie wstecznej kompatybilności musimy dobrze znać zachowania poszczególnych przeglądarek. Szczególnie wyróżnia się tutaj Internet Explorer z własną implementacją modelu pudełkowego w CSS. Jak ktoś wie jak sobie z tym wszystkim radzić, to niech sobie pracuje w trybie wstecznej kompatybilności. Dla całej reszty polecam trzymać się standardów.

!*!
@up i nadal mi nie odpowiedziałeś, jakim cudem przeglądarki zgłupieją przy jego braku? Sprawdź pierw działanie przeglądarek, a nie rozpowszechniasz stare mity.
tehaha
Cytat
Proste.Zaczynamy stronę od BODY.Albo wogóle bez znaczników i cześć.Ale ktoś(coś) musi te głupoty przetrawić.Przeglądarki co nie.Bo przeglądarki są łaskawe dla głupoty twórców byle czego i co robią tłumacza to na co, na HTML A ty twórco gówna jesteś zadowolony bo grafika super.Przepraszam ale wkurzyłem się.I proszę nie majstrować przy mojej bazie.Dobranoc.

Tylko widzisz, Ty prezentujesz punkt widzenia kodera prostych stronek gdzie utrzymanie w3c jest banalnie proste, ja natomiast patrzę na to z punktu programisty. Daje klientowi stronę zgodną z w3c, a on wrzuca artykuły przez wysiwyg, które są np. napisane w wordzie, w takim przypadku wysiwyg wrzuca całą masę śmieci i jaki ja jako wykonawca mam na to wpływ? I to nie jest pojedyncza sytuacja, bo z tego powodu więcej niż połowa moich serwisów nie przechodzi walidacji. Jakie masz na to rozwiązanie? Uważasz, że jak serwis został wykonany zgodnie z w3c ale jego artykuły posiadają html'owy śmietnik to znaczy, że cały serwis jest już nic nie warty? Jak dla mnie to bardzo mylne podejście. Proszę podaj jakieś argumenty, które mają bezpośredni związek z rzeczywistością, a nie tylko czysto teoretyczne ideologie

@Rid jak już coś cytujesz to warto podać źródło
ixpack
@kujawska - chcesz oceny?
Tragiczna szata graficzna
Tragiczny "accessibility"
Tragiczny pomysł
etc.

A teraz na poważnie: Ile Ty masz lat? O co Ty walczysz? Po co Ci to?
Czym jest dobra strona internetowa... Może inaczej czym jest produkt i kto stwierdza czy jest dobry czy nie?
Odpowiadam: użytkownicy, nie Ty, nie ja, nie w3c i inne "standardy". Einstein podobno się pomylił - Ty też możesz się mylić... Zaprzestań trollowania i rage'owania (troll, człowiek rage - to warchoły dzisiejszego internetu, warchoł w tym wypadku nie koniecznie pomaga). Gdybyś tę energię skierował na coś konstruktywnego przyczyniłbyś się do rozwoju, a nie stagnacji. Może nie jesteś młody i masz takim za złe że mają inne zdanie czy jak?
kujawska
Jednak z pokorą przyjmuję wyrażoną na forum krytykę.Zdaję sobie sprawę,że WorstSite jest drażniąca.Chcę naprawić swoje "warcholstwo" poprzez opublikowanie w podobnej konwencji rankingu PrawieStrony i WażneStrony oczywiście we właściwej przyjaznej adekwatnej kolorystyce.Żółta i zielona i z możliwością głosowania.Jestem ciekaw czy i kto wtedy będzie krytykował.Co sądzicie.
Speedy
Twoja strona zdecydowanie zasługuje na miano najgorszej strony w internecie. Jej wygląd tak odrzuca, że nie mija nawet sekunda, a już mam ochotę z niej wyjść. Poza tym, beznadziejny pomysł.
92nasti
"<!DOCTYPE HTML PUBLIC "-//W3C//DTD...= false"

Raczej powinno być:

<!DOCTYPE HTML PUBLIC "-//W3C//DTD...== false
tehaha
@ixpack Einsteina jeszcze nie skreślaj, obecne wyniki to nic oficjalnego i będą weryfikowane:)
jacked
Ooo... dalsza część "wygląd vs poprawność kodu" smile.gif

Na samym początku chcę powiedzieć, że dla mnie dobra strona internetowa to przede wszystkim strona z dobrą treścią. Jeśli jeden blog miałby starawą grafikę, i kilka/kilkanaście błędów w kodzie, ale za to bardzo dobre artykuły, częściej odwiedzałbyś ten właśnie blog, czy może jakiś inny ze słabymi artykułami, ale za to z bezbłędnym kodem i super nowoczesnym designem? Wydaje mi się, że wybrałeś pierwszy.
Co oczywiście nie usprawiedliwia pierwszego bloga - gdyby jeszcze zmienił grafikę i poprawił kod, byłoby całkiem super. Niemniej jednak najważniejsza jest treść strony, niż to jak ona wygląda czy jaki ma kod. Te sprawy są drugorzędne(co, nie znaczy, że nie ważne).

Co do strony... gdy ją zobaczyłem sam się przestraszyłem. Ona rzeczywiście odpycha. I nie wiem, dlaczego Ty jesteś aż tak uczulony na ten kod. Okej jest on ważny, ale przesadzasz... strona www to nie tylko kod smile.gif To, że jedna strona ma zły kod nie oznacza, że jest całkiem do bani(czytaj to co napisałem wyżej). Smieciem nazwałbym stronę która ma ma: słabą treść(przede wszystkim), źle napisany kod oraz odpychającą grafikę. A Ty zbierasz wszystkie strony tylko z błędnym kodem i nazywasz "śmieciami". Dlaczego?

Zgodzę się z tym, że osoba/firma która oferuje usługi tworzenia stron internetowych sama zawsze powinna dbać o poprawność kodu. Największy żal, jest wtedy gdy firma każe sobie płacić za to żeby strona była zgodna z W3C haha.gif Więc ja to rozumiem tak: "jak dasz 200zł więcej, to zrobimy Ci poprawnie stronę, jak nie, to zrobimy to byle jak" - no i to są oczywiście "profesjonaliści". Smiech na sali, naprawdę. A to, że strona firmy tworzącej strony ma błędy w W3C to dla mnie nic nowego, oczywiście nie powinno to mieć miejsca, ale niestety. Podobno na najlepsze firmy nie muszą się promować w internecie, bo nie szukają klientów - klienci sami do nich przychodzą.
kujawska
Poprawiłem bezpieczeństwo bazy. Dodałem [ostatnio dodana strona].
Sądzę, że taka strona pokazująca niechlujstwo językowe jest bardzo potrzebna.
Volume
Najgorsza strona to taka, która:
- nikomu się nie przyda (merytorycznie nic nie wnosi),
- ładuje się za długo.

Do póki są spełnione pewne warunki np. strona jest dostępna dla zainteresowanych, to burdel w kodzie jest najmniej ważny. Problem się zaczyna gdy strona jest nieczytelna dla kogoś kto potrzebuje wyciągnąć z niej jakieś informacje. Jeśli komuś zależy na semantycznym zrozumieniu strony przez "roboty" (np. szczytnym celem zrozumienia jej przez osoby niepełnosprawne) bez problemu znajdzie w google projektanta www, który zadba o standardy sieciowe, zastosuje się do wytycznych WAI i zaprojektuje możliwie dostępną stronę dla wszystkich.

Oczywiście ideałem byłoby gdyba każda strona stosowała się do pewnych zasad dotyczących dostępności (tudzież poprawnego kodu wg validacji W3c). Jednak z drugiej strony pomyślcie sobie ile ciekawych stron by nie powstało gdyby przeglądarki wyświetlały tylko strony, które przeszły validację. Przeciętny user, który chciał się podzielić swoja wiedzą z innej dziedziny niż projektowanie www musiał by przejść (dla niektórych, a może większości?) mozolny kurs poprawnego pisania stron. Ile osób by wytrwało? Myślę, że nawet nie połowa z obecnych. Teraz oczywiście są mniej luba bardziej poprawne CMS'y - portale spolecznościowe i inne skrypty, które ułatwiają dodawanie informacji takim osobą. Kiedyś tego nie było a ja pamiętam merytorycznie ciekawe strony, które prawie jedynymi znaczniki jakie posiadały to były <br />, bo po co więcej, żeby coś było jako tako czytelne?

Idąc w stronę pomysłu - rankingu poprawności validacyjnej stron, może lepiej stworzyć coś na zasadzie najlepsza strona wg wszelkich możliwych kryteriów. Oczywiście podstawą do zakwalifikowania byłaby merytoryka. Natomiast szczególnie warto zadbać o wytyczne WAI, o tym czy strona posiada "Oświadczenie o dostępności", czy jest optymalnie kodowo napisana - bo co z tego, że przechodzi validację jak brak semantyki, niepotrzebny divilitis, już nie wspominając o budowaniu szablonu na tabelach.
Oczywiście ten pomysł poza promowaniem dostępności, WAI i optylamlizacji stron jest równie zbędny co aktualny gdyż takich perfekcyjnych jak i spartolonych stron może być multum.
kujawska
Ja się zgadzam że gówno wygląda podobnie jak guwno. Czy to oznacza, że jest nam obojętna pisownia czyli jakiś standard, poprawność pisania.
Dostępność w burdelu ciekawe spostrzeżenie. Rozumiem coś takiego jak webprymitywizm czyli tworzenie www bez znajomości podstaw. Nikifor malarz prymitywista kłania się. Ale tworzenie za pieniądze webguwna to wykorzystanie sytuacji, że dla usera także zleceniodawcy liczy się odbiór a nie jakość. Inaczej mówiąc lakierowane guwno kupujemy oglądamy jako coś wartościowego. Jeśli komuś to odpowiada jego sprawa. Ja jestem innego zdania i stąd worstsite.pl
thek
Kujawska... Z tym Nikiforem to z deczka nie trafiłaś smile.gif Prace Nikifora BYŁY uznane i cenione przez krytyków, ale nie były doceniane przez kupców. Gdyby to odnieść do web developingu, to tak, jakby jego strony/aplikacje webowe były cenione przez fachowców od programowania webowego, ale nie było chętnych do dawania mu zleceń. Tak więc kulą w płot z tym przykładem trafiłaś. My mówimy bowiem o sytuacji, gdzie może i zleceniodawcy są, ale warsztat jest do bani smile.gif
kujawska
Cytat
ale warsztat jest do bani

I to jest to!
Nikifora przepraszam jeśli niewłaściwie.
jacked
Nie rozumiem o co tu się jeszcze chcecie kłócić? Już sami sobie wszystko wyjaśniliście - dobra strona ma: dobrą treść, ładną grafikę, poprawny kod, jest użyteczna i łatwa w obsłudze(dobre usability) no i powinna się szybko wczytywać. Każdy kto tworzy strony internetowe(developer) powinien pisać poprawny kod, chociażby dla tego żeby wypaść dobrze w oczach innych developerów, czy po porostu dla zasady. Ale także developer powinien jeszcze większą wagę przykładać do grafiki strony internetowej - to w końcu ją widzi użytkownik i to właśnie grafika wywołuje pierwsze wrażenie internauty. Grafika jest zdecydowanie ważniejsza od kodu, bo użytkownik kodu nie widzi, a nawet się na nim nie zna. Za to interesująca, schludna i estetyczna, grafika zachęci go do dalszej eksploatacji strony. Dalej, strona powinna być użyteczna, tak by użytkownik nie miał problemu z odnalezieniem się na stronie. No i oczywiście powinna się szybko ładować, gdyż nikt nie lubi czekać.
No i najważniejsza rzecz czyli treść, wartość merytoryczna strony. Już przeprowadziłem na ten temat wywód kilka postów wyżej.
thek
Cytat
oczywiście powinna się szybko ładować
... co jest wynikiem poprawnego kodu smile.gif Niepoprany kod musi zostać przez przeglądarkę poprawiony i zinterpretowany, co zabiera niepotrzebnie czas. Poprawny kod jest od razu przekształcany do formy wyświetlanej, bez ingerencji przeglądarki w strukturę strony.
Shili
Cytat(thek @ 18.12.2011, 19:59:37 ) *
... co jest wynikiem poprawnego kodu smile.gif Niepoprany kod musi zostać przez przeglądarkę poprawiony i zinterpretowany, co zabiera niepotrzebnie czas. Poprawny kod jest od razu przekształcany do formy wyświetlanej, bez ingerencji przeglądarki w strukturę strony.

Nie tylko.

Również ilości requestów (stąd popularne ostatnio sprite'y), optymalizacji grafiki, agregacji stylów i skryptów (znowu te requesty)
Stosowanie dyrektywy (skądinąd ostatnio dość popularnej) @import w stylach również spowalnia stronę, gdyż przeglądarka musi sparsować style.
Często też brak obecności plików powoduje, że strona wczytuje się wolniej gdy mamy przyjazne 404.
Sama szybkość odpowiedzi serwera też na to wpływa.

Odpowiednie sparsowanie strony przez przeglądarki to tylko kropla w morzu innych błędów.

Natomiast strona worstsite ma złą strukturę nagłówków (idziemy po kolei - od h1, przez h2, h3 do h4).

  1. <a class="str"
  2.  
  3. href="java script:gData('paging_g.php','p=2')">następna</a>

Po to istnieją eventy (eventListener dla przykładu) aby nie było takich kwiatków.
Lepszy już jest atrybut onclick. To swoją drogą ni cholery nie jest link. <span> odpowiednio ostylowany byłby tutaj dużo lepszy.
A jeszcze lepsze <a> z odpowiednim href, które zadziała i bez js.

  1. <p class="descr"></p>

Puste elementy powinny zniknąć. Coś o szybkości ładowania strony m.in.
Poza tym skoro element jest pusty, to w ogóle nie powinno go być.

Stanowczo zbyt dużo id i class. Wiąże się to ze zbyt małą wiedzą o CSS zapewne. I o tzw. kaskadzie.

  1. style="color:red;"

Style inline to też nie najlepszy pomysł.


  1. <div id="footer">
  2.  
  3. <div id="stopka">
  4.  
  5. <a href="http://validator.w3.org/check?uri=referer">
  6.  
  7. <img id="xht" src="xhtmlblue.png" alt="Valid XHTML 1.0 Strict" /></a>
  8.  
  9. <a href="http://jigsaw.w3.org/css-validator/check/referer">
  10.  
  11. <img id="css" src="cssblue.png" alt="Poprawny CSS!" /></a>
  12.  
  13. <a href="http://www.facebook.com/pages/WorstSitepl/216114041778225?sk=wall"><img id="fac" src="facebook.jpg" alt="Facebook" /></a>
  14.  
  15. &nbsp;&copy;&nbsp;worstsite.pl
  16.  
  17. </div>
  18.  
  19. </div>

Jeden element #footer lub #stopka zbędny

Dodaj stronę/gratulacje/uaktualnij - to powinien być label

Jak widać można wykonać stronę, która przechodzi walidację, natomiast jest niepoprawna z założeniami języka i zastosowaniami elementów. Sama walidacja to PIERWSZY krok do stworzenia dobrej strony.

Btw, style w pliku .css generują 6 ostrzeżeń.
kujawska
Oczywiście. Ale to jest jak mówią matematycy cnu - "co należało udowodnić".
Strona validsite.pl wyświetla się jak webnikofory.pl
ale jedna trzyma standardy a druga dzięki łaskawości przeglądarki jest.
Czy to, że ta druga jest wyświetlana upoważnia do olewania poprawności?
Worstsite.pl tylko zauważa jaki jest stosunek poprawności do niedbalstwa.
Rzeczywistości takiej worsite.pl pewnie nie naprawi ale jest.

Shili czekałem na Ciebie. Ty widzisz źródło strony. Całe body jest z konieczności ajax bądź include php. Może można inaczej i lepiej. Ale ja jestem tylko złośliwy amator.
Czy można lepiej. Pewnie. O tym mówi ta strona.

I love the <body> Shili
Cytat
<body>
<div id="banner">
<a href="http://www.worstsite.pl">
<img id="vs" alt="NAJGORSZA i Najlepsza Strona WWW Ranking"
src="nin.png" /></a>
<div id="hp">
<h1>Najgorsza i Najlepsza Strona</h1>
<h4>Czyje to dzieło?</h4>
</div>
</div>
<h4 id="rej">A niechaj oglądacze wżdy postronni znają, iż webmasterzy
nie gęsi, iż swój język mają</h4>
<div id="Result_g">
<?php
include();
?>
</div>
<div id="Result_l">
<?php
include();
?>
</div>
<div id="add">
<?php
include();
?>
</div>
<div id="footer">
<?php
include();
?>
</div>
<noscript id="no">
<p>Dla pełnego działania strony włącz obsługę JavaScript!</p>
</noscript>
</body>
thek
@Shili: ja brałem pod uwagę tylko poprawność kodu na szybkość wyświetlenia. Optymalizacje grafiki, requestów, dołączania danych zewnętrznych pominąłem. Tylko czyste sparsowanie otrzymanego kodu strony z serwera i nic więcej.

Nie do końca się jednak zgodze z pustymi elementami. Te niestety nie zawsze da się wpleść ładnie poprzez js lub jego biblioteki z racji dynamicznej struktury strony. W momencie gdy jedynym stałym jej elementem jest pewien szablon główny, a reszta jest mocno dynamiczna, to może się nagle okazać, że pusty div, który mamy wypełnić, nagle nie może zostać utworzony, bo kod js nie znajduje elementu zależnego, do którego miałby ów tymczasowy element dowiązać. Już wolę mieć ten pusty i poprawny niż jego brak i wywalony skrypt js wink.gif Mogę starać się jakoś odnosić do struktury niezmiennej (szkieletu), ale nie mam pewności czy uzyskam prawidłowe efekty za każdym razem. Poza tym należy zwrócić uwagę, że kaskadowość arkuszy ma swoje minusy. Ściągając sobie jakiś skrypt nie mam pewności co do nazewnictwa i tego czy użyty w nim arkusz styli nie nadpisze moich reguł. Miałem już takie przypadki i tutaj wole uważać.
kujawska
Korzystając z tego miłego, że Najgorsza strona jest na tapecie proszę o poradę.
Otóż pobieram za pomocą get_meta_tags title i description strony.
Bywa tak co zresztą widać na stronie, że nie jest odczytywany description np. dla radiomaryja.pl chociaż ma.
Pomyślałem, że jest to związane z wielkością liter w name. Ale nie.
mb_convert_encoding może wydawać się dziwny ale się sprawdza.
Cytuję ten fragment kodu.
Cytat
function getMetaData($url){
$meta=get_meta_tags($url);
$page=file_get_contents($url);
$titleStart=stripos($page,'<title>')+7;
$titleLength=stripos($page,'</title>')-$titleStart;
$meta['title']=substr($page,$titleStart,$titleLength);
return $meta;
}

$tags = getMetaData($url);
$ti=mb_convert_encoding($tags['title'],"utf-8","utf-8,iso-8859-2");
$de=mb_convert_encoding($tags['description'],"utf-8","utf-8,iso-8859-2" );
Shili
Cytat(thek @ 19.12.2011, 12:34:07 ) *
Już wolę mieć ten pusty i poprawny niż jego brak i wywalony skrypt js wink.gif Mogę starać się jakoś odnosić do struktury niezmiennej (szkieletu), ale nie mam pewności czy uzyskam prawidłowe efekty za każdym razem. Poza tym należy zwrócić uwagę, że kaskadowość arkuszy ma swoje minusy. Ściągając sobie jakiś skrypt nie mam pewności co do nazewnictwa i tego czy użyty w nim arkusz styli nie nadpisze moich reguł. Miałem już takie przypadki i tutaj wole uważać.

Dlatego wymyślili funkcję length smile.gif
Sprawdzasz czy element istnieje, podobnie jak w php isset i empty.
Element może nie istnieć nawet ze względu na zwykłą pomyłkę i rozwalić wszystkie inne skrypty na stronie. Jeden if załatwia sprawę smile.gif

Naprawdę nie jest trudno podłapać zasady "dobrych praktyk".
Nie robię bardzo dużych projektów (jeszcze) w sensie całe strony, natomiast w pracy czynnie zajmuję się kodami js dla sporych polskich firm. Wymagało to ode mnie takiego dostosowania, aby skrypty działały, nawet jak Klient przez przypadek coś wyrzuci czy zmieni mu się koncepcja. Skrypty, które piszę w takim przypadku najwyżej się nie odpalą, nie zablokują natomiast dalszego parsowania na stronie.

Co do cssów, właśnie m.in. po to jest kaskada. Przyznam się szczerze, że nie zdarzyło mi się, aby jakiś skrypt coś szczególnie poważnego mi nadpisał, natomiast podejrzewam, że się to zdarza i to względnie często.
Natomiast dzisiaj z firebugiem debugowanie tego nie powinno być trudne.
Swoją drogą aż się sobie dziwię, jak ja kiedyś pisałam css i debugowałam js bez instrumentów typu firebug biggrin.gif

@kujawska
W dokumentacji php jest wzmianka, że meta nie są łapane, jeśli na stronie zostanie użyta spacja przed i po znakiem =
Strona Radio Maryja ma te spacje.
binprogrammer
Moja stronka pierwsza smile.gif
kujawska
Dziękuję Shili. Rzeczywiście. Sprawdziłem ze spacją nie wchodzi. Ale przy okazji zauważyłem,że bez spacji w niektórych przypadkach także.
Co ciekawe w tym przypadku na localhost jest ok. Popracuję nad tym ale jeśli wiesz tak z biegu to będę wdzięczny.
thek
@Shili: niestety, ale nie zawsze takie narzędzia jak firebug "zdążą" Ci pokazać co trzeba. Wczoraj próbowałem przykładowo zmodyfikować styl usera dla wtyczki Stylist w Google+. Niestety elementy AJAXowe, takie jak autocomplete były straszne do wyłapania i w zasadzie nie zdołałem poznać struktury styli dla nich. Próba jakiegokolwiek przechwycenia kończyła się tym, że element znikał ze struktury i tym samym poznanie jego wewnętrznej oraz klas do których mógłbym "uderzyć" skończyło się fiaskiem. Ostatecznie musiałem sie posłużyć tym elementem o którego najdalej się dogrzebałem i użyć *, bo więcej już z firebuga nie zdołałem wycisnąć.

Co do length to też używam, ale nie zawsze da sie dokładnie "przewidzieć" strukturę strony dynamicznej i wtedy append, insertBefore (mamy jQuery to czemu nie używać? wink.gif ) mogą dla wybranych przypadków wygernerować nieoczekiwane rezultaty. Ogólnie jednak rozumiem o czym piszesz.

Gdy mowa o kaskadzie to ma ona swoje dobre i złe strony. Jedną z nich jest "przydzielanie ważności" dla reguły. Nawet ta będąca później może nie mieć jej "wyższej" niż wcześniejsza i tym samym nie nastąpi nadpisanie stylu. Dołączając teraz do własnego kodu obce skrypty, trudno mieć od razu pełną kontrolę nad tym co się nagle stanie. W zasadzie trzeba by znać CSS zanim sięę go dołączy i wyszukiwać konflikty.
kujawska
Wybaczcie Shili i thek . Ja się na tym nie znam i trudno mi waszą wiedzę przełożyć na worstsite.pl
Wiem jedno. Pisać trzeba w obowiązującym standarcie teraz xhtml.
Wiem drugie. Strona musi być atrakcyjna. Wtedy każdy nawet najdurniejszy robot wyszukiwarki zauważy zgodność z standardem W3C i klikalność.
Bo te roboty mimo różnych spiskowych teorii zwanych SEO tylko to widzi. Bo niby po co więcej. Niektórzy twierdzą, że ten robot indeksujący to ma jakiś skomplikowany algorytm. I wtedy dajemy SEO mu np. chmura tagów na całą stronę a jak nie wychodzi to ktoś podpowiada CHYBA dodatkowo semantykę mu dać np. h1 do h6 albo coś innego z Wikipedi bo robot widzi semantykę i się denerwuje albo puste tagi zapełnić albo label zrobić bo bo bo ?
Konkludując. Bo Bo Bo. Zrób stronę coby standardy W3C trzymała a jeśli klikania będzie dużo to i wysoko zajdziesz i w worstsite.pl się znajdziesz na tym zielonym.
Shili
@kujawska

Niestety, nie ma tak łatwo.
Co prawda powoli dochodzi do mnie informacja, że mogę sobie walić grochem o ścianę, natomiast jestem bardzo blisko branży SEO z technicznego punktu widzenia (w sensie siedzimy biurko w biurko no i w dodatku oczekuje się ode mnie podstawowej znajomości po angielsku, z przymrużeniem oka oczywiście).

http://support.google.com/webmasters/bin/a...p;answer=100782
Cytat
(Although we do recommend using valid HTML, it's not likely to be a factor in how Google crawls and indexes your site.)

Tłumaczenie: Jakkolwiek polecamy tworzyć poprawne strony HTML nie jest to prawdopodobne, aby zmieniało sposób w jaki google przechodzi i indeksuje stronę.

Jeśli masz ochotę porozmawiać z ludźmi odpowiedzialnymi za przeglądarkę jak działa ich produkt - zawsze można wysłać maila.
Robot ma w poważaniu zgodność ze standardem, jeśli strona ma ciekawą treść, w odpowiednich do tego elementach i bez tzw. złych praktyk (np. cloaking).
Robot ma w poważaniu zgodność ze standardem, jeśli do strony linkuje dużo innych stron z ciekawą i wysoko ocenianą treścią.
Nie wiem o co chodzi z klikalnością, więc trudno napisać, że ma ją w poważaniu.

Kasa Stefczyka jest u mnie pierwsza na frazę pożyczki - a ma 43 błędy (Pożyczki to jedna z najtrudniejszych fraz na polskim rynku).
Fraza Warszawa - I pozycja - UM Warszawa - 13 błędów. II pozycja - wiki - 3 błędy i lepsze linkowanie wewnętrzne (coś a'la chmura tagów)
Gry - pierwsza pozycja strona gry.pl - 48 błędów

Świat nie jest czarnobiały.
Gdyby robot był taki prosty, to liczących się klonów google byłoby znacznie więcej.
O ile nie należy komplikować gdzie nie trzeba, o tyle upraszczanie jest równie niedobre.

To pierwsza rzecz.

Druga rzecz to taka, że semantyka to nie tylko Google.
Nie życzę Ci tego, natomiast zasłoń sobie na jeden dzień oczy. Nawet niech opaska przepuści trochę światła. I spróbuj skorzystać ze stron, które semantykę olewają.
Niewidomi, niedowidzący, osoby mające problemy z koordynacją ruchową to też użytkownicy internetu.
Brak labeli, h2, czy cała strona w ajaksie to nie jest dla nich najprzyjemniejsze doświadczenie.

Oby w przyszłości kiedy już będziemy starzy, zmęczeni, z trzęsącymi się rękami i wadą -50 strony były pisane poprawnie, żebyśmy nie trafiali na strony napisane źle i męczyli się tak, jak męczą się dzisiaj niepełnosprawni.
thek
@kujawska: kilka rzeczy:
1. O xhtml nie można mówić jako standardzie. Chyba tylko w walidatorze gdy mu tak zdefiniujesz. Standardem jest i html 4.01 jeśli tak odczyta walidator z doctype'a, jak i xhtml 1.0 czy 1.1 czy html5.
2. Co ma robot do oglądalności? Robota interesują strony do jakich może się dostać. Nie ma on wglądu do statystyk. Chyba tylko google gdyby miał możliwość integracji robota z analytics smile.gif O przełożeniu się pracy robota na klikalność można jedynie pisać w kontekście: "Robot zaindeksował masę podstron. Te według własnego algorytmu wysoko oceniła i pokazuje wyżej, więc częściej userzy na nie trafiają." A co z serwisami, które mają miliony fałszywych podstron? Robot je wszystkie odwiedzi, ale wyszukiwarka oceni jako najgorszy śmieć i nie puści wysoko. To się przełoży na klikalność? Nie. Bo chyba Ci chodzi o parametry typu CTR?
3. Dla Twojej wiedzy... Chmury tagów w SEO miały wpływ 2 lata temu, potem zaczęły słabnąć. Po wprowadzeniu pandy w Google niemal straciły całą moc i są traktowano prawie jak śmieci.
4. Jedyny sensowny wpływ semantyki na SEO jest pośredni. Semantyczna strona szybciej się ładuje/generuje (robot ją analizuje w poszukiwaniu określonych elementów, więc semantyczną może "przelecieć" łatwiej), przez co robot w tym samym czasie może odwiedzić więcej podstron.

@shili: nie mam w sumie zastrzeżeń do tego co napisałeś... Zarówno w tym o podejściu robotów do strony i treści na niej jak i dostępności dla aplikacji "czytających" strony osobom niedowidzącym czy pomagających niepełnosprawnym ("przetabuj" się po elementach strony czasami kujawska to zrozumiesz).

Jeśli @kujawska uważasz, że Twoje zdanie na temat wpływu standardów na roboty jest obowiązującym to pierwsza lepsza osoba lepiej orientująca się w SEO po prostu wiedzą na temat robotów Cię zagnie, bo to ich podstawa pracy wiedzieć pod jakim kątem algorytmy wyszukiwarek działają i co należy robotowi podsunąć do obskoczenia a co należy przed nim zasłonić, by niepotrzebnie nie indeksował milionów, skoro chodzi tak naprawdę o pewien ograniczony zbiór.

Żeby nie być gołosłownym podam Ci co aktualnie choćby google robi... Indeksuje sobie strony i napotyka w jednym serwisie dwie podobne ale o różnych adresach. Obie dostają punkty karne a jeśli masz aktywne Webmaster Tools dostajesz tam info o double content. Sytuacja jest ciekawsza gdy znajduje podobne treści na różnych stronach/domenach. Wtedy analizuje i WYBIERA, na podstawie pewnych swoich parametrów, która jest oryginałem, a która kopią. Kopia dostaje po tyłku. A co jeśli to nasza strona jest oryginalna, ale zostaje uznana za kopię, bo kopiujący lepiej się na SEO zna i wie jak podpowiedzieć wyszukiwarce, że to jednak on jest pierwotną wersją? Peszek smile.gif To tylko dwa proste przykłady, że jednak SEO to nie jest do końca magia i wróżenie z fusów. Kto wie jakie zmiany w algorytmach zachodzą, będzie górą, gdyż tak zmanipuluje danymi na stronach, że algorytmy dają się oszukać. Niedługo zresztą będzie "sądny dzień" dla wielu stron. Kto wie co wyprawia google na początku stycznia ten się tylko uśmiechnie teraz gdy to wspominam.

EDIT: Zapomniałem dodać, że obecnie i tak z poziomu Webmaster Tools można określić jak często robot ma odwiedzać naszą stronę, tak więc ten parametr też już stracił na znaczeniu. Strona może być kiepska, ale walniemy, że robot ma ją odwiedzać kilka razy częściej niż normalnie i mamy luzik. No chyba, że nam transfer zaczyna zżerać wink.gif
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.