dzisiaj zrobiłem sobie pseudo-router do przyjaznych linków.
Pseudo, ponieważ sam skrypt nie rozbija adresu - silnik na którym działa nie jest ani na MVC, ani OOP.
Informacje odnośnie adresu idą za pomocą htaccess przez GET do odpowiedniego pliku i zawsze powinny wyglądać następująco:
Cytat
?seo=to-jest-przykladowy-adres
W pliku tym zabezpieczam ciąg (mysql_real_escape_string) i szukam w bazie w tabeli którą utworzyłem w tym celu.
Jej struktura wygląda tak:
- url_url - varchar(200), unique
- url_typ - varchar(200)
- url_id - smallint(5)
Tabela jest przeszukiwana pod kątem wartości url_url. Jeżeli znajdzie rekord, to wie o jaki moduł serwisu chodzi (np. informacja, artykuł itp.) a także o jakim jest on id. W zależności od typu załączany jest odpowiedni plik i generuje się konkretna treść.
Tak to wygląda w teorii i praktycznie działa tak jak zaplanowałem.
Zastanawiam się jednak, czy budowanie bazy adresów w mysql to oby na pewno dobre rozwiązanie?
Rekordów nie będzie więcej niż 2000, robiłem test przy wygenerowanych około 3000 ciągach i przy wartości unikalnej wyszukiwanie trwa około 0.0007s, a więc niezbyt długo.
Oczywiście mogę również wszystko wpakować do tablicy i zapisać ją do pliku, tylko czy wgrywanie całej i przeszukiwanie jej przy każdym requescie ma w ogóle sens? W tej roli chyba najlepiej sprawdza się baza danych...
Nie wiem, doradźcie

Odświeżam, bo znowu mam dylemat....