Witam!
Wiadomo że przy traffic peak wykonanie np 20 zapytań do bazy przez np. 2000 użytkowników naraz dość obciąża serwer. Jeżeli stronka śmiga na cudzym hostnigu to nie jest to problemem no chyba że nam transfer cały zeżre. Przydało by się keszowanie. Tylko jak ten problem rozwiązać.
Moje pomysły:
1. Po dodaniu czegoś do cms'a zapisać stronę w bazie i trzymać rekord do puki nie będzie nowej zmiany. Ale jak z tym pseudo keszowaniem będą radziły sobie Crawlery np. GugielBot?
2. Generowanie plików html. Jak dla mnie zbyt czasochłonne.
3. Headery z datą ostaniej aktualizacji pobieraną z bazy.
Które z tych rozwiązań ktoś stosował, a jak ktoś napisał coś własnego to może jakieś sugestie?