Hej,
pytanie do osób, które mają do czynienia na co dzień z cachowaniem, w szczególności z cachowaniem wyników zapytań. Wiem, że ten temat nie jest jednoznaczny więc i sama odpowiedź może być trudna, ale może ktoś pracuje w podobnej specyfice baz i jego doświadczenia będą bardzo pomocne.
Mianowicie w obecnej strukturze aplikacji posiadamy w bazie około 180 tabel o całkowitym rozmiarze ~20GB i objętości około 50 mln rekordów. Aplikacja jest narzędziem "ERP'owym" chodź ma szersze zastosowania niż te wynikające z definicji ERP, bo posiada modułu komunikacyjne, księgowe, kadrowe, zarządcze itp. Do tej pory jedyne cachowanie jakie było stosowane to cache dotyczący opcode, ale w związku z coraz bardziej rozszerzającą się bazą danych staje przed nami zadanie rozważenia i ew. wprowadzenia cachowania wyników zapytań do bazy.
Dla mnie największym problemem czy raczej pytaniem jest kwestia rozsądnego zarządzania cache. W tej chwili korzystamy z AWS aplikacja stoi wraz z bazą i storage na jednej instancji medium. Na razie nie chcę tego za bardzo zmieniać bo chciałbym zobaczyć co pod względem wydajności można wyciągnąć z takiej konfiguracji. Oczywiście można postawić odrębne instancje tylko pod bazę i odrębnie kolejne pod cache, ale nie o to mi chodzi.
To co od samego początku projektowania aplikacji było bardzo istotne to dostęp do najświeższych danych. Czyli ktoś wprowadza np. dokument do bazy a ktoś inny ma do niego od razu dostęp - to samo tyczy się wynikających z tego danych zarządczych. Takich dokumentów pojawi się w bazie około 5 tys. dziennie. Piszę o tym bo to dobrze zobrazuje jedne z moich problemów czyli to, że jeżeli nawet (upraszczam proces na potrzeby tego przykładu) będę zapisywał do cache wynik zapytania dotyczących dokumentów klienta to co kilka sekund przy dodawaniu nowego rekordu musiałbym ten wpis nadpisywać.
Drugą kwestią jest to, że ze względu na duże skomplikowanie systemu uprawnień i flag w samej bazie, każdy user odpytując bazę z tymi dokumentem wysyła inne zapytanie (różnią się niewiele, ale wystarczająco, żeby była potrzeba tworzenia nowych kluczy dla cache).
Czyli łącząc dwa powyższe problemy robi nam się sytuacja gdzie stosując cache dla zapytań INSERT, UPDATE, SELECT, DELETE dotyczących tej konkretnej tabeli co kilka sekund nadpisują się setki zapisanych w cache pozycji, a każda z nich niesie tak na prawdę tysiące rekordów.
No i tu to pytanie do Was, jak z Waszej praktyki powinno to wyglądać? Czy nie powinienem się przejmować i takie cachowanie pozostaje w granicach dozwolonych praktyk i mimo wszystko będzie wpływało pozytywnie na zasoby systemowe (tj. dzięki cache spadnie zapotrzebowanie na nie względem tego samego, ale pracującego na samej bazie). Albo może jednak to nie jest dobr praktyka i powinienem się w przypadku cache ograniczyć tylko do tych zasobów bazy danych które są w miarę statyczne (np. dane useów, klientów, kontrahentów) tj. dane które rzadko kiedy się aktualizuje, kasuje czy dodaje nowe.
Jeżeli chodzi o sam mechanizm do cachowania najprawdopodobniej będziemy się skupiać na APC. Wygląda na to, że w kwestii cachowania danych jest on porównywalny z memcached natomiast dużo lepiej sprawuje się w przypadku opcode, a dodatkowo ma się stać częścią php więc jako rozwiązanie natywne będzie łatwiejsze z zarządzaniu i ew. elastyczniejsze przy migracjach.
Z góry dzięki za podjęcie tematu i ew. dyskusję
![wink.gif](http://forum.php.pl/style_emoticons/default/wink.gif)
. Mam nadzieję, że dobrze zobrazowałem problemy
![smile.gif](http://forum.php.pl/style_emoticons/default/smile.gif)
.