Staram się jakoś przymusić mój serwerek do pociągnięcia wiekszego ruchu - APACHE+php+Mysql. W porywach obciążenia CPU serwera mierzone w webminie osiagają 5.8 (w najgorszych momentach 19.0) - więc niby bardzo źle, ale w tym samym czasie czasy generacji stron php mieszczą się jakby w rozsądnych ramach tzn. 2-3 x norma, ale bardzo powoli przebiega doładowywanie plików graficznych i samo odświeżenie strony trwa po 20-30s (w normie 3-4)- jakby przekraczany był bandwich - a nie jest - zaledwie 30-40% szczytowo !
Zacząłem grzebać w httpd.conf i już proste korekty dały wyraźny efekt, ale jeszcze zbyt mały dla maxymalnych obciążeń - jakby podniosły poprzeczkę:
MaxKeepAliveRequests ze 100 -> 500
MaxClients ze 100 -> 250
MaxRequestsPerChild -> 256
Tylko czy ktoś by mi mógł wytłumaczyć co zliczaja te dyrektywy?
Czytałem manual - i dalej nie kumam.
MaxKeepAliveRequests - czy chodzi o wszystkie równolegle odbierane pliki z serwera przez końcowego użytkownika/IP czy jedno IP liczone jest jako jedno?
Jeśli np. jest 200 wizyt/10 minut/każda ma 15 odsłon/każda odsłona powoduje pobranie 50 plików graficznych/średnio transmisja odsłony trwa 10s to jakie wartości powinienem przyjąć?
MaxKeepAliveRequests 2500? (200x15x50x10/(10*60))
Następna sprawa która mnie nurtuje to kwestia fragmentacji kodu na drobne skrypciki - czy nie wpływa to zwalniająco na system dyskowy przy dużej ilości wizyt i dużej ilości skryptów i jednocześnie plików do emisji - jakoś nic na ten temat nie znalazłem jakby problem w Linuxie nie istniał. A przecież dysk fizycznie jest tak samo zbudowany.
U mnie w domu XP nie umie otworzyć zindexowanego katalogu z 22000 plików graficznych, a po zredukowniu ilości plików w podkatalogu ze zdjęciami w galerii użytkowników z 19000 na 8100 - portal od razu dostał kopa. Więc jak to jest?