Jeśli już tak uparcie wolisz szukać "obejścia" problemu to czy faktycznie nie lepiej skompilować phpa ze źródeł z tej rewizji? Jeśli nie będzie to rozwiązanie łatwiejsze to przynajmniej rozwiązujące problem trwale. Po co na siłę komplikować sobie życie? O Sushoshinie też przeczytałem komentarz i jest to pewne rozwiązanie (suhosin.post.max_vars i suhosin.request.max_vars) , ale nie obejście na szybko, bo pewnie o to pytasz. Jedyne, co mi przychodzi w tym momencie na myśli to użycie mod_security dla apacha i ustawienie w .htaccesie:
SecFilterEngine on
SecFilterScanPOST on
Można jeszcze próbować ograniczać ilość przesyłanych danych za pomocą metody POST, ale nie zawsze można ograniczyć poniżej wartości umożliwiającej skuteczne przeprowadzenie ataku na słabą maszynę, a czasami w ogóle jest to niemożliwe. W sumie jest też kolejny sposób, opisany w załączonym oryginalnym dokumencie. Pod koniec tych matematyczno-algorytmicznych wywodów jest sekcja "How to fix it?" I pokazano tam, w jaki sposób można bronić się prze atakami złożoności algorytmicznej (? "algorithmic complexity attacks").
W php ini:
zmniejszamy wartości
max_input_time oraz
max_input_vars
post_max_size
max_input_time
Dopiero te wszystkie czynności razem wykonane dają alternatywę dla kompilacji źródeł z rewizji od 321040 wzwyż. I tylko tyle Ci chciałem przekazać poprzednim postem.
// edit
Jeszcze się odniosę do tego:
Cytat(uupah5 @ 4.01.2012, 17:54:15 )

czyli jakie? zmniejszenie wielkości pliku i limitu czasu zmniejsza podatność a nie go eliminuje.
Optymalne ustawienia w/w wartości dla Twojego sprzętu powinny dać Ci tyle, że powyższy atak w opisanej w załączniku formie będzie niemożliwy do przeprowadzenia z prostego powodu- Twoja maszyn po prostu sobie poradzi z odpowiednio małą ilością przesyłanych (obciętych tudzież w ogóle odrzuconych) danych zakładając, że atak pozostanie w niezmienionej formie, tzn. nie zrobi się z tego rozproszony dos.