Mam problem z przetworzeniem dużej ilości danych. W pliku (format csv) mam ~250'000 rekordów które potrzebuje dodać do bazy danych. Jednorazowe wprowadzenie takiej ilości danych nie byłoby większym problem, jednak potrzebuję wszystkie dane aktualizować co najmniej 1 raz dziennie, a najlepiej co 60-120 min. Hosting ma ograniczenie na czas wykonywania skryptu do 30s (mogę podnieść tą wartość, jednak i tak są ciągłe problemy z zawieszaniem się skryptu, lub brakiem pamięci). Czas dodawania do bazy danych 1'000 rekordów to ok. 0,5 - 5s.
Nie mam pomysłu jak to podzielić, żeby baza danych to w całości zjadła. Dodam, że pracuję na frameworku Symfony2 (persist() zbieram po 1'000 rekordów, a potem flush() i clear()).