
Mam następujące pytanie. Tworzę system zarządzający dużą ilością informacji pochodzących z przestarzałego systemu sprzedaży. Obecnie system jest na ukończeniu, baza działa itepe itede. Jednakże po skończeniu aplikacji będę musiał jeszcze raz wgrać całą bazę (2x 100.000 rekordów). Mam gotowe pliki z zapytaniem SQL. Jednakże aby dało się je, za pomocą PHPmyAdmina wgrać, muszę ciąć pliki na kawałki po 5.000 rekordów. Łatwo więc policzyć, że powstanie 40 plików, które mój komputer (Celeron 2,2, 256 DDRAM - niestety laptopik) będzie mielił pewnie kilka dni (jeśli nie stracę po drodze cierpliwości aby zmieniać pliki co godzinę myślenia).
Próbowałem grzebać w ustawieniach mysqla, ale mimo ustawienia wszystkich zmiennych (stanowiących limity na paczki itp.) na kilkakrotnie wyższe nadal mysql + apache nie trawi plików większych niż 5.000 rekordów. Podglądając w menedzerze zadań XP po wgraniu pliku sql większego niż wspomniany - procesor ani drgnie (w IE widać jakby coś się działo). Będę bardzo wdzięczny za wskazówki jak dokonać hurtowego wgrania 100.000 rekordów przy minimalizacji czasu i użycia procesora

Z pozdrowieniami,
Michal S.