Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: Stream to files - jakby to przyśpieszyć?
Forum PHP.pl > Forum > PHP
Forti
Cześć!

Przejde do rzeczy. Mamy tablice, w ten sposób:

  1. $data = [
  2. 0 => [ // 70 tyś. rekordów
  3. 0 => [] // tutaj średnio 5-6 rekordów,
  4. // i tak dalej
  5. ],
  6. 1 => [],
  7. 2 => [],
  8. // i tak dalej.
  9. ];


Ogólnie takich małych tablic po 5-6 rekordów jest ok. 8mln. Podzielone są po 70 tyś. Teraz te 70 tyś. zapisuje w postaci .csv:

  1. foreach ($this->result as $fileNumber => $data) {
  2. $stream = fopen('php://memory', 'w');
  3.  
  4. foreach ($data as $line) {
  5. fputcsv($stream, $line, $this->config['delimiter']);
  6. }
  7. fseek($stream, 0);
  8. $content = stream_get_contents($stream);
  9. $content = str_replace('"', '', $content); // potrzeba usuwania ", w żadnym innym miejscu tego zrobić nie mogę, a iterować po całej tablicy i robić na mniejszych stringach to bezsensu moim zdaniem... jak myślicie?
  10.  
  11. $now = new \DateTime('now');
  12. $fileName = $fileName . $now->format('Y-m-d-h-i-s') . "_{$fileNumber}_" . '.csv';
  13.  
  14. $file = fopen(__DIR__ . '/../../parsed/' . $fileName, "w");
  15. fputs($file, $content);
  16. fclose($file);
  17. }



Teraz sedno sprawy:

Przy 100k rekordów trwa to dosłownie kilka sekund. Przy 1mln trwa to już średnio 3 minuty (ostatnia próba: 223 sekundy) (licze z pomocą microtime(true)). Nawet boje się włączyć na 8mln rekordów...
Jakiś pomysł jak to przyśpieszyć? Cel: zapis do pliku .csv.
pyro
Jeśli chodzi o ten myk z cudzysłowem, to nie szkodzi. Miałem parę razy podobny problem i niestety mniej więcej tak się go rozwiązuje, więc jest to OK.

Jeśli chodzi o sam czas, to najprawdopodobniej to przez to, że ładujesz wszystkie dane do pamięci, przez co maszyna jest tak obciążona, że wszystko działa dużo wolniej.

Jeśli pobierasz dane z bazy, to rób to jakimś data provider iteratorem i pobieraj w segmentach.
Forti
Nie stety, ale dane są najpierw pobierane w kilku plików (każdy po 1mln), parsowane odpowiednio i zapisywane. Cały proces od kilku dni optymalizuje jak tylko się da.
CuteOne
Nie bardzo rozumiem po co ci ten stream, przecież niżej otwierasz plik i wrzucasz do niego dane z bazy. Jak dla mnie podwójna robota.. coś w ten deseń
  1. $now = new \DateTime;
  2. foreach ($this->result as $fileNumber => $data) {
  3. $fileName = $fileName . $now->format('Y-m-d-h-i-s') . "_{$fileNumber}_" . '.csv';
  4. $stream = fopen(__DIR__ . '/../../parsed/' . $fileName, "w");
  5.  
  6. fputcsv($stream, $data, $this->config['delimiter']);
  7. fclose($file);
  8. }


@edit: upitoliłem foreacha, trzeba go przywrócić wink.gif
pyro
Cytat(Forti @ 7.08.2015, 11:08:13 ) *
Nie stety, ale dane są najpierw pobierane w kilku plików (każdy po 1mln), parsowane odpowiednio i zapisywane. Cały proces od kilku dni optymalizuje jak tylko się da.


No to musisz bardziej doprecyzować co to znaczy "odpowiednio parsowane i zapisywane".

Cytat(CuteOne @ 7.08.2015, 11:08:42 ) *
Nie bardzo rozumiem po co ci ten stream, przecież niżej otwierasz plik i wrzucasz do niego dane z bazy. Jak dla mnie podwójna robota.. coś w ten deseń
  1. $now = new \DateTime;
  2. foreach ($this->result as $fileNumber => $data) {
  3. $fileName = $fileName . $now->format('Y-m-d-h-i-s') . "_{$fileNumber}_" . '.csv';
  4. $stream = fopen(__DIR__ . '/../../parsed/' . $fileName, "w");
  5.  
  6. fputcsv($stream, $data, $this->config['delimiter']);
  7. fclose($file);
  8. }


Wczytaj się jeszcze raz w to co ten kod robi.
Forti
Z tym parsowaniem to nie istotne, po prostu pobieram zawartość z plików (zmienne), obrabiam i dopasowuje w odpowiednie zmienne. Słowa kluczowe itp.
Ogólnie całość i tak ląduje w takiej tablicy i nie bardzo mam jak inaczej to zrobić.

Jeżeli nie ma innego sposobu a tak dużą tablice zapisać w .csv w szybszy sposób, to będzie musiało to tak zostać..
pyro
Cytat(Forti @ 7.08.2015, 11:14:38 ) *
londuje




Cytat(Forti @ 7.08.2015, 11:14:38 ) *
Z tym parsowaniem to nie istotne, po prostu pobieram zawartość z plików (zmienne), obrabiam i dopasowuje w odpowiednie zmienne. Słowa kluczowe itp.
Ogólnie całość i tak londuje w takiej tablicy i nie bardzo mam jak inaczej to zrobić.

Jeżeli nie ma innego sposobu a tak dużą tablice zapisać w .csv w szybszy sposób, to będzie musiało to tak zostać..


Czyli jednak źle robisz. Pobieraj z tych plików w mniejszych segmentach i obrabiaj tak samo.
Forti
*ląduje lol skąd to sie tam wzięło biggrin.gif

Właśnie tak zrobiłem, zamiast przekazywać wszystkie pliki - pobierać wawartość, mergować ją, obrabiać i zapisywać to pobieram liste plików i z każdego osobna. W teorii powinienem zyskać średnio 2-3 minuty na każde 1mln rekordów. Zobaczymy jak wyjdzie.
pyro
Raczej chodziło mi o to, żebyś mniejszymi segmentami pobierał i parsował, tj. pamięć jest zapchana tylko tyle, ile ma dany segment, a nie mniejszymi segmentami pobierać, żeby je wszystkie najpierw wrzucić i tak do pamięci, a dopiero później operować biggrin.gif
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.