Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: [Optymalizacja] Pobieranie źródła z innych stron...
Forum PHP.pl > Forum > Przedszkole
microh
Witam wszystkich

Tworzę projekt, w którym główną funkcją jest pobieranie interesującej nas treści z innych stron.

Dotychczas, gdy robiłem tego typu rzeczy korzystałem z:

file_get_contents(); // Tym pobieram źródło strony
preg_match_all(); // Tutaj wydzielam część, która mnie interesuje np:

  1. <?php
  2. preg_match_all('#<div id="content">(.*?)</div>#si',$gdzie,$do);
  3. ?>


Problem polaga na tym, że gdy pobieram dane z ~20 stron, taki skrypt wykonuje się dość długo.

Wreszcie mogę dojść, do zadania Wam pytania:

Czy jest sposób, aby wykonać te zadania szybciej? Czy Curl, jest bardziej wydajny? Jak wy rozwiązujecie takie problemy w projektach ?


Dziękuję za wszystkie odpowiedzi guitar.gif
devnul
curl jest szybszy bo jest przeznaczony strikte do pobierania danych - ale czy faktycznie najwięcej czasu zajmuje pobieranie danyc a nie ich parsowanie? imho to drugie - pomyśl nad optymalizacją regexpa
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.