Obecnie stoję przed problemem / zadniem pobierania dużej (a w sumie to bardzo dużej) ilości danych - mianowicie plików graficznych z innych serwerów.
Potrzebują zrealizować pobieranie zdjęć produktów z innych serwisów. Są to setki tysięcy plików graficznych do pobrania - oczywiście nie muszę ich pobrać hurtem wszystkich naraz. Pobieranie tych zdjęć to raczej nieskończony proces (starsze są usuwane, dodawane kolejne) - więc nigdy nie będzie tak, że wszystkie pliki będą pobrane.
Powiedzmy, że pliki będą pobierane w kolejności jakiejś tam (np. popularności).
Przechodzę do sedna sprawy. Mam adresy URL do owych plików graficznych. Dylemat przed, którym stoję to sposób pobierania plików. Dwie opcje jakie rozważam to funkcja PHP
oraz
. W obu przypadkach po pobraniu pliku lokalnie - obrabiam i przetwarzam sobie plik.
cURL
Pytanie, która z opcji będzie bardziej wydajna? Może jest jakaś inna alternatywa?
Jest jakiś sposób, aby "nie zamulać serwera" - chodzi mi tutaj o czas oczekiwania na plik z serwera zewnętrznego.
Założyłem też rozwiązanie - aby pobierać pliki graficzne w momencie gdy są potrzebne - tj. użytkownik odwiedza stronę, na której są odnośniki do plików graficznych i dopiero wówczas są pobierane - jednakże generowanie takiej strony (za pierwszym razem) jest wówczas dość długie.
Drugim rozwiązaniem jest pobieranie zdjęć jako "robot".
Czekam na Wasze komentarze, propozycje.