![]() ![]() |
Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 271 Pomógł: 0 Dołączył: 21.05.2008 Ostrzeżenie: (0%)
|
Witam, mam pytanko, czy da się napisać skrypt do automatycznego pobierania danych ze strony. Ściślej mówiąc chodzi o pobranie plików pdf. Narzędzia typu WebCopy albo Httrack niestety sobie z tym nie radzą, nie da się za ich pomocą ściągnąć tych plików. Strona ogólnie po wpisaniu jej nazwy w przeglądarce od razu wywala błąd "403 Forbidden". Ale po wpisaniu określonego adresu np: "https://dokumenty.twojemeble.pl/instrukcje/125981.pdf", można pobrać ten pdf. Niestety tych plików jest większa ilość, więc praca ręczna jest za mozolna. dokładnie chodzi o ściągnięcie pdf z folderu: "https://dokumenty.twojemeble.pl/instrukcje".
myślałem o czymś w rodzaju pętli:
tylko co w środku ? |
|
|
|
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 1 888 Pomógł: 231 Dołączył: 20.03.2005 Skąd: Będzin Ostrzeżenie: (0%)
|
Da się, używasz file_get_contents() lub zalecane funkcje curl().
Powinieneś jednak tak skonfigurować ustawienia, aby przedstawiać się jako przeglądarka. Czyli naglówki przeglądarki wysyłasz. jeżeli jest 403 Forbidden, to oznacza że pewnie jest jakieś hasło choćby Basic AUTHENTICATION. Czyli musisz znać login/hasło, czasami dostęp do nich jest możliwy tylko z hosta skryptu. |
|
|
|
![]() ![]() |
|
Aktualny czas: 30.04.2026 - 02:50 |