skinek1991
26.06.2014, 13:54:40
Witam,
Często muszę ściągać dokumentacje projektowe ze stron takich jak np:
"
http://di.adm.agh.edu.pl/przetargi/di/bm/A...remontem_dachu/"
Ściąganie każdego pliku po kolei przez przeglądarkę jest tak irytujące że nie mogę już tego znieść.
Próbowałem się połączyć jakoś prze TC z witryną ale nie da rady.
Może mi ktoś wskazaś sposób/program aby wygodnie ściągać dziesiątki plików z takich serwerów?
Z góry dziękuję za pomoc
Pyton_000
26.06.2014, 14:14:32
A co to ma do serwera Apache?
Free Download Manager
skinek1991
26.06.2014, 14:23:34
No właśnie problem w tym że program widzi tylko index.html i nic więcej :/ Chyba że trzeba go jakoś zkonfigurować?
Dzięki na odp
Pyton_000
26.06.2014, 14:32:10
Site Explorer widzi normalnie
by_ikar
26.06.2014, 16:47:01
wget z parametrem rekursywnego pobierania i pobierze ci całość tego co tam masz.
Kod
wget -r --no-parent --reject "index.html*" http://di.adm.agh.edu.pl/przetargi/di/bm/A_0_przebudowa_pom._IIIp._wraz_z_remontem_dachu/
Cytat
ZAKOŃCZONO --2014-06-26 17:44:02--
Całkowity czas zegarowy: 15s
Pobrano: 388 plików, 98M w 11s (8,55 MB/s)
A tutaj masz całość do pobrania z dropboxa:
https://dl.dropboxusercontent.com/u/3624937....agh.edu.pl.tgz
skinek1991
27.06.2014, 08:16:30
Dzięki !
Kurdę jednak nie wszystko się pobrało ale jakos dam rede
by_ikar
27.06.2014, 16:43:51
Tzn było tam tych plików więcej, ale głównie to były sztucznie stworzone index.html pliki przez samo wget, dlatego dodałem pominięcie tych plików, nie zwracając uwagi czy są one we wszystkich katalogach utworzone przez wget. No tak czy inaczej wget jest do tego dobrym narzędziem, tylko trzeba z opcjami pokombinować w zależności od tego co nam jest potrzebne.