function DawajAdresy($strona) { return $unikat; } function ClearArray($arr) //Czysci tablice z pustych kluczy { foreach($arr as $val) { { $cleared_arr[] = $val; } } return $cleared_arr; } $poprawne = 0; $i = 0; $strona = "http://it-maniak.pl/"; $unikat = DawajAdresy($strona); } else { $tablica = ClearArray($unikat); foreach ($tablica as $tab) { (sprawdzanie czy URL istnieje w bazie, wyświetlanie, dodawanie do bazy) } } foreach ($tablica as $tab) { //Druga rudka $strona = $tab; $unikat = DawajAdresy($strona); $tablica2 = ClearArray($unikat); foreach ($tablica2 as $tab2) { (sprawdzanie czy URL istnieje w bazie, wyświetlanie, dodawanie do bazy) } } } } }
1. Jak w prosty sposób zrobić, aby w przypadku blokowania robotów w meta (nofollow, noindex, none itp) wyrzucało adres z tablicy?
2. Da się zrobić w prosty sposób, aby robot pobierał robots.txt i przetwarzał je jak normalny robot? Jak?
3. Czy cURL jest szybszy od file_get_contents? Jakie są argumenty za i przeciw cURL?
Ludzie