Cytat
Trochę na ten temat myślałem ale nie wiem za bardzo jak to zrobić :oops: jedyne co wymyśliłem to - "zapisać" stronę z wp, przeanalizować pod kontem <a href ..., i przechodzić na kolejne podstrony itd. teoria wygląda jasno aczkolwiek z realizacją znając życie będzie dużo trudniej.
Wydaje mi się, że optymalniejszym rozwiązaniem byłoby skorzystanie np. z jakieś wyszukiwarki np. google.pl w poszukiwaniu określonych słów kluczowych na stronach Wirtualnej Polski. Potem pobrać linki znalezionych stron z google i przeszukiwać już skryptem.
Przykładowy kod jaki możesz wykorzystać:
[php:1:2a9717c467]<?php
###
### google search finder
### Joel De Gan
###
http://listbid.com/affil/
###
function GetCurlPage ($pageSpec) {
$agent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)";
$ref = "http://www.google.com";
$ch = curl_init($pageSpec);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($ch, CURLOPT_USERAGENT, $agent);
curl_setopt($ch, CURLOPT_REFERER, $ref);
$tmp = curl_exec ($ch);
curl_close ($ch);
return $tmp;
}
// callback function
function filt($var) {
return(substr($var, 0, 4) == "http");
}
function googleresults($search){
global $main;
$GrabURL = "http://www.google.com/search?hl=en&ie=UTF-8&oe=UTF-8&q="
.$search."&btnG=Google+Search";
$parsed = parse_url($GrabURL);
$host = $parsed[host];
$parts = explode(".", $host);
$count = count($parts);
$main = $parts[$count - 2] . "." . $parts[$count - 1];
$OpenFile = GetCurlPage($GrabURL);
preg_match_all("|href="?([^"' >]+)|i", $OpenFile, $arrayoflinks);
$new = array_filter($arrayoflinks[1], "filt");
return $new;
}// end function
$new = googleresults("php");
//Listing the array
While(List(,$link) = Each($new)){
if(substr_count($link, $main)==0 && substr_count($link, "search?q")==0){
Echo "$link<Br>";
}//fi
}// wend
?>[/php:1:2a9717c467]
Zaczerpnięty z php.net (komentarze do preg_match_all).
Pozdrawiam.