Mam plik z adresami url i potrzebuję odwiedzić każdy z adresów w pliku, wczytać stronę pobrać dane o kodowaniu strony (UTF , ISO Windows), języku strony.
Opcjonalnie innych danych normalnie znajdujących się w meta i zapisać do pliku wyjściowego rekordami dane w formacie csv

”Adres url” ”strona kodowa””jezyk”” opcjonalnie inne dane meta”

lub do bazy danych MySQL.
Problem jest że część webmasterów nie tworzy przejrzystych meta tylko koszmary w JS w których stronakodowajest gdzieś wpleciona a języka strony nie ma.

Wywołanie skryptu z parametrami url.pl [plik lista URLi] [plik do dopisania danych]

use mynet realizuje połączenie z Internetem

Szkielet skryptu perl wygląda tak
Kod
#!/usr/local/bin/perl

    use mynet;

    if ( $ARGV[0] && $ARGV[1] )
    {
        $in = $ARGV[0];
        $out = $ARGV[1];

        open( IN , "<".$in );
        open( OUT , ">>".$out );
        
        while ( $linia = <IN> )
        {
    
            $_ = $linia;
            while( s/[\r\n\t ]+// ) {}
            
            if ( /http:\/\/.+/ )
            {
                $url = $_;
                
                print "*********************************************\n $url \n*********************************************\n";
                
                $tresc = mynet::easy_get( $url , FullDebug => 1 );
                
                $_ = $tresc;
        
                
                #Tu powinna nastąpić obróbka tekstu i zapis do pliku
        
            }

        close( IN );
        close( OUT );
        
    }
    else
    {
        die("usage: perl url.pl [plik lista URLi] [plik do dopisania danych]");
    }


Jest ktoś kto podpowie jak obrobić treść i zapisać do pliku?