例:www.sohu.com ,采集时得到的事页面压缩后的数据(注意:不是乱码)
原因:PHP没有解压,可利用'compress.zlib://'
抓取页面方法如下(以下几种方式就可以简单的抓取的页面啦):
$url = "http://www.sohu.com/";
echo file_get_contents('compress.zlib://'.$url);
$fh = fopen('http://www.taobao.com/', 'r');
if($fh){
while(!feof($fh)) {
echo fgets($fh);
}
}
$ch = curl_init();
# 设置URL和相应的选项
curl_setopt($ch, CURLOPT_URL, "http://www.baidu.com/");
curl_setopt($ch, CURLOPT_HEADER, 0);
# 抓取URL并把它传递给浏览器
curl_exec($ch);
# 关闭cURL资源,并且释放系统资源
curl_close($ch);