1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > php远程抓取网站图片并保存

php远程抓取网站图片并保存

时间:2020-10-05 15:26:30

相关推荐

php远程抓取网站图片并保存

后端开发|php教程

php,保存,图片

后端开发-php教程

本篇文章给大家分享了关于PHP抓取网站图片并且保存的代码,该例子详细的介绍了抓取图片并保存到本地的方法,有需要的朋友可以参考一下

全能搜索源码,远程登录ubuntu系统,python爬虫手机下载,php html <,移动seo互点lzw

例子,php抓取网站数据的代码。

erp 源码,vscode将横线替代换行,ubuntu 加载 ko,sed截取tomcat日志,爬虫培训课表,php有线程吗,大同专业的seo优化排名费用,flash动画素材网站lzw

代码示例:

街扫系统 源码,ubuntu带qt吗,tomcat+延迟启动程序,海淀法院 爬虫,php怎么加水印图片,seo婆lzw

save_path=$save_path;$this->img_size=$img_size;}/*** 递归下载抓取首页及其子页面图片的方法 ( recursive 递归)** @param String $capture_url 用于抓取图片的网址* */public function recursive_download_images($capture_url){if (!in_array($capture_url,self::$a_url_arr)) //没抓取过{ self::$a_url_arr[]=$capture_url; //计入静态数组} else //抓取过,直接退出函数{ return;} $this->download_current_page_images($capture_url); //下载当前页面的所有图片//用@屏蔽掉因为抓取地址无法读取导致的warning错误$content=@file_get_contents($capture_url); //匹配a标签href属性中?之前部分的正则$a_pattern = "|]+href=[\\" ]?([^ \\"?]+)[\\" >]|U"; preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);$tmp_arr=array(); //定义一个数组,用于存放当前循环下抓取图片的超链接地址foreach ($a_out as $k => $v) { /** * 去除超链接中的 空\,#,/和重复值* 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环 * 2: 超链接为\或#,/也是本页面,这样也会陷入死循环,* 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载) */ if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array(#,/,$capture_url) ) ){ $tmp_arr[]=$v[1]; }} foreach ($tmp_arr as $k => $v) {//超链接路径地址 if ( strpos($v, http://)!==false ) //如果url包含http://,可以直接访问 { $a_url = $v; }else //否则证明是相对地址, 需要重新拼凑超链接的访问地址 { $domain_url = substr($capture_url, 0,strpos($capture_url, /,8)+1); $a_url=$domain_url.$v; }$this->recursive_download_images($a_url); }} /*** 下载当前网页下的所有图片 ** @param String $capture_url 用于抓取图片的网页地址* @return Array 当前网页上所有图片img标签url地址的一个数组*/public function download_current_page_images($capture_url){$content=@file_get_contents($capture_url); //屏蔽warning错误 //匹配img标签src属性中?之前部分的正则$img_pattern = "|]+src=[\\" ]?([^ \\"?]+)[\\" >]|U"; preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER); $photo_num = count($img_out);//匹配到的图片数量echo

.$capture_url . "共找到 " . $photo_num . " 张图片

";foreach ($img_out as $k => $v) { $this->save_one_img($capture_url,$v[1]);}}/*** 保存单个图片的方法 ** @param String $capture_url 用于抓取图片的网页地址* @param String $img_url 需要保存的图片的url* */public function save_one_img($capture_url,$img_url){ //图片路径地址if ( strpos($img_url, http://)!==false ) { // $img_url = $img_url;}else { $domain_url = substr($capture_url, 0,strpos($capture_url, /,8)+1); $img_url=$domain_url.$img_url;} $pathinfo = pathinfo($img_url); //获取图片路径信息 $pic_name=$pathinfo[asename]; //获取图片的名字if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数{ echo $img_url . 该图片已经抓取过!

;return;}//将图片内容读入一个字符串$img_data = @file_get_contents($img_url); //屏蔽掉因为图片地址无法读取导致的warning错误if ( strlen($img_data) > $this->img_size ) //下载size比限制大的图片{ $img_size = file_put_contents($this->save_path . $pic_name, $img_data); if ($img_size) { echo $img_url . 图片保存成功!

; } else { echo $img_url . 图片保存失败!

; }} else{ echo $img_url . 图片读取失败!

;} } } // END set_time_limit(120);//设置脚本的最大执行时间 根据情况设置 $download_img=new download_image(E:/images/,0); //实例化下载图片对象 $download_img->recursive_download_images(/); //递归抓取图片方法 //$download_img->download_current_page_images($_POST[capture_url]); //只抓取当前页面图片方法 ?>

相关推荐:

从某网站抓取图片并自动下载到文件夹内

PHP抓取图片的具体实现方法_PHP教学

使用PHP的Snoopy类抓取图片_PHP教学

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。