1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 测评file_get_contents与curl 效率及稳定性

测评file_get_contents与curl 效率及稳定性

时间:2020-01-30 21:06:37

相关推荐

测评file_get_contents与curl 效率及稳定性

后端开发|php教程

测评file_get_contents与curl 效率及稳定性

后端开发-php教程

做过好多抓取别家网站内容的产品,习惯了使用方便快捷的file_get_contents函数,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不会奏效:

骑士在线报名系统源码,vscode单词移动,ubuntu gftp,tomcat源码idea,数据库sqlite简介,dede织梦批量导入文章插件,前端快速开发用什么框架,抖音评论爬虫软件购买,php 正则日期,黄山seo推广咨询,vs 网站源码,网页源代码修改文字,简单论坛模板lzw

$config[context] = stream_context_create(array(‘http’ =< array(‘method’ =< “GET”, ’timeout’ =< 5//这个超时时间不稳定,经常不奏效 ) ));

这时候,看一下服务器的连接池,会发现一堆类似的错误,让你头疼万分:

诱导支付手机app 源码,vscode解析html,ubuntu查看当前文件,swarm tomcat,sqlite几种模式,常州电信云服务器,dedecms 插件安装,前端框架页面跳转,邮箱地址爬虫,php 星期,seo实战培训机构,中英文网站系统,网页六边形,3d模板源码,css页面轮播图,vs学生管理系统,易语言 子程序返回多个值lzw

file_get_contents(http://***): failed to open stream…

易网页源码,ubuntu盘自动挂载,2台tomcat共有内存,fiddler 手机爬虫,协同办公php,仓山区有效的seo报价lzw

不得已,安装了curl库,写了一个函数替换:

function curl_file_get_contents($durl){ $ch=curl_init(); curl_setopt($ch, CURLOPT_URL,$durl); curl_setopt($ch, CURLOPT_TIMEOUT,5); curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_); curl_setopt($ch, CURLOPT_REFERER,_REFERER_); curl_setopt($ch, CURLOPT_RETURNTRANSFER,1); $r=curl_exec($ch); curl_close($ch); return $r;}

如此,除了真正的网络问题外,没再出现任何问题。

这是别人做过的关于curl和file_get_contents的测试:

file_get_contents抓取需用秒数:

2.31319094

2.30374217

2.21512604

3.30553889

2.30124092

curl使用的时间:

0.68719101

0.64675593

0.64326

0.81983113

0.63956594

差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!

特别要注意:php版本不同可能测试结果不同,在php5.2下 file_get_contents函数效率特别低,容易出现占用cpu过高的情况,建议升级到php5.3,经测试在php5.3下没有该问题

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。