1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > ❤️ 爬虫分析CSDN大佬之间关系 堪比娱乐圈 ❤️

❤️ 爬虫分析CSDN大佬之间关系 堪比娱乐圈 ❤️

时间:2018-11-01 17:01:48

相关推荐

❤️ 爬虫分析CSDN大佬之间关系 堪比娱乐圈 ❤️

🍅 作者主页:不吃西红柿

🍅 简介:CSDN博客专家🏆、信息技术智库公号作者✌简历模板、PPT模板、技术资料尽管【关注】私聊我。历史文章目录:https://t.1yb.co/zHJo

🍅欢迎点赞 👍 收藏 ⭐留言📝 如有错误敬请指正!

本文重点:

1、爬虫获取csdn大佬之间的关系

2、可视化分析暧昧关系,复杂堪比娱乐圈

大佬简介

🍅Java李杨勇:一个性感的计算机专业毕业的3年java开发者。

🍅沉默王二:CSDN 头牌博主,Java 领域优质创作者,、 两届博客之星 Top5。

🍅擦姐yyds:现象级专栏 《Python 爬虫 100 例》作者、《滚雪球学 Python 专栏》原创者。

🍅涛歌依旧:涛哥不知何许人也,亦不详其姓字。闲静少言,不慕荣利。好读书,求甚解。

🍅Lucifer三思而后行:灵感来源于生活,故而热爱生活~

🍅曲鸟:python领域新星创作者。

🍅孤寒者:深入浅出的讲解Python基础知识&爬虫初阶及进阶&主流Web框架(Django等)

🍅肥学大师:目前还是学生喜欢分享从每个项目得到的技术和趣闻类的文章。

不甚枚举......

目录

效果展示(动图不会录屏,只能截图了)

第一步:获取api

第二步:爬虫获取关注名单

第三步:python数据可视化

第四步:main函数启动

效果展示(动图不会录屏,只能截图了)

我们尤其可以看到:

这个「不吃西红柿」竟然关注了所有人,简直是朵交际花,不仅文章写得好,还爱交朋友! 据说,他最近有评论必回关 ❤

第一步:获取api

C站的关注api:

/community/home-api/v1/get-follow-list?page=%s&size=20&noMore=false&blogUsername=%s"%(p,Username)

需要传入两个参数:页数、用户id

%(p,Username)

第二步:爬虫获取关注名单

还是经典的爬虫包: import requests

def get_follow(Username):headers = {"User-Agent": "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; InfoPath.3)","accept": "application/json, text/javascript, */*; q=0.01","accept-encoding": "gzip, deflate, br","accept-language": "zh-CN,zh;q=0.9","content-type": "application/x-www-form-urlencoded; charset=UTF-8","cookie": "cookie",}data ={"page": "1","size": "20","noMore": "false","blogUsername": Username}follow_list = []for p in range(1,101):url = "/community/home-api/v1/get-follow-list?page=%s&size=20&noMore=false&blogUsername=%s"%(p,Username)res = requests.get(url,headers=headers,data=data)fans = json.loads(res.text)['data']['list']if fans:follow_list.extend(fans)else:breakff = []for i in follow_list:ff.append(i['username'])return ff

第三步:python数据可视化

def graph(nodes, links):graph = Graph()graph.add("Name:", nodes,links, repulsion=8000)graph.set_global_opts(title_opts=opts.TitleOpts("关系图"))graph.render() #生成render.html

第四步:main函数启动

if __name__ == '__main__':nodes,links = [],[]blog = {'weixin_3903': '不吃西红柿','Mancuojie':'Mancuojie','weixin_39709134': 'Java李杨勇','zhongguomao': 'SAP剑客','qing_gee': '沉默王二','hihell': '擦姐yyds','stpeace': '涛歌依旧','jacke121': 'AI视觉网奇','weixin_40400177': 'DrogoZhang','m0_50546016': 'Lucifer三思而后行','momoda118': '曲鸟大师','qq_44907926': '孤寒大佬','jiahuiandxuehui': '肥学大师',}blog_key = blog.keys()for blogUsername in blog:follows = get_follow(blogUsername)simple_follows = [val for val in follows if val in blog_key]nodes.append({"name": blog[blogUsername] })for one in simple_follows:if blog[blogUsername] != blog[one]:links.append({"source": blog[blogUsername] ,"target":blog[one] })print(links)graph(nodes,links)

好了,今天的「爬虫」和「数据可视化」小课堂,就到这里了,我是西红柿🍅,我们下期再见~

热门专栏推荐:

🥇 大数据集锦专栏:大数据-硬核学习资料 & 面试真题集锦

🥈数据仓库专栏:数仓发展史、建设方法论、实战经验、面试真题

🥉Python专栏:Python相关黑科技:爬虫、算法、小工具

(优质好文持续更新中……)✍

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。