后端开发|Python教程
Python,,100,000048,DDL
后端开发-Python教程
题主会计学二专毕业设计论文DDL在即,做的是分析食品企业会计信息与股价的实证课题,目前需要从新浪财经上收集100家食品企业近五年的财报,如果手动收集的话是根据证监会4季度上市公司行业分类结果上的上市公司股票代码输到股票首页_新浪财经 的搜索框,然后再从所选公司的网页(如康达尔(000048)股票股价,行情,新闻,财报数据)上点选“公司年报”,下载近五年的年报数据。
所选企业是4季度上市公司行业分类结果上所有13、14、15大类,有100多家,全部手动收集的话工作量略大,想问下有没有办法用Python写一个脚本完成以上工作?(大学修过一门用python讲的计算思维,算是有一点点python基础吧)
感激不尽~回复内容:
嗨~我来答题了~
虽然题主已经搞定了问题……
就当练手了~问题的解决办法有很多。利用现有的api挺方便。不过我还是按照题主原来的思路笨办法写写试试。
老规矩边做边调边写~
#新手 很笨 大神求不喷 新手多交流
#start coding
第一步自然是搜集股票代码…用在线的PDF2DOC网站,然后把13、14、15三类的股票代码复制粘贴到一个文本文档里。像这样…
然后我们需要让Python按行读入文本文档里的内容并存入一个列表。很简单。然后我们需要让Python按行读入文本文档里的内容并存入一个列表。很简单。
影视php源码下载,vscode怎么设置div,ubuntu安全安装,tomcat使用的协议,sqlite3数据库位置,爬虫人爬虫脑,html里嵌套php,保定整站seo优化报价,sql注入漏洞网站源码,iwebshop 手机模板lzw
f=open(stock_num.txt)stock = []for line in f.readlines(): #print(line,end = \) line = line.replace(\
,\) stock.append(line)f.close()print(stock)
用selenium模块可以写程序模拟手动点击按钮的整个过程。
感觉就像写按键精灵一样。
就酱。
教育管理系统php源码,怎么安装ubuntu桌面,tomcat6启动不了项目,电商爬虫代码,php与js数据类型,乐昌网页seolzw
scrapy配合chrome或者firefox分分钟的事
年会抽奖程序源码,ubuntu没wifi,共用tomcat启动多端口,基本爬虫代码,simi.city forum.php,淘宝电商运营工作内容seolzw
推荐使用东方财富网抓数据,因为可以直接保存为excel文档,后期处理也相对方便,思路如下:
1.先得到需要的上市公司的股票代码和名字。这一步可以参考 @段晓晨的答案!
2.分析下载链接地址。以康达尔为例,年报地址http://soft-/soft/gp14.php?code=00004802,下载链接 的页面 ,链接末尾的8个数字前6个是股票代码,后两位01代表上交所上市公司(股票代码60开头)、02代表深交所上市公司。 让后就可以用一个循环来下载所有的数据!
3.把下载下来的xml文件转化成xls文件,代码如下:
1). xml可能的中文编码错误处理
def xml_Error_C(filename): fp_xml=open(filename) fp_x=\#中文乱码改正 for i in range(os.path.getsize(filename)): i+=1 a=fp_xml.read(1) if a==&: fp_xml.seek(-1,1) if fp_xml.read(6)== :i+=5continue else:fp_xml.seek(-5,1) fp_x+=a fp_xml=open(filename,w+) fp_xml.write(fp_x) fp_xml.flush() fp_xml.close()
用神箭手云爬虫吧,完全在云端进行。编写快速,而且自带数据导出发布和生成图表进行数据分析,大数据时代的利器啊( ̄▽ ̄)”
用tushare,
用scrapy写一个爬虫,爬资源嗖嗖的快!
如果是想要下载“年报数据”而不是“年报”的话,用wind的excel插件拉一下函数就行,想要什么就有什么…楼主念会计专业,说明学校肯定有商学院,有商学院就肯定有wind终端…去学院机房半个小时搞定…