基于Python的网络数据资源获取
基于Python的网络数据资源获取
了解网络数据资源获取的一些基本理念,掌握网站解析方法、数据的整理、清洗及格式化存储方法,实现大批量的网络数据资源获取,能够面向具体需求和数据资源特点开发相应的软件工具。
需求:
1.网站数据解析。
2.网页内容获取。
3.有效信息的提取和整理。
4.数据的大批量获取及格式化存储。
步骤:
1. 网站数据解析,打开百度地图慧眼百度迁徙的网页,点击F12键查看网页源代码;
2.网页内容获取,点击—网络—找到 move in 人口迁入数据,点击F5刷新,找到URL和headers,在标头最下方找到User-Agent。
3.进行有效信息的提取和整理。
4.进行数据的大批量获取及格式化存储。删除重复数据,将JSON数据格式转换为utf-8的格式。
5.如果获取数据被拒绝,添加import time time.slepp(5)放慢获取速度,重新进行获取。
代码实现:
import urllib
import re
import json
import pandas as pd
#import time
url="https://huiyan.baidu.com/migration/cityrank.jsonp?dt=city&id=410100&type=move_in&date=20230505&callback=jsonp_1683354580757_8172430"
url2 = 'https://huiyan.baidu.com/migration/cityrank.jsonp?dt=city&id=410100&type=move_out&date=20230505&callback=jsonp_1683359809608_6482448'
def url_open(url):
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36 Edg/112.0.1722.68'}
reqdata = urllib.request.Request(url,headers=headers)
response = urllib.request.urlopen(reqdata)
html = response.read().decode('unicode_escape')
return html
city_code = pd.read_csv('city_code.txt',encoding = 'gbk', sep = ',')
df = city_code.drop_duplicates()
ofile = open('AllcityMigratedata.txt','w',encoding = 'utf-8')
for item ,name in df[['CODE_CITY','NAME_CITY']].values:
ul = "https://huiyan.baidu.com/migration/cityrank.jsonp?dt=city&id={0}&type=move_in&date=20230505&callback=jsonp_1683354580757_8172430".format(item)
data = url_open(ul)
result = re.findall(("\(.+\)"),data)[0][1:-1]
json_data = json.loads(result)
d = json_data['data']['list']
h = '{\"city\":\"'+name+'\",\"data\":'
e = '},'
ofile.write(h)
ofile.write(repr(d))
ofile.write(e)
print(name)
# time.slepp(5)
ofile.close
如图所示:
结果:
原文地址:https://blog.csdn.net/m0_59276096/article/details/145193093
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!