自学内容网 自学内容网

基于Python的网络数据资源获取

基于Python的网络数据资源获取

了解网络数据资源获取的一些基本理念,掌握网站解析方法、数据的整理、清洗及格式化存储方法,实现大批量的网络数据资源获取,能够面向具体需求和数据资源特点开发相应的软件工具。

需求:

1.网站数据解析。

2.网页内容获取。

3.有效信息的提取和整理。

4.数据的大批量获取及格式化存储。

步骤:

1. 网站数据解析,打开百度地图慧眼百度迁徙的网页,点击F12键查看网页源代码;

2.网页内容获取,点击—网络—找到 move in 人口迁入数据,点击F5刷新,找到URL和headers,在标头最下方找到User-Agent。

3.进行有效信息的提取和整理。

4.进行数据的大批量获取及格式化存储。删除重复数据,将JSON数据格式转换为utf-8的格式。

5.如果获取数据被拒绝,添加import time   time.slepp(5)放慢获取速度,重新进行获取。

 

代码实现:
import urllib
import re
import json
import pandas as pd
#import time

url="https://huiyan.baidu.com/migration/cityrank.jsonp?dt=city&id=410100&type=move_in&date=20230505&callback=jsonp_1683354580757_8172430"
url2 = 'https://huiyan.baidu.com/migration/cityrank.jsonp?dt=city&id=410100&type=move_out&date=20230505&callback=jsonp_1683359809608_6482448'
def url_open(url):
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36 Edg/112.0.1722.68'}
    reqdata = urllib.request.Request(url,headers=headers)
    response = urllib.request.urlopen(reqdata)
    html = response.read().decode('unicode_escape')
    return html

city_code = pd.read_csv('city_code.txt',encoding = 'gbk', sep = ',')
df = city_code.drop_duplicates()
ofile = open('AllcityMigratedata.txt','w',encoding = 'utf-8')

for item ,name in df[['CODE_CITY','NAME_CITY']].values:
    ul = "https://huiyan.baidu.com/migration/cityrank.jsonp?dt=city&id={0}&type=move_in&date=20230505&callback=jsonp_1683354580757_8172430".format(item)
    data = url_open(ul)
    result = re.findall(("\(.+\)"),data)[0][1:-1]
    json_data = json.loads(result)
    d = json_data['data']['list']
    
    h = '{\"city\":\"'+name+'\",\"data\":'
    e = '},'
    ofile.write(h)
    ofile.write(repr(d))
    ofile.write(e)
    print(name)
 #   time.slepp(5)
ofile.close

 如图所示:

 结果:


 


原文地址:https://blog.csdn.net/m0_59276096/article/details/145193093

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!