自学内容网 自学内容网

Python数学建模-2.5Pandas库介绍

2.5.1Pandas基本操作

Pandas是一个强大的Python数据分析库,它提供了快速、灵活且富有表现力的数据结构,设计初衷是为了处理关系型或标记型数据。Pandas的基本操作涵盖了数据的读取、处理、筛选、排序、分组、合并以及可视化等多个方面。

以下是一些Pandas的基本操作示例:

1.数据读取

Pandas可以方便地读取各种格式的数据文件,如CSV、Excel、SQL数据库等。

import pandas as pd  
  
# 读取CSV文件  
df = pd.read_csv('data.csv')  
  
# 读取Excel文件  
df = pd.read_excel('data.xlsx')

2.数据处理

Pandas提供了丰富的数据处理功能,如缺失值处理、数据类型转换等。

# 处理缺失值,用0填充  
df.fillna(0, inplace=True)  
  
# 转换数据类型  
df['column_name'] = df['column_name'].astype(int)

3.数据筛选

使用布尔索引或条件表达式来筛选数据。

# 筛选某列值大于10的行  
filtered_df = df[df['column_name'] > 10]

4.数据排序

对数据的行或列进行排序。

# 按某列升序排序  
sorted_df = df.sort_values(by='column_name', ascending=True)

5.数据分组

使用groupby方法对数据进行分组,并进行聚合操作。

# 按某列分组并计算每组的平均值  
grouped_df = df.groupby('column_name').mean()

6.数据合并

使用merge或concat方法合并多个DataFrame。

# 合并两个DataFrame  
merged_df = pd.merge(df1, df2, on='key_column')

7.数据可视化

虽然Pandas本身不直接提供数据可视化功能,但它可以与Matplotlib、Seaborn等库结合使用,实现数据的可视化展示。

操作举例:

例1:生成二维数组:

生成服从标准正态分布的24*4随机数矩阵,并保存为DateFrame数据结构。


import pandas as pd
import numpy as np
dates=pd.date_range(start='20191101',end='20191124',freq='D')
a1=pd.DataFrame(np.random.randn(24,4), index=dates, columns=list('ABCD'))
a2=pd.DataFrame(np.random.rand(24,4))

详解:

在这段代码中,你使用了pandasnumpy库来创建两个DataFrame对象。我将逐步解释每一行代码的含义:

  1. import pandas as pd

    • 这行代码导入了pandas库,并给它一个简短的别名pdpandas是一个强大的数据分析库,提供了快速、灵活且富有表现力的数据结构,如Series和DataFrame。
  2. import numpy as np

    • 这行代码导入了numpy库,并给它一个简短的别名npnumpy是Python的一个基础数值计算库,提供了多维数组对象、各种派生对象(如掩码数组和矩阵)以及用于数组快速操作的各种API。
  3. dates=pd.date_range(start='20191101',end='20191124',freq='D')

    • 这行代码使用pandasdate_range函数创建了一个日期范围。这个范围从20191101(2019年11月1日)开始,到20191124(2019年11月24日)结束,并且freq='D'表示每天生成一个日期。生成的日期范围被赋值给变量dates
  4. a1=pd.DataFrame(np.random.randn(24,4), index=dates, columns=list('ABCD'))

    • 这行代码创建了一个名为a1的DataFrame。
    • np.random.randn(24,4)生成一个形状为24行4列的数组,数组中的元素是从标准正态分布(均值为0,标准差为1)中随机抽取的。
    • index=dates将前面生成的日期范围dates设置为DataFrame的索引。
    • columns=list('ABCD')将DataFrame的列名设置为'A', 'B', 'C', 'D'。
  5. a2=pd.DataFrame(np.random.rand(24,4))

    • 这行代码创建了一个名为a2的DataFrame。
    • np.random.rand(24,4)生成一个形状为24行4列的数组,数组中的元素是从[0, 1)区间内均匀分布的随机数中随机抽取的。
    • 默认情况下,DataFrame的索引是整数,从0开始递增,列名则是默认的整数列名(如0, 1, 2, 3)。

所以,你最终得到了两个DataFrame:a1有一个日期范围的索引和'A', 'B', 'C', 'D'的列名,其数据是从标准正态分布中随机抽取的;而a2有一个默认的整数索引和默认的整数列名,其数据是从[0, 1)区间内均匀分布的随机数中随机抽取的。

例2:读写文件:

数据写入文件示例

import pandas as pd
import numpy as np
dates=pd.date_range(start='20191101', end='20191124', freq='D')
a1=pd.DataFrame(np.random.randn(24,4), index=dates, columns=list('ABCD'))
a2=pd.DataFrame(np.random.randn(24,4))
a1.to_excel('data2_38_1.xlsx')
a2.to_csv('data2_38_2.csv')
f=pd.ExcelWriter('data2_38_3.xlsx')  #创建文件对象
a1.to_excel(f,"Sheet1")  #把a1写入Excel文件
a2.to_excel(f,"Sheet2")  #把a2写入另一个表单中
f.save()

结果输出:sheet1 

ABCD
2019-11-01 00:00:00-2.748299329-0.4751045920.4722281590.375505189
2019-11-02 00:00:000.3941350550.454457381.051139291-0.660948394
2019-11-03 00:00:00-0.1159173660.887737643-0.0652187750.628542098
2019-11-04 00:00:00-0.7470425971.3185878620.3513751962.006559399
2019-11-05 00:00:00-0.538853276-0.3239680351.6412018310.832038225
2019-11-06 00:00:00-0.2308198830.3612264762.981059284-0.282752734
2019-11-07 00:00:000.4460128470.1571348530.469619956-0.864433374
2019-11-08 00:00:001.483407425-0.8736135831.2758819131.393361881
2019-11-09 00:00:00-2.993810574-1.8943497150.2462253390.81601978
2019-11-10 00:00:001.001127464-1.283670894-0.277494697-1.108403165
2019-11-11 00:00:000.032262937-0.414623151.3634841821.084065374
2019-11-12 00:00:000.773718361-1.891746884-2.191906796-0.229845183
2019-11-13 00:00:000.7180594850.056195426-0.166176378-0.879896707
2019-11-14 00:00:00-0.77786206-0.5781329460.002456531-1.009984112
2019-11-15 00:00:00-0.140706394-1.6723038832.379240797-0.477193
2019-11-16 00:00:00-0.3304388321.349326828-1.611185835-1.117472688
2019-11-17 00:00:000.594385821-0.3495660632.5156284711.883487368
2019-11-18 00:00:000.4586359530.0914380190.142982058-1.865848673
2019-11-19 00:00:00-0.6277968771.151659164-0.4236115020.385119503
2019-11-20 00:00:00-0.4273550631.11599053-0.405061267-1.614393977
2019-11-21 00:00:00-0.7812244870.9091843160.5200030040.999774923
2019-11-22 00:00:00-2.7074354260.136051358-1.594984208-1.879257378
2019-11-23 00:00:000.0463963670.25656643-0.435255250.506502279
2019-11-24 00:00:000.2083889640.489574841-0.145479331-1.435911666

sheet2:

0123
00.577840647-1.1661758160.4265400660.289906941
1-0.7610932020.5565104332.1576216831.92666881
2-0.8855182781.109919278-0.05744118-1.230625124
3-1.417081241-1.4239432772.9439841980.062130554
40.8714317030.5147092991.834358959-0.006424981
5-0.3189332530.016404238-0.9168175272.545955738
60.172685038-0.240089429-0.812485835-0.929242697
7-0.6323869720.1312354041.628522398-0.47808205
8-0.05836918-0.881596476-0.949172898-0.569644943
93.066127163-0.1513347220.927841517-0.659900701
10-0.072356153-0.507385188-0.410943796-0.960699711
11-0.094601643-1.1657575350.7633953541.235162596
120.9256449691.1591801431.1620820422.050544193
130.282632986-0.690629242-0.135016956-0.87034863
14-0.450855017-0.4959521311.197093461-1.785680312
151.116692824-0.2689307160.968960205-0.036150945
161.60770553-0.629760951.0167956131.436878938
17-0.944857451-1.664227075-1.029120793-0.443128761
18-0.1097412930.7951667930.464880099-1.094235368
19-1.200246108-0.0201481991.1456587-0.760855735
20-0.5537910150.8930021560.043301140.060816106
21-0.959809977-1.296699517-0.500587363-0.778686252
22-0.3543743940.089239771-0.3057371852.222021455
231.7477813940.3180853031.2219008760.724086709

2.5.1数据的一些预处理

  1. 数据合并

    • 堆叠合并:将两个或多个表格在横向(x轴)或纵向(y轴)上进行拼接。这可以通过pandas.concat()函数实现。当表格的索引不完全一致时,可以选择内连接或外连接来决定如何处理索引。
    • 主键合并:基于两个或多个表格的共同列(通常是主键)来合并数据。这通常使用merge()函数完成。
    • 重叠合并:涉及更复杂的数据合并策略,可能需要基于数据的特定逻辑或条件来合并数据。
  2. 数据清洗

    • 处理缺失值:数据集中可能存在缺失值,可以使用fillna()函数将缺失值替换为特定的值(如0、平均值、中位数等)。
    • 删除重复行:如果数据集中存在重复的行,可以使用drop_duplicates()函数来删除它们。
    • 处理异常值:异常值是与数据集中其他值相差较大的值。可以使用clip()函数限制数据的范围,或者使用其他统计方法(如IQR方法)来识别和处理异常值。
  3. 数据标准化

    • 离差标准化:也称为最小-最大标准化,通过将数据值缩放到一个指定的范围(通常是0到1)来消除量纲和数量级的影响。
    • 标准差标准化:也称为Z-score标准化,通过将数据值转换为均值为0、标准差为1的分布来实现标准化。这有助于比较具有不同单位或量级的变量。
    • 小数定标标准化:通过移动数据值的小数点位置来标准化数据。这种方法在某些情况下可能很有用,但不如离差标准化和标准差标准化常用。
  4. 数据转换

    • 数据类型转换:使用astype()函数将数据转换为适当的类型(如整数、浮点数、日期等)。
    • 哑变量处理:对于分类数据,可能需要创建哑变量(或称为指示变量)来进行数值分析。这可以通过get_dummies()函数实现。
    • 离散化连续型数据:有时需要将连续型数据转换为离散型数据,这可以通过cut()函数或自定义逻辑来实现。

原文地址:https://blog.csdn.net/2202_75971130/article/details/136792216

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!