自学内容网 自学内容网

(6) 深入探索Python-Pandas库的核心数据结构:DataFrame全面解析

前言

大家好!我是架构筑梦的Cherry,本期跟大家分享的知识是 pandas 数据结构——DataFrame。

作者的【 Python智能工坊】专栏及【少儿编程Python:趣味编程,探索未来】正在火热更新中🔥🔥🔥,如果本文对您有帮助,欢迎大家点赞 + 评论 + 收藏 !

1. DataFrame 简介

DataFrame 是 pandas 库中最重要的数据结构之一,它用于存储和操作二维标签化的数据结构(即表格型数据)。它的强大功能、灵活性以及易用性,使其成为数据分析领域的重要工具。
在 DataFrame 中,我们可以拥有行(index)和列(columns),每个单元格可以包含任何数据类型(如整数、浮点数、字符串、Python 对象等)。

2. DataFrame的特点

  • 二维标签化数据结构: DataFrame是一个二维表格型数据结构,具有行和列的标签,允许用户通过索引或列名方便地访问和操作数据。

  • 灵活的数据类型: DataFrame中的每一列可以是不同的数据类型,如整数、浮点数、字符串、布尔值等。这使得DataFrame能够存储和处理复杂的数据集。

  • 丰富的索引功能: DataFrame支持多级索引,可以通过行标签(index)和列标签(columns)进行快速的数据访问。此外,DataFrame还支持基于条件的索引,允许用户根据特定条件筛选和查询数据。

  • 强大的数据处理能力: DataFrame提供了丰富的数据处理功能,包括数据排序、筛选、分组、汇总、连接等。这些功能使得用户能够轻松地对数据进行清洗、转换和分析,以满足不同的数据分析需求。

  • 与其他工具的集成: DataFrame可以与许多其他工具和库(如NumPy、SciPy、Matplotlib等)进行集成,为用户提供更加全面和强大的数据处理和可视化功能。

  • 易于使用和理解: DataFrame的语法和API设计得非常直观和易于理解,使得用户能够快速上手并熟练掌握其使用方法。同时,pandas库还提供了丰富的文档和示例代码,帮助用户更好地理解和应用DataFrame。

  • 高性能和可扩展性: DataFrame在数据处理方面具有很高的性能,能够快速地处理大规模数据集。此外,pandas库还提供了可扩展的接口和工具,允许用户根据自己的需求进行定制和优化。

  • 广泛的应用场景: DataFrame广泛应用于数据分析、数据科学、机器学习等领域。无论是在商业智能、金融分析还是科学研究方面,DataFrame都发挥着重要的作用。

3. DataFrame的创建

在pandas库中,DataFrame的创建可以通过多种方式实现,以下是几种常见且清晰的创建方法:

  • 使用字典创建DataFrame
  • 使用列表的列表(或元组)创建DataFrame
  • 使用NumPy数组创建DataFrame
  • 使用Series构成的字典创建DataFrame
  • 使用字典构成的字典创建DataFrame

pd.DataFrame()是创建DataFrame的常用方法,格式如下:

pd.DataFrame(data=None, index=None, columns=None, dtype=None, copy=False)

参数说明:

  • data:用于创建 DataFrame 的数据,可以是二维数组、列表的列表、字典等。
  • index:指定 DataFrame 的行标签,默认为整数序列。
  • columns:指定 DataFrame 的列标签,如果数据中包含列名则无需指定。
  • dtype:指定 DataFrame 中列的数据类型。
  • copy:是否复制输入数据,默认为 False。

以下是一些关于 DataFrame 的实例:

3.1 使用字典创建DataFrame

这是最直观和常用的创建方式之一。当已经有一组数据并且明确了每列的数据和列名时,可以使用字典来创建DataFrame。

import pandas as pd

# 使用字典列表创建
data = {
    'A': [1, 2, 3],
    'B': [4, 5, 6],
    'C': ['p', 'q', 'r']
}
df = pd.DataFrame(data)
print(df)

输出:

   A  B  C
0  1  4  p
1  2  5  q
2  3  6  r

3.2 使用列表的列表(或元组)创建DataFrame

当数据已经以记录方式(即每条记录是一个列表或元组)组织好,并且只需要添加列名时,可以使用此方法。

import pandas as pd
 
# 使用列表的列表创建DataFrame
data = [['Alice', 25, 'New York'], ['Bob', 30, 'Paris'], ['Charlie', 35, 'London']]
 
# 创建DataFrame,并指定列名
df = pd.DataFrame(data, columns=['Name', 'Age', 'City'])
print(df)

输出:

      Name  Age      City
0    Alice   25  New York
1      Bob   30     Paris
2  Charlie   35    London

3.3 使用NumPy数组创建DataFrame

如果已经有NumPy数组,并且想将其转换为DataFrame,可以这样做。

import pandas as pd
import numpy as np
 
# 创建NumPy数组
nums = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
 
# 创建DataFrame,并指定列名和索引
df = pd.DataFrame(nums, columns=['A', 'B', 'C'], index=['row1', 'row2', 'row3'])
 
print(df)

输出:

      A  B  C
row1  1  2  3
row2  4  5  6
row3  7  8  9

3.4 使用Series构成的字典创建DataFrame

当数据是pandas的Series对象时,也可以将其组合成字典来创建DataFrame。

import pandas as pd
import numpy as np
 
# 创建Series对象
s1 = pd.Series([1, 2, 3], name='A')
s2 = pd.Series([4, 5, 6], name='B')
 
# 创建DataFrame
df = pd.DataFrame({'A': s1, 'B': s2})
print(df)

输出:

   A  B
0  1  4
1  2  5
2  3  6

3.5 使用字典构成的字典创建DataFrame

此方法适用于数据是嵌套的字典结构,外层的字典键作为列名,内层的字典键作为行索引。

import pandas as pd
 
# 嵌套字典数据
data = {
    'a': {'一': 1, '二': 2},
    'b': {'一': 10, '二': 20},
    'c': {'一': 100, '二': 200}
}
 
# 创建DataFrame
df = pd.DataFrame(data)
print(df)

输出:

      a   b    c
一  1  10  100
二  2  20  200

这些方法是创建DataFrame的常见方式,可以根据具体的数据结构和需求选择最适合的方法。

4. 从 CSV 文件读取

在pandas库中,从CSV(Comma Separated Values)文件读取数据以创建DataFrame是非常常见的操作。这可以通过pd.read_csv()函数来实现。以下是一些使用pd.read_csv()函数的基本示例和参数说明:

import pandas as pd
 
# 读取CSV文件
df = pd.read_csv('file.csv')
 
# 显示DataFrame内容
print(df)

pd.read_csv()函数有很多参数可以定制读取行为,以下是一些常用的参数:

  • filepath_or_buffer:文件路径或类似文件的对象。这是必须的参数。
  • sep 或 delimiter:字段分隔符,默认为,。如果你的CSV文件使用其他分隔符(如制表符\t),你需要更改这个参数。
  • header:用作列名的行号。默认为0(即第一行)。如果CSV文件没有标题行,可以设置为None,并使用names参数手动指定列名。
  • names:如果数据不包含列标题,则可以使用此参数指定列名列表。
  • index_col:用作行索引的列编号或列名。如果未指定,则使用默认的整数索引。
  • usecols:返回列的子集。可以是列名的列表,也可以是列编号的列表。
  • dtype:列的数据类型。可以是单个类型,也可以是为每列指定的字典。
  • nrows:要读取的行数。这对于大文件特别有用,因为可以只读取前几行进行快速测试。
  • skiprows:要跳过的行数(从文件开始处计算)。
  • encoding:用于文件解码的字符编码。例如,‘utf-8’。
  • parse_dates:尝试将数据解析为日期。可以是布尔值,表示是否尝试解析所有列,也可以是列名的列表或解析指令的列表。
  • keep_default_na:如果指定了na_values参数,并且keep_default_na为False,则忽略默认的NaN值(如空字符串)。
  • na_values:识别为NaN或None的附加字符串列表。
  • thousands:用于解析数字的千位分隔符,如’,‘或’.'。
  • skipinitialspace:跳过字段中前导的空白字符。
  • comment:标记要忽略的行。任何包含此行标记的行都将被忽略。

5. DataFrame的属性和方法

5.1 查看 DataFrame

* 使用 `print(df)` 或直接在 Jupyter Notebook 中查看
* 使用 `df.head(n)` 查看前 n 行(默认为 5 行)
* 使用 `df.tail(n)` 查看后 n 行
  • 示例 1: 使用 print(df) 或直接在 Jupyter Notebook 中查看
    在Jupyter Notebook中,通常不需要显式调用print(df)来显示DataFrame。您只需将变量df(在这里它引用了您的DataFrame)作为一个独立的表达式或作为最后一行写入一个代码单元格,然后运行该单元格。Jupyter Notebook将自动显示df的内容。
import pandas as pd
 
# 假设我们有一个名为'example.csv'的CSV文件
df = pd.read_csv('example.csv')
 
# 在Jupyter Notebook中,只需运行以下行(无需print)
df

注意:如果您在标准的Python脚本或交互式环境中工作,则需要使用print(df)来显示DataFrame的内容。

  • 示例 2: 使用 df.head(n) 查看前 n 行(默认为 5 行)
    df.head(n)函数允许您查看DataFrame的前n行。如果未指定n,则默认显示前5行。
import pandas as pd
 
# 假设我们有一个名为'example.csv'的CSV文件
df = pd.read_csv('example.csv')

# 显示前5行(默认)
print(df.head())
 
# 显示前10行
print(df.head(10))
  • 示例 3: 使用 df.tail(n) 查看后 n 行
    类似地,df.tail(n)函数允许您查看DataFrame的最后n行。如果未指定n,则默认显示最后5行。
import pandas as pd
 
# 假设我们有一个名为'example.csv'的CSV文件
df = pd.read_csv('example.csv')

# 显示最后5行(默认)
print(df.tail())
 
# 显示最后10行
print(df.tail(10))

5.2 访问数据

* 通过列名访问整列数据:`df['A']`
* 通过位置访问列:`df.iloc[:, 0]` (等价于 `df['A']` 但基于位置)
* 通过标签访问列:`df.loc[:, 'A']` (也等价于 `df['A']` 但基于标签)
* 访问单个元素:`df.at[row_label, 'A']` 或 `df.iat[row_position, 0]`
* 访问多行多列:使用切片或布尔索引
  • 示例1:通过列名访问整列数据
# 假设我们有一个DataFrame df,它有一个名为'A'的列
col_a = df['A']
  • 示例2:通过位置访问列
# 使用iloc基于整数位置索引访问第一列(位置为0的列)
# 注意这不一定等同于df['A'],除非'A'确实是第一列
col_by_position = df.iloc[:, 0]
  • 示例3:通过标签访问列
# 使用loc基于标签索引访问名为'A'的列
# 这与df['A']等效
col_by_label = df.loc[:, 'A']
  • 示例4:访问单个元素
    有两种主要方式访问单个元素:

使用.at[]基于标签:

# 假设我们想要访问标签为'row_label'的行和名为'A'的列中的元素
element_at = df.at['row_label', 'A']

使用.iat[]基于整数位置:

# 假设我们想要访问第一行(位置为0)和第一列(位置为0)中的元素
# 注意这通常不会直接对应于'A'列,除非'A'是第一列,且'row_label'是第一行的标签
element_iat = df.iat[0, 0]
# 但如果你知道'A'是第n列,可以这样访问:
n = df.columns.get_loc('A')  # 获取'A'列的整数位置
row_position = 0  # 假设要访问第一行
element_specific_iat = df.iat[row_position, n]
  • 示例5:访问多行多列
    – 使用切片
# 访问前两行和前两列(基于位置)
subset_by_slice = df.iloc[:2, :2]

# 访问名为'A'和'B'的列(基于标签)
subset_by_slice_label = df.loc[:, ['A', 'B']]

– 使用布尔索引

# 假设我们有一个条件来选择某些行(例如,'A'列的值大于10)
mask = df['A'] > 10
# 选择满足条件的行和所有列
subset_by_condition = df[mask]
 
# 或者,选择满足条件的行和特定的列(例如,'B'和'C'列)
subset_by_condition_and_columns = df.loc[mask, ['B', 'C']]

5.3 修改数据

* 直接修改列的值:`df['A'] = [10, 20, 30]`
* 添加新列:`df['D'] = [100, 200, 300]`
* 删除列:`del df['A']` 或 `df = df.drop(columns=['A'])`
* 删除行:`df = df.drop(index=[0, 1])` (注意这会改变原始的 index)
  • 示例1:直接修改列的值
import pandas as pd
 
# 创建一个简单的 DataFrame
data = {
    'A': [1, 2, 3],
    'B': [4, 5, 6],
    'C': [7, 8, 9]
}
df = pd.DataFrame(data)

df['A'] = [10, 20, 30]
print("\n修改列 'A' 后的 DataFrame:")
print(df)

输出:

    A  B  C
0  10  4  7
1  20  5  8
2  30  6  9
  • 示例2:添加新列
df['D'] = [100, 200, 300]
print("\n添加新列 'D' 后的 DataFrame:")
print(df)

输出:

    A  B  C    D
0  10  4  7  100
1  20  5  8  200
2  30  6  9  300
  • 示例3:删除列
del df['A']
print("\n使用 del 删除列 'A' 后的 DataFrame:")
print(df)

输出:

   B  C    D
0  4  7  100
1  5  8  200
2  6  9  300
  • 示例4:使用 drop 方法
df = df.drop(columns=['B'])
print("\n使用 drop 方法删除列 'B' 后的 DataFrame:")
print(df)

输出:

   C    D
0  7  100
1  8  200
2  9  300
  • 示例5:删除行
df = df.drop(index=[0, 1])
print("\n删除索引为 0 和 1 的行后的 DataFrame:")
print(df)

输出:

   C    D
2  9  300

注意:在删除行或列后,原始的 index 可能会被改变(取决于你是否重置了 index)。如果你希望保留原始的 index 值(即使行被删除),你可能需要使用 reset_index 方法并设置 drop=True 来避免旧的 index 成为 DataFrame 的一部分。

5.4 DataFrame 的属性

* `df.shape`:返回 DataFrame 的形状(行数,列数)
* `df.dtypes`:返回每列的数据类型
* `df.index`:返回行标签
* `df.columns`:返回列标签
* `df.values`:返回 DataFrame 的 ndarray 表示
  • 示例:
import pandas as pd
 
# 创建一个简单的 DataFrame
data = {
    'A': [1, 2, 3],
    'B': [4.0, 5.0, 6.0],
    'C': ['foo', 'bar', 'baz'],
    'D': pd.date_range(start='2023-01-01', periods=3)
}
df = pd.DataFrame(data)

# 获取 DataFrame 的形状(行数,列数)
print("Shape of DataFrame:", df.shape) # 输出:Shape of DataFrame: (3, 4)
 
# 获取每列的数据类型
print("Data types of columns:", df.dtypes) # 输出:Data types of columns: A             int64
# B           float64
# C            object
# D    datetime64[ns]
# dtype: object
 
# 获取行标签
print("Row labels (index):", df.index) # 输出:Row labels (index): RangeIndex(start=0, stop=3, step=1)
 
# 获取列标签
print("Column labels:", df.columns) # 输出:Column labels: Index(['A', 'B', 'C', 'D'], dtype='object')
 
# 获取 DataFrame 的 ndarray 表示
print("NumPy ndarray representation:", df.values)
# 输出:
# NumPy ndarray representation: [[1 4.0 'foo' Timestamp('2023-01-01 00:00:00')]
#  [2 5.0 'bar' Timestamp('2023-01-02 00:00:00')]
#  [3 6.0 'baz' Timestamp('2023-01-03 00:00:00')]]

5.5 DataFrame 的方法

* `df.describe()`:提供 DataFrame 的统计摘要
* `df.sort_values(by='column_name')`:按指定列的值排序
* `df.groupby('column_name')`:按指定列的值进行分组
* `df.merge(other_df, on='column_name')`:基于指定列合并两个 DataFrame
* `df.pivot(index='column1', columns='column2', values='column3')`:将数据重塑为表格格式

当然,以下是您给出的 pandas DataFrame 操作的示例:

  • 示例1:df.describe() :提供 DataFrame 的统计摘要
import pandas as pd

# 创建一个简单的 DataFrame
data = {
    'A': [1, 2, 3, 4, 5],
    'B': [10, 20, 30, 20, 15],
    'C': [100, 200, 50, 30, 20]
}
df = pd.DataFrame(data)

# 提供 DataFrame 的统计摘要
print(df.describe())

输出:

              A          B           C
count  5.000000   5.000000    5.000000
mean   3.000000  19.000000   80.000000
std    1.581139   7.416198   73.824115
min    1.000000  10.000000   20.000000
25%    2.000000  15.000000   30.000000
50%    3.000000  20.000000   50.000000
75%    4.000000  20.000000  100.000000
max    5.000000  30.000000  200.000000

这将输出每列的基本统计信息,如计数、均值、标准差、最小值、25%分位数、中位数、75%分位数和最大值。

  • 示例2:df.sort_values(by=‘column_name’):按指定列的值排序
# 按列 'B' 的值排序
sorted_df = df.sort_values(by='B')
print(sorted_df)

这将按 ‘B’ 列的值对 DataFrame 进行排序。
输出:

   A   B    C
0  1  10  100
4  5  15   20
3  4  20   30
1  2  20  200
2  3  30   50
  • 示例3:df.groupby(‘column_name’):按指定列的值进行分组
# 按列 'B' 的值进行分组,并计算每组的 'A' 列的均值
grouped = df.groupby('B')['A'].mean()
print(grouped)

这将根据 ‘B’ 列的值对 DataFrame 进行分组,并计算每个组中 ‘A’ 列的均值。
输出:

B
10    1.0
15    5.0
20    3.0
30    3.0
Name: A, dtype: float64
  • 示例4:df.merge(other_df, on=‘column_name’):基于指定列合并两个 DataFrame
# 创建另一个 DataFrame
other_data = {
    'B': [20, 15, 30, 20],
    'D': ['x', 'y', 'z', 'w']
}
other_df = pd.DataFrame(other_data)

# 基于 'B' 列合并两个 DataFrame
merged_df = df.merge(other_df, on='B')
print(merged_df)

这将基于 ‘B’ 列的值将两个 DataFrame 合并为一个新的 DataFrame。
输出:

   A   B    C  D
0  2  20  200  x
1  2  20  200  w
2  3  30   50  z
3  4  20   30  x
4  4  20   30  w
5  5  15   20  y
  • 示例5:df.pivot(index=‘column1’, columns=‘column2’, values=‘column3’):将数据重塑为表格格式
# 假设我们有一个如下的 DataFrame
pivot_data = {
    'year': [2020, 2020, 2021, 2021],
    'product': ['A', 'B', 'A', 'B'],
    'sales': [100, 200, 150, 300]
}
pivot_df = pd.DataFrame(pivot_data)

# 使用 pivot 方法将数据重塑为表格格式
pivoted_df = pivot_df.pivot(index='year', columns='product', values='sales')
print(pivoted_df)

这将根据 ‘year’ 列的值创建行,根据 ‘product’ 列的值创建列,并将 ‘sales’ 列的值填入对应的单元格中。如果数据不能唯一地确定每个单元格的值(即存在重复的行/列组合),则 pivot 方法会抛出错误。在这种情况下,可以使用 pivot_table 方法,它允许进行聚合操作。
输出:

product    A    B
year
2020     100  200
2021     150  300

原文地址:https://blog.csdn.net/huanzi833/article/details/140142084

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!