
在数据分析中,我们经常需要根据时间范围将两个数据集关联起来。一个常见的场景是,我们有两个dataframe:一个记录了用户的交易信息,另一个记录了用户的浏览历史。我们的目标是为每笔交易找出其发生前7天内的所有相关浏览记录,并聚合这些记录的日期和值。这里的“相关”意味着交易和浏览记录必须属于同一个用户(person)和同一个商品代码(code)。
考虑以下两个示例DataFrame:
交易记录 (trade)
import pandas as pd
import janitor # 导入 janitor 库
trade = pd.DataFrame({'date': ['2019-08-31', '2019-09-01', '2019-09-04'],
'person': [1, 1, 2],
'code': [123, 123, 456],
'value1': [1, 2, 3]})浏览历史 (view)
view = pd.DataFrame({'date': ['2019-08-29', '2019-08-29', '2019-08-30', '2019-08-31', '2019-09-01', '2019-09-01', '2019-09-01', '2019-09-02', '2019-09-03'],
'person': [1, 1, 1, 2, 1, 2, 2, 1, 2],
'code': [123, 456, 123, 456, 123, 123, 456, 123, 456],
'value': [1, 2, 3, 4, 5, 6, 7, 8, 9]
})在进行时间相关的操作之前,将日期列转换为Pandas的datetime类型是至关重要的。
trade['date'] = pd.to_datetime(trade['date']) view['date'] = pd.to_datetime(view['date'])
我们期望的输出结果是,在原始交易信息的基础上,增加两列:view_dates和view_values,它们分别是以列表形式存储的、在每笔交易前7天内匹配到的浏览记录日期和值。
Pandas的merge_asof函数常用于近似合并时序数据。然而,它主要设计用于“最近匹配”场景,通常每个右侧(right)DataFrame的条目最多只能匹配一次。在本例中,我们希望每个交易条目能够匹配到多个浏览历史条目,且这些浏览历史条目可以被不同的交易重复匹配。因此,merge_asof无法直接满足我们的需求。例如,如果使用merge_asof,它可能会将浏览记录[1, 3]分配给第一笔交易,但对于第二笔交易,它可能只会分配[5],而忽略了同样在7天窗口内的[1, 3]。
pyjanitor库提供了一个强大的conditional_join函数,它允许我们基于多个自定义条件进行DataFrame的连接,包括非等值条件(如时间范围)。这使得它非常适合处理此类复杂的时序数据关联问题,尤其是在处理大规模数据时,其效率通常高于纯Pandas的循环或笛卡尔积合并。
# 1. 创建辅助列 'start_date'
# 2. 执行 conditional_join
# 3. 清理和格式化
# 4. 聚合结果
out_janitor = (trade
.assign(start_date=lambda d: d['date'].sub(pd.DateOffset(days=7))) # 计算7天前的日期
.conditional_join(view.rename(columns={'date': 'view_dates', 'value': 'view_values'}), # 重命名view列
('start_date', 'view_dates', '<='), # 条件1: start_date <= view_dates
('date', 'view_dates', '>='), # 条件2: trade.date >= view_dates
('person', 'person', '=='), # 条件3: person 匹配
('code', 'code', '=='), # 条件4: code 匹配
right_columns=['view_dates', 'view_values'] # 保留右侧DataFrame的哪些列
)
.drop(columns='start_date') # 删除辅助列
.assign(view_dates=lambda d: d['view_dates'].dt.strftime('%Y-%m-%d')) # 格式化日期为字符串
.groupby(list(trade), as_index=False).agg(list) # 按原始trade列分组并聚合列表
)
print("使用 pyjanitor.conditional_join 的结果:")
print(out_janitor)date person code value1 view_dates view_values 0 2019-08-31 1 123 1 [2019-08-29, 2019-08-30] [1, 3] 1 2019-09-01 1 123 2 [2019-08-29, 2019-08-30, 2019-09-01] [1, 3, 5] 2 2019-09-04 2 456 3 [2019-08-31, 2019-09-01, 2019-09-03] [4, 7, 9]
如果不想引入额外的库,也可以纯粹使用Pandas的merge和条件筛选来实现。这种方法在概念上更直观,但对于非常大的数据集,其性能可能不如pyjanitor.conditional_join,因为它首先会生成一个潜在的较大中间DataFrame(笛卡尔积或近似笛卡尔积)。
# 1. 进行笛卡尔合并
# 2. 应用时间条件筛选
# 3. 格式化和聚合
out_pandas = (trade
.merge(view.rename(columns={'date': 'view_dates', 'value': 'view_values'}), # 重命名view列并合并
on=['person', 'code'])
.loc[lambda d: d['date'].gt(d['view_dates']) & # 筛选条件1: 交易日期 > 浏览日期
d['date'].sub(pd.DateOffset(days=7)).le(d['view_dates']) # 筛选条件2: 交易日期 - 7天 <= 浏览日期
]
.assign(view_dates=lambda d: d['view_dates'].dt.strftime('%Y-%m-%d')) # 格式化日期为字符串
.groupby(list(trade), as_index=False).agg(list) # 按原始trade列分组并聚合列表
)
print("\n使用纯 Pandas 解决方案的结果:")
print(out_pandas)date person code value1 view_dates view_values 0 2019-08-31 1 123 1 [2019-08-29, 2019-08-30] [1, 3] 1 2019-09-01 1 123 2 [2019-08-29, 2019-08-30, 2019-09-01] [1, 3, 5] 2 2019-09-04 2 456 3 [2019-08-31, 2019-09-01, 2019-09-03] [4, 7, 9]
本教程展示了两种在Pandas中实现基于时间窗口的数据关联和聚合的方法:
选择哪种方法取决于你的具体需求、数据集大小以及对性能和依赖库的偏好。无论选择哪种,关键都在于正确地定义时间窗口条件并使用groupby.agg(list)来收集所有匹配的条目。
以上就是Pandas中基于时间窗口关联和聚合数据的技巧:以交易与浏览记录为例的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号