TOOLS_Pandas groupby 分组聚合常用方法使用示例
创始人
2024-05-29 16:04:37
0

TOOLS_Pandas groupby 分组聚合常用方法使用示例

  • 根据给定列中的不同值对数据点(行)进行分组;
  • 分组后的数据可以计算生成组的聚合值;

注意:下文仅是常用的一些示例,实际操作时可组合使用的方式要多得多

import pandas as pd
df = pd.read_excel("./工作簿1.xlsx")
df.head()
storeproduct_groupproduct_codestock_qtycostpricelast_week_saleslast_month_sales
0VioletPG14187498420.76569.911358
1RosePG24195473545.64712.411658
2VioletPG24204968640.42854.912288
3DaisyPG14219241869.691034.551445
4DaisyPG24718140112.5426.5950285

n列分组n特征列n聚合

# 单列分组——所有数值型特征列——单聚合
df.groupby("store").mean() # 单列分组——单特征列——单聚合
df.groupby("store")["price"].mean() # 多列分组——多特征列——多聚合
df.groupby(["store","product_group"])[["cost","price"]].agg(["mean","max"]) 
costprice
meanmaxmeanmax
storeproduct_group
DaisyPG1869.69869.691034.551034.55
PG212.5412.5426.5926.59
RosePG2545.64545.64712.41712.41
VioletPG1420.76420.76569.91569.91
PG2640.42640.42854.91854.91

对聚合结果进行命名

df.groupby("store").agg(mean_price = ("price", "mean"),max_price = ("price", "max"),mean_cost =  ("cost", "mean"),max_cost = ("cost", "max"),
)
mean_pricemax_pricemean_costmax_cost
store
Daisy530.571034.55441.115869.69
Rose712.41712.41545.640545.64
Violet712.41854.91530.590640.42

as_index 参数

  • 如果groupby输出的是DataFrame,可以使用该参数将分组的列(默认会被处理为索引列)加入到结果的DataFrame中(转换为特征列);
df.groupby("store", as_index=False).agg(mean_price = ("price", "mean"),max_price = ("price", "max"),mean_cost =  ("cost", "mean"),max_cost = ("cost", "max"),
)
storemean_pricemax_pricemean_costmax_cost
0Daisy530.571034.55441.115869.69
1Rose712.41712.41545.640545.64
2Violet712.41854.91530.590640.42

dropna 参数

groupby函数默认会忽略分组的缺省值:如果用于分组的列中缺少值,那么它将不被包含到任何组中,也不会单独显示;

使用dropna参数可以改变这一行为;

df.loc[5] = [None, "PG2", 1000,120,60,90,15,50]
df.groupby("store", dropna=False)["price"].mean()
store
Daisy     530.57
Rose      712.41
Violet    712.41
NaN        90.00
Name: price, dtype: float64

排序输出

  • 使用sort_values函数根据聚合列多输出进行排序
df.groupby("store", as_index=False).agg(mean_price = ("price", "mean"),max_price = ("price", "max"),mean_cost =  ("cost", "mean"),max_cost = ("cost", "max"),
).sort_values(by="mean_price", ascending=False)
storemean_pricemax_pricemean_costmax_cost
1Rose712.41712.41545.640545.64
2Violet712.41854.91530.590640.42
0Daisy530.571034.55441.115869.69

某一列的Top N

  • max() 取最大值
  • nlargest(N)nsmallest(N) 取前N个最值
df.groupby("store")["price"].max()
df.groupby("store")["price"].nlargest(2)
store    
Daisy   3    1034.554      26.59
Rose    1     712.41
Violet  2     854.910     569.91
Name: price, dtype: float64

第N个值

  • 先排序,再取值
df_sorted = df.sort_values(by=["store","price"], ascending=False, ignore_index=True)
# ignore_index参数,会重置索引# 找到每个分组中的第一个值(按照price倒序,对应的就是每组中price最高的一条记录)
df_sorted.groupby("store", as_index=False).nth(0)# 找到每个分组中的最后一个值(按照price倒序,对应的就是每组中price最低的一条记录)
df_sorted.groupby("store", as_index=False).nth(-1)
storeproduct_groupproduct_codestock_qtycostpricelast_week_saleslast_month_sales
1VioletPG14187498420.76569.911358
2RosePG24195473545.64712.411658
4DaisyPG24718140112.5426.5950285

唯一值、唯一值的数量

  • unique函数 查找每组中的唯一值
  • nunique函数 统计每组中唯一值的数量
df.groupby("store", as_index=False).agg(unique_val = ("product_code", "unique")
)
storeunique_val
0Daisy[4219, 4718]
1Rose[4195]
2Violet[4187, 4204]
df.groupby("store", as_index=False).agg(number_unique_val = ("product_code", "nunique")
)
storenumber_unique_val
0Daisy2
1Rose1
2Violet2

组的个数

# 两列的组合数
df.groupby(["store", "product_group"]).ngroups
5

获取特定分组

asign_pg1 = df.groupby(["store", "product_group"]
).get_group(("Daisy", "PG1"))asign_pg1
storeproduct_groupproduct_codestock_qtycostpricelast_week_saleslast_month_sales
3DaisyPG14219241869.691034.551445

Lambda

  • 在agg函数中使用lambda表达式,自定义聚合操作
df.groupby("store").agg(test_p = ("price", lambda x: round(x.sum()/1000, 1))
)
test_p
store
Daisy1.1
Rose0.7
Violet1.4

apply函数

  • 使用apply函数将Lambda表达式应用到每个组。
  • 例如,我们可以计算每家店利润值;
df.groupby("store").apply(lambda x: (x.price - x.cost).sum()
)
store
Daisy     178.91
Rose      166.77
Violet    363.64
dtype: float64

expanding 函数

import numpy as npdf = pd.DataFrame({"date": pd.date_range(start="2022-08-01", periods=8, freq="D"),"category": list("AAAABBBB"),"value": np.random.randint(10, 30, size=8)}
)
df
datecategoryvalue
02022-08-01A26
12022-08-02A25
22022-08-03A29
32022-08-04A10
42022-08-05B25
52022-08-06B18
62022-08-07B24
72022-08-08B15
# 累计总和
df["cum_sum"] = df.groupby("category")["value"].cumsum()
df
datecategoryvaluecum_sum
02022-08-01A2626
12022-08-02A2551
22022-08-03A2980
32022-08-04A1090
42022-08-05B2525
52022-08-06B1843
62022-08-07B2467
72022-08-08B1582
# expanding函数提供展开转换。但是对于展开以后的操作还是需要一个累计函数来堆区操作
df["cum_sum2"] = df.groupby("category")["value"].expanding().sum().values
df
datecategoryvaluecum_sumcum_sum2
02022-08-01A262626.0
12022-08-02A255151.0
22022-08-03A298080.0
32022-08-04A109090.0
42022-08-05B252525.0
52022-08-06B184343.0
62022-08-07B246767.0
72022-08-08B158282.0

相关内容

热门资讯

为什么创业需要组成创业团队?答... 首段: “单打独斗”还是“团队作战”?这是很多创业者在初创业时都会面临的问题。那么,为什么创业需要...
【国家扶贫农村创业项目】助力乡... 首段: 随着我国经济的快速发展,农村地区的发展也成为了国家关注的焦点。在这个大背景下,国家扶贫农村...
今年有什么好生意 今年有什么好... 今年有什么好生意?这个问题一直困扰着很多创业者。随着市场的不断变化和消费需求的不断升级,今年的好生意...
养殖创业赚钱吗?揭秘养殖业赚钱... 首段: 养殖创业赚钱吗?相信这是许多想要投身养殖业的创业者心中的疑问。近年来,随着我国经济的快速发...
唐七公子的《三生三世,枕边书》... 唐七公子的《三生三世,枕边书》大概情节是怎样的?有没有谁知道?凤九和东华帝君的故事。枕上书不是枕边书...
我想请高人解签-一世姻缘岂偶然... 我想请高人解签-一世姻缘岂偶然,贵人扶助力为先,丝罗结就宾人语,伉俪谐和到百年.是什么意思?这个签是...
中国传媒大学数字媒体艺术专业本... 中国传媒大学数字媒体艺术专业本科生的教材有哪些?最好告诉我书名和作者。版本。谢啦!我是大一学生 广告...
我是电子商务专业的大学生,现在... 我是电子商务专业的大学生,现在的我很迷茫,我想努力,可是真不知道自己该学些什么充实自己的大脑,求救你...
中大门国际物流集团加密“郑州-...   炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会! (来源:大象新闻)大...
水利部针对广东、广西、海南启动... 转自:央视网央视网消息:据预报,受第6号台风“韦帕”影响,7月19日至21日,华南大部、江南东南部及...