如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

怎样才能在Kaggle举办的各式各样的比赛里,拿到骄人的成绩?

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

一位叫做Abhay Pawar的少年,在2600多支队伍参加的Instacart Market Basket Analysis比赛上,击败了98%的对手。

这是一个预测用户未来将购买何种商品的比赛,依据的是过往交易数据。

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

少年对参加比赛充满了心得,说最重要的就是要充分理解特征

于是,他写了一套七步秘笈出来,和小伙伴们分享自己探索特征的经验。

这份秘笈,封装在一个名叫featexp的Python包里,传送门在文底。

举栗用的数据集,是来自Kaggle Home Credit Default Risk (违约者预测) 比赛。

现在,了解一下具体步骤吧。

支配特征,七步大法

少年说,仔细观察一个模型的部分依赖图 (Partial Dependency Plot,PDP) , 可以帮助大家理解output是如何随着特征而变化的。

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

问题是,这种图像是用训练好的模型做的。而如果直接用训练数据来做图,就可以让大家更好地了解underlying data。

1. 理解特征

如果因变量 (目标) 是二进制,散点图就不好用,因为所有点不是0就是1。

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

针对连续目标,数据点太多的话,会让人很难理解目标特征之间的关系。

用featexp可以做出更加友善的图像。

拿这行代码试一下吧:

from featexp import get_univariate_plots

# Plots drawn for all features if nothing is passed in feature_list parameter.

get_univariate_plots(data=data_train, target_col='target', features_list=['DAYS_BIRTH'], bins=10)

Featexp可以把一个数字特征,分成很多个样本数相等的区间 (Equal Population Bins) 。

然后,计算出目标的平均值 (Mean) ,做出一个这样的图像:

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

在这里,平均值代表违约率。图像告诉我们,年纪 (DAYS_BIRTH) 越大的人,违约率越低。

嗯,如果年轻人不太在意违约,也比较符合常理。

还有另外一个图像,表示每个区间的人数 (分的时候就是相等的) :

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

不过,这个栗子是比较友好的特征。少年说了,下一个章节才是最有趣的。

2. 识别嘈杂特征

嘈杂特征容易造成过拟合,识别这样的特征一点也不容易。

在featexp里面,可以跑一下测试集,然后对比验证集和测试集的特征趋势,来找出嘈杂的特征。

这是对比用的代码:

get_univariate_plots(data=data_train, target_col='target', data_test=data_test, features_list=['DAYS_EMPLOYED'])

做出的图像长这样:

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

为了衡量嘈杂程度,featexp会计算两个指标

一是趋势相关性 (Trend Correlation) :如果一个特征在训练集和测试集里面,表现出来的趋势不一样,就可能导致过拟合。这是因为,模型从测试集里学到的一些东西,在验证集里不适用。

趋势相关性可以告诉我们,训练集和测试集趋势的相似度,以及每个区间的平均值,以及这些数值要怎么用。

上面这个特征,两个集子的相关性达到99%。

很好,一点也不嘈杂的样子。

二是趋势变化 (Trend Changes) :有时候,趋势会发生突变 (Sudden Changes) 和反复变化(Repeated Changes) 。

这可能就是很嘈杂的表现了,但也有可能是那个区间,因为其他特征的表现非常与众不同,而受到影响了。

如果出现这种情况,这个区间的违约率就没办法和其他区间直接相比了。

下面这个特征,就是嘈杂特征,相关性只有85%有时候,可以选择丢掉这个特征。

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

抛弃相关性低的特征,这种做法在特征非常多、特征之间又很相关的情况下,比较适用。

它可以减少过拟合,避免信息丢失。不过:

注意,别把太多重要的特征都丢掉了。否则,模型的预测效果可能就有损失了。

注意x2,也不能用重要性来评价特征是否嘈杂,因为有些特征就是可以既重要,又嘈杂得不得了。

用 (与训练集) 不同时间段的数据来做测试集,可能会比较好。这样,就能看出来数据是不是随时间变化的了。

请看下面的示范。

Featexp里有一个 get_trend_stats() 函数,可以返回一个数据框 (Dataframe) ,显示趋势相关性趋势变化。代码如下:

from featexp import get_trend_stats
stats = get_trend_stats(data=data_train, target_col='target', data_test=data_test)
如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

现在,可以试着丢弃一些特征了。不妨参考这些标准来执行:

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

 AUC=Area Under Curve,曲线下的面积,是评价模型的指标

丢弃特征的相关性阈值越高,排行榜上的AUC越高。

加上不要丢弃重要特征这一条规则,AUC提升到了0.74。

有趣的是,测试集的AUC并没有像排行榜的AUC变化那么大。

完整代码可以在featexp_demo记事本里面找到:

https://github.com/abhayspawar/featexp/blob/master/featexp_demo.ipynb

3. 特征工程

通过查看这些图表获得的见解有助于创建更好的特征。

只需更好地了解数据就可以实现更好的特征工程。 除此之外,它还可以帮助你改进现有特征。下面来看另一个功能EXT_SOURCE_1:

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

 EXT_SOURCE_1的特征与目标图

具有较高EXT_SOURCE_1值的客户违约率较低。 但是,第一个区间(违约率约8%)不遵循这个特征趋势(上升然后下降)。 它只有-99.985左右的负值且人群数量较多。这可能意味着这些是特殊值,因此不遵循特征趋势。

幸运的是,非线性模型在学习这种关系时不会有问题。 但是,对于像逻辑回归这样的线性模型,这些特殊值和空值应该用来自具有相似违约率的区间的值来估算,而不是简单地用特征均值。

4. 特征重要性

Featexp还可以帮助衡量特征的重要性。 DAYS_BIRTH和EXT_SOURCE_1都有很好的趋势。 但是,EXT_SOURCE_1的人群集中在特殊值区间中,这表明它可能不如DAYS_BIRTH那么重要。 基于XGBoost模型的特征重要性,DAYS_BIRTH实际上比EXT_SOURCE_1更重要。

5. 特征调试

查看Featexp的图表,可以帮助你通过以下两项操作来发现复杂特征工程代码中的错误:

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

1)检查特征的人群分布是否正确。 由于一些小错误,作者遇到过多次极端情况。

2)在查看这些图之前,总是假设特征趋势会是什么样子。 特征趋势看起来不符合预期,可能暗示着某些问题。 坦率地说,这个假设趋势的过程使ML模型更有趣!

6. 泄漏检测

从目标到特征的数据泄漏导致过度拟合。 泄露的特征具有很高的功能重要性。 但是,要理解为什么在特征中会发生泄漏,这很是困难的。 查看featexp图可以帮助理解这一问题。

以下特征在“Nulls”区间中的违约率为0%,在其他所有区间中的违约率为100%。 显然,这是泄漏的极端情况。 只有当客户违约时,此特征才有价值。 了解泄漏特征的问题所在能让你更快地debug。

如何在Kaggle比赛上击败98%的对手?你需要一份七步秘笈

7. 模型监控

由于featexp可计算两个数据集之间的趋势相关性,因此它可以很容易地用于模型监控。 每次重新训练模型时,都可以将新的训练数据与测试好的训练数据(通常是第一次构建模型时的训练数据)进行比较。 趋势相关性可以帮助您监控特征信息是否与目标的关系发生了变化。

featexp项目

作者Abhay Pawar在文中大篇幅使用了featexp,这是一个用于监督学习的特征探索项目,本文也是主要针对此工具得使用展开讨论。它对前面提到的特征理解、识别带噪声的特征、特征除错、泄露探测和模型监控都有帮助。

它的安装也很简单,可以通过pip直接安装:

pip install featexp

详细说明可参阅GitHub项目页:

https://github.com/abhayspawar/featexp

秘笈原文传送门:

https://towardsdatascience.com/my-secret-sauce-to-be-in-top-2-of-a-kaggle-competition-57cff0677d3c

版权所有,未经授权不得以任何形式转载及使用,违者必究。