面试题:连续特征,可离散化,也可幅度缩放,两种处理方式适用于什么场景?


解析:

幅度缩放一般在计算型模型里会用到,比如LR DNN 离散化一般是线性模型会用到,比如LR。

如七月在线的寒老师所说,离散化的目的有以下几个方面:

① 非线性!非线性!非线性!
逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;离散特征的增加和减少都很容易,易于模型的快速迭代;

② 速度快!速度快!速度快!
稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展;

③ 鲁棒性!鲁棒性!鲁棒性!
离散化后的特征对异常数据有很强的鲁棒性:比如一个特征是年龄>30是1,否则0。如果特征没有离散化,一个异常数据“年龄300岁”会给模型造成很大的干扰;

④ 方便交叉与特征组合:离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;

⑤ 稳定性:特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人。当然处于区间相邻处的样本会刚好相反,所以怎么划分区间是门学问;

⑥ 简化模型:特征离散化以后,起到了简化了逻辑回归模型的作用,降低了模型过拟合的风险。

本文来自七月在线题库,更多面试题,可在题库中查看。

题库地址:https://www.julyedu.com/question/index
已邀请:

要回复问题请先登录注册

收藏七月在线,一起向大牛进阶

ctrl+D或command+D可以快速收藏哦~