机器学习100问|在对数据进行预处理时,应该怎样处理类别型特征?

[复制链接]
( P1 k7 \. G( S7 l6 D- w6 S, k! q$ p
- R. ^; U! ?) w" N6 v* k
. B& v/ _4 y [
Question1|为什么需要对数值类型的特征做归一化? Question:在对数据进行预处理时,应
; S% ]- N+ ~# b# O
/ i9 L, y# w, p# p7 i
0 s3 a7 S1 b, B8 ~* l* @3 @2 \, u6 d
7 e4 ^6 @, I+ {9 P2 F$ J

Question1|为什么需要对数值类型的特征做归一化?

. R B2 U1 b- _5 H 5 M5 p2 e& v4 a' d

Question:在对数据进行预处理时,应该怎样处理类别型特征?

4 b% g1 K2 g9 D% c9 J

■ 序号编码

! _/ v8 a5 j% ?# ` T( ~9 [* I

序号编码通常用于处理类别间具有大小关系的数据。例如成绩,可以分为

0 ?+ m" t) e' T- Q4 N

低、中、高三档,并且存在“高>中>低”的排序关系。序号编码会按照大小关系对类别型特征赋予一个数值ID,例如高表示为3、中表示为2、低表示为1,转换后依然保留了大小关系。

/ T' I4 I4 ]9 s5 \( Q2 G! B

■ 独热编码

% i; Y H- L+ }8 Q) i" A

独热编码通常用于处理类别间不具有大小关系的特征。例如血型,一共有4个取值(A型血、B型血、AB型血、O型血),独热编码会把血型变成一个4维稀疏向量,A型血表示为(1, 0, 0, 0),B型血表示为(0, 1, 0, 0),AB型表示为(0, 0,1, 0),O型血表示为(0, 0, 0, 1)。对于类别取值较多的情况下使用独热编码需要注意以下问题。

8 O' T2 m* {% m( M% F( C3 s% K3 R

(1)使用稀疏向量来节省空间。在独热编码下,特征向量只有某一维取值为1,其他位置取值均为0。因此可以利用向量的稀疏表示有效地节省空间,并且目前大部分的算法均接受稀疏向量形式的输入。

$ |& g! b" \7 {7 z0 t. Q+ y6 k

(2)配合特征选择来降低维度。高维度特征会带来几方面的问题。一是在K近邻算法中,高维空间下两点之间的距离很难得到有效的衡量;二是在逻辑回归模型中,参数的数量会随着维度的增高而增加,容易引起过拟合问题;三是通常只有部分维度是对分类、预测有帮助,因此可以考虑配合特征选择来降低维度。

5 U* k+ B6 X! O6 m

■ 二进制编码

* s5 |8 x& p1 W' R* N

二进制编码主要分为两步,先用序号编码给每个类别赋予一个类别ID,然后将类别ID对应的二进制编码作为结果。以A、B、AB、O血型为例,表1.1是二进制编码的过程。A型血的ID为1,二进制表示为001;B型血的ID为2,二进制表示为010;以此类推可以得到AB型血和O型血的二进制表示。可以看出,二进制编码本质上是利用二进制对ID进行哈希映射,最终得到0/1特征向量,且维数少于独热编码,节省了存储空间。

# G/ D2 ~! ]' \

. v, G1 g. L! Q1 v% {7 y

除了本章介绍的编码方法外,有兴趣的读者还可以进一步了解其他的编码方式,比如Helmert Contrast、Sum Contrast、Polynomial Contrast、BackwardDifference Contrast等。

1 w6 \$ T( v, e2 Z1 }5 A( m 参考:《百面机器学习6 q6 F& n4 Y A. s 1.1 * e/ @! N9 i3 ^9 n5 _' ^ - O8 U+ V9 w$ s, d8 P G
. N( }' D M1 R
- a4 j3 z9 N0 S s8 K3 m
$ C; |- S9 }( |$ F 9 @7 | _# b l, \% ~/ `0 S/ X) h$ H4 a/ P3 s 7 f. ~( J# N0 q7 Q5 h0 ~7 m " }6 B" @, F& N7 R+ M
回复

举报 使用道具

相关帖子

全部回帖
暂无回帖,快来参与回复吧
懒得打字?点击右侧快捷回复 【吾爱海洋论坛发文有奖】
您需要登录后才可以回帖 登录 | 立即注册
天阶雨
活跃在2024-9-13
快速回复 返回顶部 返回列表