|
$ M1 d& A. v; ]: t% b
从网络上搜集来的原始数据(raw data)里面会存在很多错误,包括手工录入错误和系统自动产生的错误等等。
) ^7 g' [- d. @, y* r 数据净化和预处理(Data preparation & wrangling)就是为了把这些带错误的、不精准的干数据(raw data)转化成可以输入模型的形式(consolidated format)。 ! j0 d% ?% D1 D) c
传统数据的数据清洗(Data Cleansing/ Preparation)" s' L7 Q; K! f- |3 d; l+ e
【】中的颜色为图例中相关需清洗的数据类型。
' D1 E6 |# i! @" {" s 1 f; y a% _) k
【红色】数据缺失(Incompleteness error):Missing values/ N/A not applicable的两种处理方法 ① 删除该行数据; ② 用其它数据替代,包括 平均数、众数、中位数,或者假设为0。 " |4 d/ O9 c: k0 t' ^
【橙色】无效数据(Invalidity error):数据超出了有意义的范围(meaningful range),如图中例子,1900年生人到现在肯定死翘翘了,这个数据是无意义的,所以该数据无效。可以参考其他数据进行修正。 6 x( ~- F5 [& z( ~
【黄色】不准确(Inaccracy error):如图中例子,要么就是yes,要么就是no,dont know是不精确的陈述(not a measure of true value)。可以参考原始记录进行修正。 2 Y% N. |2 c( S* u% q7 g: Q5 Z
【绿色】不一致(Inconsistency error):前后矛盾。如图中例子,X女士的性别不应该是男。 6 X! ]/ P7 M* n# m8 R+ `
【蓝色】不统一(Non-uniformity error):格式上的不统一。如5000000, 5百万, 500万,5,000,000,5m,5million,五百万都是表达的一个含义,应将格式统一。 ' O8 s6 a) N6 r
【紫色】重复(Duplication error):如图中2号和5号行的数据代表的同一个人,重复的数据删掉一个就好了。 4 Y6 K4 x' G) B& n: w$ B/ k
下图为清洗完毕(cleansed)的传统数据。
2 o2 [5 b6 f- C % z5 Z6 f- a. a" g; T+ F) m6 T" T* L
因为要人工逐行逐列的检查和修正,数据清洗需要花费大量的成本。可以借助一些软件(如SPSS),通过元数据(metadata)来检测数据的属性。
* g& u( c( i4 o; f7 ?! O$ D* b 这里简单提一下元数据(metadata),简单的定义就是data about data。
* w$ a1 A5 L5 S7 C) M 实在不行的数据行,删掉他就好了,当然也要注意数据库的大小,数据库尺寸很大的话删掉一个也不差什么。
: v0 h( O4 V) E1 j% n( ]1 I 传统数据的数据预处理(Data Wrangling/ Preprocessing)
! t P9 ^, S$ K Q# q6 W 对数据的预处理过程(data wrangling/ preprocessing)是基于清洗完的数据(cleansed dataset)的。 9 `, I. Y/ M0 }. S
主要包括以下几种方式:
( o! Q0 z9 a- X% ^/ ~1 t 提取(extraction):从旧数据中提取新的数据。
# n9 N% ~/ n3 b8 h# q- \9 x 并列加和(aggregation):两个或者更多的数据加和成一个新的数据。 9 d7 Q9 v3 E) R, B% U) Y3 t( Q/ B h. ?
过滤(filtration)-行:去除不必要的行的数据。 7 A# j3 a& `9 M0 c; n
筛选(selection)-列:去除不必要的列的数据。
7 _: f; k5 F1 P7 @% f9 i# o) g" N 转化(conversion):之前我们讨论过数据分为几种不同的类型(nominal, ordinal, continuous, categorical...),数据转化成更合适的类型。
: m, W) x2 h3 X2 s& v7 y 接下来我们主要讨论下数据预处理中的对异常值的处理(Outliers)以及数据的标准化(Scaling)。 % ~4 n( z+ d% B5 w2 P1 |
异常值处理(Outliers) 1 |9 v1 z. S4 h' H8 z* x- s8 R
异常值就是离正常数据列非常遥远的数据,明眼人一看就知道不合群、不对劲,但是统计学上还是给出了一些检测异常值的方法。
( l5 a4 S6 S; ~# B) F' _
* m# ]2 u3 W8 e! u t) E" O 机器学习中outlier的检测方法类似于统计学,如标准差(Standard Deviation)、分位值(Interquartile Range, IQR)等。
2 Q+ D0 |* ?4 E4 g: E* z+ v9 z 标准差(Standard Deviation)方法适用于正态分布中,超出3个标准差的值就可以考虑是outlier了。
' y: I" ~& [7 P$ r3 Q Interquartile Range, IQR的定义是75th分位置和25th分位置的差,IQR的中心即为50th分位置。超出1.5个IQR的值可以考虑是outlier,超出3个IQR的值就是extreme value了。
$ d0 O: p+ {# L8 g* g2 l6 b b 异常值的处理方式就两种:删除掉(Trimming/ truncation),或者用非outlier的值进行替代(winsorization-缩尾处理)。 ! q* G7 ^) i! f; t
数据标准化(Scaling) ( L& `1 H+ j# i; Q4 h7 A+ p
数据标准化就是把所有数据都标准到[0,1]的区间,更便于相互之间的比较。
/ J3 P0 { j2 W. S$ q8 z0 R& d) Y 其实在统计学中,我们已经事先接触到标准化的过程了,类似于协方差(covariance)到相关系数(correlation)的过程。 ; j7 c; u) ]9 h' x
机器学习同样适用于数据的标准化进程,将异质的(heterogeneous)数据同质化(homogeneous)。 " f% h% `( n) c
下面列举出两种标准化的方法:
0 W6 b/ A, d0 m; `* _' `; h Normalization:适用于更广泛的分布,对outlier比较敏感。通过对整个数据列的最大值和最小值之间的跨度进行标准化。 ) x+ u8 s; h+ g ^& F
6 Y" K# F: `; Y7 I6 d
Standardization:适用于正态分布,对outlier没那么敏感。通过使用均值和方差进行标准化。 ' O0 t3 m( R& `
- ]' R( ^- v0 f5 C7 e" D, }+ A
文本数据的数据清洗(Text Cleansing/ Preparation)% P; O0 q$ `. c1 T' u& y4 f
我们在网页上看到的规规整整的文字,抓取(scraping)之后的原始文本数据(raw text data)就包括了很多不必要的元素。
- ^2 Y( ? h, [' A! E1 y
( ?( d7 H5 b* G/ i/ K$ I+ L 这些不必要的元素包括【红色】html tags, 【黄色】标点符号punctuation, 【蓝色】numbers, 【绿色】空白格white spaces) 8 A% L6 @) u& u
0 l# _3 ~( D5 W: F4 \
文本数据的数据清洗(Text Cleansing/ Preparation)过程就是将它们移除,清洗完成的文本数据(cleansed text data)如下图。 0 v0 v6 l' U, V6 Q. r
6 w/ ^' g& I n* R; x' Z( L; Q, I+ q 文本数据的数据预处理(Data Wrangling/ Preprocessing)
* P* L+ S k5 X& ^ 首先引进一个概念,token。上图中一个 /.../ 就可以等同于一个token的概念,tokenization的就是把文本(a collection of tokens)分裂成一个小块一个小块的过程。
/ M+ @. h! y9 T8 \# x# q' i6 m! [+ a 文本数据的预处理的过程首先是normalizing,把具有相似含义的tokens标准化成一个形式。形成一个BOW(Bag-of-Words),囊括了一篇文本里的所有标准化的tokens们。然后列出一个token在不同文本出现的频率表(Document Term Matrix, DTM),将这些unstructed(text) data最终转化成了structed data。
5 }, c z' J9 G* [ Normalizing tokens 标准化 $ A4 [9 t2 v i5 y y, _
机器学习大数据的标准化处理的结果其实看起来是挺奇怪的。
0 p: n' ]7 C* u1 o9 u 我们从小学习的英语语法中有一些不同寻常的变形方式,比如“去e+ing”,“y变i+ed”等等,这些就导致了机器学习大数据中很多标准化处理后的结果像个残疾人一样。
1 s, F8 K$ P4 j# v5 \4 u: N5 C7 J7 ~ 比如increase, increases, increasing, increased, increasingly这些词并不是标准化成increase(所谓的原型),而是increas。
$ ^" k; B0 u5 q! D" `/ v 因为increasing把e去掉加的ing,所以为了让三个词都能有个共同的标准化结果,机器学习大数据的标准化结果只能是“increas”了——看,像不像个残疾人?
3 V, Z! y$ U1 {8 A$ [( Z1 R% S 那我们拆开看一下value, valued, values...这些是怎么一步步变成valu的? , l, K) s; y9 h- C% l4 F* p" ~
Normalizing的过程包括四个步骤。 5 s5 `# x" o( W9 h+ `1 {8 _/ e
①Lowercasing:统一大小写。
8 D$ ^$ B0 C& @# w( D# T ②Removing stop words:stop words呢,就是text里面那些没有太大意义的词,就像语法中我们学到的冠词这些(a, the, is...)可以事先列一个list决定stop words包括哪些。 - Y/ y+ g5 ^# X( ^, E$ z5 M5 j
接下来两步就是变成残疾人的核心步骤了,简单理解,③Stemming就是从各种变化形态变成原型(base word/ stem)(values, valued -> value);而④Lemmatization就是从原型再缩减到词根形式(morphological root/ lemma)(value -> valu)。
9 w4 Y( G( T3 G- y8 K0 f' E8 h0 b 这两步可以减少那些低频、不常见的tokens(也叫data sparseness),让机器学习的模型变得更简单。 9 P! |2 G: E) ?$ h! b" U' h2 p
BOW(Bag-of-Words) 4 u! c! U% z# L! q/ g
一篇文章的tokens们,整理到一起,就形成了BOW(Bag-of-Words),这样的形式更便于进一步的分析。标准化后的BOW越来越小。
4 M. J" q; C( J& s: K y0 @ ( o$ ]9 h" Z# d( g
DTM(Document Term Matrix) . o& l) @8 W s/ J: P. X$ T4 Y' d
将BOW中不同的tokens(行row)在不同的text(列column)出现的频率列成一个表,这个表就是DTM(Document Term Matrix)。
. M2 k: X: Q8 W* {8 R
$ n2 E" W1 K9 q# A# I; R 这一步更关键的意义是将text data转化成structed data,以便于更好的Machine Learning input。 ! g6 q5 z" Y3 ~' F3 e4 C
参考资料: CFA Level II <Quantitative Methods> 3 p; ~2 _( @ i$ v" x1 f
文 by / 杨翊守 公众号:拂晓Palpitate 3 ~0 G3 y1 W L( y5 V* P
7 W' q$ x" ?: Y# A# g
5 {# x3 ~' d% s, j5 b- i( r3 D( R! c( K. t$ l: o2 J* A
4 s- ^& i t2 L8 p |