数据挖掘系列讲堂:数据预处理从入门到精通,你还需要了解TA(一)

[复制链接]
% T& q8 M) C2 o' `9 T

前言:数据挖掘讲堂开课啦!回顾此前的课程,我们和大家分享了数据挖掘的流程与方法,帮助大家打通数据挖掘的任督二脉,成为数据挖掘“高手”。

然而,在数据挖掘的过程中,数据的准备阶段也至关重要,高质量的数据是数据挖掘的基础,如何在前期实现对数据的核查并提高数据质量?国信大数据君会在接下来的三期讲堂中和向大家一一道来分享。

我们知道,数据库极易受噪声、缺失值和不一致数据的侵扰,因为数据库太大,并且多半来自多个异种数据源。低质量的数据将导致低质量的挖掘结果。因此数据预处理的环节十分必要,其最重要的目的就是为了提高数据的质量。一般情况下,我们通过以下几个方面去评价数据的质量:

- p3 T' `9 T% ]

l ) e4 P8 b( ~; x$ g4 s 数据的完整性,即数据是否有缺失的情况;

. ^2 o+ H9 n% h9 x

l( ] p! @2 R) L; I/ B% { 数据的合理性,即数据是否在合理正常的范围内;

& h6 C- z" G3 V; Q7 K+ U7 k: t

l & M) |; D3 @* f {( v7 i 数据的一致性,即数据前后的业务逻辑关系是否合理。

- b2 q+ {8 U$ b& S2 Z; I

此外,在模型建立的过程中,过多的变量进行建模得到的模型效果也不佳(如会产生异方差、多重共线性等等问题使模型的系数统计检验上出现差错等),因此,要对变量(指标)进行筛选,选择出合适的变量进行建模,提高模型的准确度与稳定性。那么如何实现数据的完整性、合理性与一致性,并实现在高质量的数据中进行深入挖掘分析呢?接下来的三期中,我们将分别通过介绍数据预处理的三大核心内容:数据稽核(data auditing),数据预处理(data preprocessing)、指标筛选(index4 d1 n$ ?3 Y& j; Q0 X$ _( o screening),带领大家实现数据预处理从入门到精通!

0 c& x. V6 J9 g: J

(一)数据稽核体系(data auditing)

5 q& z/ \0 ]3 c- x) E

由于大数据的高维、异构、多变和强随机性,使得大数据存在复杂性和不确定性,数据结构复杂性包括结构、半结构和非结构的数据形式。数据来源包括企业自有的信息系统产生的数据和与企业相关的互联网数据,数据存储可能是数据库管理系统、NoSQL、图数据库、格式化文本或者网页数据。大数据的高维度带来噪声累加、伪关联和偶然同质性(National Science Review,2014),也带来巨大的计算代价和算法的不稳定性。大数据的低质特性是指不完整、不一致、不精确、时效错误等,以及压缩和加密导致的低质性。低质特性对大数据应用造成了较大影响,如知识发现过程的影响、数据准确应用的影响、数据转化交叉应用的影响等。

% e7 e6 `! {7 [& U/ v$ ]# s8 p2 I# W! Q

我们总结传统的数据稽核技术,并形成一套较为适用的数据稽核体系,包括数字化探索、可视化探索、描述统计探索等,结合大数据规模性、时效性要求,扩展并规范数据稽核的方法,进一步形成不同行业直接通用的标准流程,并固化至系统中可灵活高效的完成数据结合工作。

2 c* ]* z6 E7 A" @# h) c

1.6 l- r2 X3 z7 B2 R$ i3 i6 k 数字化探索

/ |6 A! J( p- ?) t1 d) u

变量概览规划:分类数据(categorical data)、顺序数据(rank data)、数值型数据(metric data)、观测数据和实验数据、横截面数据和时间序列数据;

; m% L7 \/ D- E& [9 T% g

数据缺失值识别:在任何规模的项目中,数据都可能由于未作答问题、设备故障或误编码数据的缘故而不完整;

. e. d- f/ T" X* L( f

数据相关性分析:变量之间相互关系大致可分为两种类型,即函数关系和相关关系。函数关系是指变量之间存在的相互依存关系,它们之间的关系可以用某一方程(函数)表达出来;相关关系是指两个变量的数值变化存在不完全确定的依存关系,它们之间的数值不能用方程表示出来,但可用某种相关性度量来刻划。相关关系是相关分析的研究对象, 而函数关系则是回归分析的的研究对象;

/ F* ~2 \' [+ }/ @. @

指标分布统计:离散指标的贝努利分布binom(1,p)、二项分布binom(n,p)、泊松分布pois(λ)等,连续指标的均匀分布unif(a,b)、正态分布/高斯分布binom(μ,σ²)、指数分布exp(λ)等,比如质量控制中,为了控制实验中的测量(或实验)误差,常以μ作为上、下警戒值,以σ² 作为上、下控制值,其依据是正常情况下测量(或实验)误差服从正态分布。

6 h& ]8 y5 P( y* M0 u, }# J
, d* i- v, x' h% n+ K- d- o

2. 可视化探索

0 I, ~: E8 U0 O5 b u6 U

常用的可视化图表规范包括直方图、累计分布图、箱型图、点阵图、条形图、饼图等。以适用箱型图观测离群点为例,箱型图(又称盒须图)通过绘制连续型变量的五数总括,即最小值、下四分位数(第25百分位数)、中位数(第50百分位数)、上四分位数(第75百分位数)以及最大值,描述了连续型变量的分布,箱型图能够显示出可能为离群点的观测。

b$ A2 w) F; e0 {5 G
0 S. ~4 @0 H( M2 P! p/ r" j0 |

3. 统计描述探索

8 J7 k6 Z& T, p8 F% e9 E

统计描述探索分为对集中趋势的度量规范,如均值、中位数、众数等,以及离散程度的度量,如极差、四分位数、方差、标准差、四分位数极差等。

+ X3 _; q0 t9 v* q' Q9 r* @
! O$ [9 V& j; R% f( [) v. R

数据稽核是数据挖掘中数据准备过程的重要一环,是数据探索的前提。我们常说,“Garbage in, Garbage out”,即无用输入,无用输出,没有可信的数据,数据挖掘构建的模型将是空中楼阁。因此,强大的数据稽核将为数据挖掘的实习打下坚实的地基,同时数据预处理能够有效的提高数据质量,节约大量的时间和成本,只有形成一套完整的数据稽核体系,强化对底层数据的审计和核查,才能在后续的数据分析与处理过程中挖掘高质量的数据,从而最终释放出数据的巨大价值。

/ Y7 C& w4 p+ O/ E) d; E8 X " S7 Y7 z6 t+ A$ X( X# w* u z: E

下期预告:常见数据预处理方法,实现数据的标准化处理。

4 p) M Z6 V# P$ ?1 E2 r 7 r3 n# k% H; [0 e 3 U% w% w" d6 k& I: G% C ' k7 [3 Y1 ?* C4 L ( |/ U- k/ r! \; \
回复

举报 使用道具

相关帖子

全部回帖
暂无回帖,快来参与回复吧
懒得打字?点击右侧快捷回复 【吾爱海洋论坛发文有奖】
您需要登录后才可以回帖 登录 | 立即注册
深宫鲍
活跃在5 天前
快速回复 返回顶部 返回列表