资源预览内容
第1页 / 共7页
第2页 / 共7页
第3页 / 共7页
第4页 / 共7页
第5页 / 共7页
第6页 / 共7页
第7页 / 共7页
亲,该文档总共7页全部预览完了,如果喜欢就下载吧!
资源描述
文本数据挖掘算法应用小结1、基于概率统计的贝叶斯分类2、ID3决策树分类3、基于粗糙集理论Rough Set的确定型知识挖掘4、基于k-means聚类5、无限细分的模糊聚类Fuzzy Clustering6、SOM神经元网络聚类7、基于Meaning的文本相似度计算8、文本模糊聚类计算9、文本k-means聚类10、文本分类11、关联模式发现12、序列模式发现13、PCA主成分分析1、基于概率统计的贝叶斯分类算法概述:贝叶斯公式是由英国数学家(Thomas Bayes 1702-1763 )创造,用来描述两个条件 概率之间的关系,比如P(AIB)为当“B”事件发生时“A”事件发生的概率,按照乘法法 则:P(A n B)=P(A)*P(BIA)=P(B)*P(AIB),可导出贝叶斯公式:P(A|B)=P(B|A)*P(A)/P(B)贝叶斯分类基本思想为:设决策变量为D, D1, D2, Di,,Dk为n条记录组成的样本空 间S的一个划分,将n条记录划分成k个记录集合,如果以P(Di)表示事件Di发生的概率, 且 P(Di) 0 ( i=1, 2,,k)。对于任一事件 x, P(x)0,则有:41壬严吨贝叶斯分类的基本原理,就是利用贝叶斯条件概率公式,将事件X视为多个条件属性Cj各 种取值的组合,当X事件发生时决策属性Di发生的条件概率。贝叶斯分类是一种概率型分 类知识挖掘方法,不能百分之百地确定X事件发生时Di 一定发生。解决问题:预测所属分类的概率。通过已知n条样本集记录,计算各种条件属性组发生的概 率,得出“贝叶斯分类”规则,给定一个未知“标签”记录,选择最大概率为其所属“分类”。2、ID3决策树分类算法概述:ID3算法是J. Ross Quinlan在1975提出的分类算法,当时还没有“数据挖掘” 的概念。该算法以信息论为基础,以信息熵和信息增益度来确定分枝生成决策树D-Tree。ID3 算法以决策树D-Tree构建分类知识模型,D-Tree中最上面的节点为根节点Root,每个分支 是一个新的决策节点,或者是树的叶子。每个决策节点代表一个问题或决策,每一个叶子节 点代表一种可能的分类结果,沿决策树在每个节点都会遇到一个测试,对每个节点上问题的 不同取值导致不同的分支,最后会到达一个叶子节点为确定所属分类。高中解决问题:预测所属分类。通过已知样本集记录,生成一颗“分类知识树”给定一个未知 “标签”记录,通过“分类知识树”来确定其所属分类。3、基于粗糙集理论Rough Set的确定型知识挖掘算法概述:1982年波兰学者乙Paw lak提出了粗糙集理论Rough Sets Theory,它是一种刻 划不完整性和不确定性的数学工具,能有效分析不精确、不一致(Inconsistent)、不完整 (Incomplete)等各种不完备信息,利用数据进行分析和推理,从中发现隐含的知识,揭示 潜在的规律。粗糙集理论是继概率论、模糊集、证据理论之后的又一个处理不确定性事物的 数学工具。粗糙集理论是建立在分类机制的基础上的,它将分类理解为在特定空间上的等价 关系,而等价关系构成了对该空间的划分。粗糙集理论将知识理解为对数据的划分,每一被 划分的集合称为概念。其主要思想是利用已知的知识库,将不精确或不确定的知识用已知的 知识库中的知识来(近似)刻画。解决问题:预测所属分类。粗糙集分类将样本空间S划分为上近似集(Upper approximation)、 下近似集(Lower approximation)边界集(Boundary region),挖掘条件属性C与决策属性 D集合所包含的不可分记录(不能再细分,该集合中的所有记录都属于某一决策属性Di的 取值),这些记录形成不可辨识的关系(Indiscernibility relation),由此确定分类规则: IF 条件属性C成立THEN 决策属性Di发生即,如果满条件C,则其所属分类为Dio IF中的条件C可以是单一条件,也可以是组合and (并且)组合条件。BIC给出的是“最小分类规则”所谓“最小分类规则”是,最少的条件组合。例如一个人 属于“高”、“富”、“帅”,条件为:“身高”、“财富”、“工资性收入”、“财产性收入”、“产业 收入”、“脸型”、“眼睛大小”、“鼻梁形状”、“英俊”等条件来判别,通过“粗糙集”分类计 算,得出最小分类规则可能是“IF财富=XXX1 and身高=185cm and相貌=英俊”其他条件可以忽略不计,这就是“最小分类规则”“粗糙集”分类规则为“百分之百确定型”分类规则,这是对样本集的统计结果,如果出现 非“样本集”中出现过的条件变量属性,将无法得出“粗糙集”,可转而使用概率型“贝叶 斯分类”进行计算。4、基于k-means聚类算法概述:给定一个包括n条记录、每条记录有m个属性的样本集,再给出分类数k,要 求将样本集中的记录,按记录间的相似性大小(或距离远近),将相似性最大(或距离最近) 的记录划分到k个类中,相同分类中记录间的距离要尽可能地小,而分类之间的距离要尽可 能地大。BIC改进了常规的k-means聚类算法,在聚类过程中,同时计算分类质量(类内均差、类间均距和元),并求解最优聚类max更。解决问题:将n条记录聚成k个分类。对n个样本集记录,指定分类个数k,为k个分类指 定初始迭代记录为k个分类中心,通过计算其他记录对k个分类中心的距离,对不断变换分 类、变换类中心,收敛都当分类不再变化时,计算结束。由此,将n个样本集记录分配到k 个分类中,得到k个分类中心指标。5、无限细分的模糊聚类Fuzzy Clustering算法概述:在实际解决聚类问题时,很多数事物是“模糊”的,其特征属性A无法确进行 量化,如:人的相貌、人与人之间的关系、人的性格、购买商品的意愿等,这就需要用模糊 数学来进行相似性计算。模糊数学是伴随着上世纪五六十年代兴起的控制论、信息论、系统 论(俗称“老三论”)而形成的一种决策方法,是美国加利福尼亚大学伯克利分校Lotfi Zadeh 教授于1965年创立的。模糊聚类基本计算步骤为:(1)将样本集中的n条记录变换成n x n的模糊相似矩阵;(2)通过传递包卷积计算将模糊相似矩阵变换成等价相似矩阵;(3)最后通过入截矩阵将n条记录分成1-n个分类。K-means聚类需事先确定聚类数k,而模糊聚类Fuzzy Clustering无需事先确定聚类数k,可 以从最小的k=1 (所有学习集中的n条记录为1个分类),到k=n (所有学习集中的n条记 录各为1个分类)。解决问题:将n条记录聚成1-n个分类。模糊聚类Fuzzy Clustering算法完全基于数据自然 状况进行聚类,可产生聚类的解集合C (k=1,2,n),因此,可以在解集合中求解最优聚类 max,这对观察分析样本集的数据性态非常有用,可供观察不同情况下的“聚类”状 况。6、SOM神经元网络聚类算法概述:人类对事物的认知是一个不断积累的过程,通过对事物的观察,不断地认识和修 正因果关系,最后逐渐稳定为认知规则。医学证明,人眼的视网膜、脊髓和海马中存一种侧 抑制现象,即,当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。这种侧抑制 使神经细胞之间呈现出竞争,开始时可能多个细胞同时兴奋,但一个兴奋程度最强的神经细 胞对周围神经细胞的抑制作用也最强,其结果使其周围神经细胞兴奋程度减弱,从而该神经 细胞是这次竞争的“胜者”,其它神经细胞在竞争中失败。1981年芬兰学者kohonen提出一个称为自组织特征映射(Self Organization Feature Map-SOM 或SOFM)网络,前述大脑神经细胞兴奋规律等,在该网络中都得到了反应。在竞争层神经 元之间的连线,它们是模拟生物神经网络层内神经元相互抑制现象的权值,这类抑制性权值 满足一定的分布关系,如距离近的抑制强,距离远的抑制弱。输出挾式*输心式通过上述可知,SOM聚类算法设计的核心思想是体现神经元在认知过程中的3个特性:(1)根据样本比较,逐步积累、不断修正、渐近稳定特性?(2)神经元之间的侧抑由近到远、逐步衰弱制特性?(3)神经元兴奋区域随认知次数逐步缩小范围特性?BIC采用欧氏距离作为输入模式Xi与各输出神经元Wj之间的相似度,选择具有最小距离 的神经元为兴奋神经元;采用(1-ti/tm)作为学习衰减函数,其中ti为当前学习次数(第几 次样本训练),tm为总的学习数,以此来体现上述特性“1” 采用(1-ti/T)、C/Wij作为神 经元侧抑制函数,其中C为设定的常数、Wij为被选中的神经元与其他神经元最远距离,来 体现上述特性“2”、“3”。解决问题:将n条记录按m个输出神经元聚成m个分类。模仿人类的学习方法,对事物的 认识是一个由浅入深、逐步学习、修正的过程,将对各种要素组态的认识逐步稳定到认知领 域,由此进行“聚类”7、基于Meaning的文本相似度计算算法概述:给出一组n个文档D-i二 S , BIC为每个文档计算出一组最具有代表性的词组 ,同时,计算出;相互间内容接近度及 接近序列。BIC的Meaning挖掘与自动搜索不同于现有Baidu、Google人工输入关键词的搜索方式,现 有搜索引擎不考虑语义和语境,只考虑词W与文档D的包含关系 和词在文档内的 频数TF,因此,关键词的搜索与文档内容无关。例如:“姚明”是中国篮球的骄傲,但“姚明”还投身于公益事业,如果在搜索引擎中输入 “姚明”不见得搜索的文档内容只包含与篮球相关的内容,还可能包括公益及其他包含“姚 明”的文档,可见,关键词搜索具有不确定性。如果在搜索引擎输入一组词 “姚明”、“得 分”、“篮板” ,搜出文档是篮球比赛内容的概率更大,显然, 形成的交集缩小了搜 索范围,但组词 “姚明”、“得分”、“篮板” 是经过人思考给出的。BIC通过计算得出文档代表词组P相当于人工输入 “姚明”、“得分”、“篮板” ,同时计算词在句子中语序关系的发生概率与马尔科夫链,因 此,能够更好地确定搜索词的语义和语境,通过对文档间的相关性(接近度)进行聚类计算, 可按Meaning “接近度”进行自动搜索而无需人工干预,并随文档内容的变化而自动跟踪 Meaning变化,使搜索更加准确、更加自动化,让搜索“随用户的心而动”BIC可用于基于Meaning计算的搜索、舆情分析、特定情报分析、垂直搜索和相似内容推荐 等文本挖掘。解决问题:计算两个文本的相似度。8、文本模糊聚类计算算法概述:基于模糊聚类算法,BIC首先计算将n个文本组成相似矩阵入(第i个文本文 档对第j个文本文档的相似度),然后将相似矩阵变成模糊相似矩阵勺,通过求模糊相 似矩阵的等价矩阵和截矩阵,将n个文本文档分成1-n个分类,同时,按相同分类中的 文本具有最接近的内容相似度Min,不同文本分类间具有最大差异Max J ,来求解 按文本内容进行最优分类方案。解决问题:在不确定将文本划分成几类的情况下,将n个文本聚成1-n个分类,以此来观察 “聚类”效果。9、文本k-means聚类算法概述:基于k-means聚类,在BIC平台上,用户上传或输入n个文本,确定希望分类 数量k和k个分类样本,BIC将以k个样本作为初始迭代点进行k-means聚类计算,将n个 文本分成k个分类。解决问题:在已经确定了 k个分类的情况下,将文本划分到k个“分类”中。10、文本分类算法概述:通过“文本模糊聚类”或“文本k-means”聚类,BIC不仅将n个文本按内容相 似度进行分类,同时挖
收藏 下载该资源
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号