自然语言处理流程.pdf

上传人:赵** 文档编号:37916162 上传时间:2022-09-02 格式:PDF 页数:9 大小:665.13KB
返回 下载 相关 举报
自然语言处理流程.pdf_第1页
第1页 / 共9页
自然语言处理流程.pdf_第2页
第2页 / 共9页
点击查看更多>>
资源描述

《自然语言处理流程.pdf》由会员分享,可在线阅读,更多相关《自然语言处理流程.pdf(9页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、.-1 1、文本挖掘主要容、文本挖掘主要容存储信息使用最多的是文本, 文本挖掘被认为比数据挖掘具有更高的商业潜力, 当数据挖掘的对象完全由文本这种数据类型组成时,这个过程就称为文本数据挖掘。1.1 文本分类及情感分析文本分类指按照预先定义的主题类别, 为文档集合中的每个文档确定一个类别。需要训练集训练分类器,然后应用于测试集。主要有朴素贝叶斯分类、决策树等。情感分析是近年来国外的研究热点,是基于计算机整理、分析相关评价信息,对带有感情色彩的的主观性文本进展分析、处理和归纳。情感分析包括情感分类、观点抽取、观点问答等。1.2 文本聚类聚类与分类的不同之处在于, 聚类没有预先定义好的一局部文档的类

2、别,它的目标是将文档集合分成假设干个簇,要求同一簇文档容的相似度尽可能的大,而不同簇之间的相似度尽可能的小。1.3 文本构造分析其目的是为了更好地理解文本的主题思想, 了解文本表达的容以及采用的方式,最终结果是建立文本的逻辑构造,即文本构造树,根结点是文本主题,依次为层次和段落。1.4 Web 文本数据挖掘在 Web 迅猛开展的同时,不能无视“信息爆炸的问题,即信息极大丰富而知识相对匮乏。 据估计, Web 已经开展成为拥有 3 亿个页面的分布式信息空间,而且这个数字仍以每 4-6 个月翻 1 倍的速度增加,在这些大量、异质的 Web 信息资源中, 蕴含着具有巨大潜在价值的知识。 Web 文本

3、挖掘可以构建社交复杂网络、用户标签、网络舆情分析等2 2、自然语言处理流程、自然语言处理流程2.12.1 获取原始文本获取原始文本文本最重要的来源无疑是网络。 我们要把网络中的文本获取形成一个文本数据库(数据集)。利用一个爬虫抓取到网络中的信息。爬取的策略有广度和深度爬取;根据用户的需求,爬虫可以有主题爬虫和通用爬虫之分。.可修编.-2.1.1HTML 数据2.1.2RSS 订阅源博客是文本的重要来源,无论是正式的还是非正式的。通过 Universal FeedParser 第三方库可以访问博客的容。.可修编.-2.1.3本地文件.可修编.-2.22.2 对文本进展预处理对文本进展预处理2.1

4、.1 文本编码格式1.decode early;2.unicode everywhere;3.encode later。具体见 Python 2.X 编码问题汇总2.1.2 文本模式匹配Python 自带的一些方法就能完成一局部字符检测工作,例如 endswith(ly)可以找到ly结尾的词。然而,正那么表达式提出了一个更强大、更灵活的字符匹配模式。.可修编.-2.1.3 规化文本1通过 lower()将文本规化为小写,即可忽略The和the的区别2词干提取:nltk 提供 Porter 和 Lancaster 词干提取器,按照嵌的规那么剥离词缀。如下例,Porter 能将 lying 正确地

5、映射为 lie,而 Lancaster 就没处理好。3词性归并:注重词性的统一,而不考虑词缀。如下例,将women转换为woman。4非标准词的规:包括数字,缩写,日期等从非标准格式映射为标准格式。2.32.3 分词分词经过上面的步骤,我们会得到比拟干净的素材。但是,文本中起到关键作用的是一些词,甚至主要词就能起到决定文本取向。英文分词有 nltk 提供的 nltk.word_tokenize()中文分词,出现了很多分词的算法,有最大匹配法、最优匹配法、机械匹配法、逆向匹配法、双向匹配法等。中科院华平博士研发的分词工具 ICTCLAS,该算法经过众多科学家的认定是当今中文分词中最好的,并且支持

6、用户自定义词典,参加词典;对新词,人名,地名等的发现也具有良好的效果。.可修编.-.可修编.-Jieba 分词工具:支持繁体分词;支持自定义词典支持三种分词模式: 1.准确模式, 试图将句子最准确地切开, 适合文本分析;2.全模式,把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;3.搜索引擎模式,在准确模式的根底上,对长词再次切分,提高召回率,适合用于搜索引擎分词。阿里分词工具。2.42.4 去除停顿词去除停顿词英文停顿词嵌在 nltk 中.可修编.-中文停顿词比方句号, 显然句号对意思的表达没有什么效果。 还有是、“的等词。因为这些词在所有的文章中都大量存在,并不能反响

7、出文本的意思,可以处理掉。 当然针对不同的应用还有很多其他词性也是可以去掉的, 比方形容词等。2.52.5 特征选择特征选择经过上面的步骤,我们根本能够得到有意义的一些词。然而并不是所有词都有意义,有些词会在这个文本集量出现,有些只是出现少数几次而已。他们往往也不能决定文章的容。还有一个原因就是,如果对所有词语都保存,维度会特别高,矩阵将会变得特别稀疏,严重影响到挖掘结果。那么如何选择关键词比拟合理呢?针对特征选择也有很多种不同的方式,但是 TF-IDF 往往起到的效果是最好的。tf-idf 模型的主要思想是:如果词 w 在一篇文档 d 中出现的频率高,并且在其他文档中很少出现,那么认为词 w

8、 具有很好的区分能力,适合用来把文章 d和其他文章区分开来。在一份给定的文件里,词频(term frequency, TF) 指的是某一个给定的词语在该文件中出现的次数。这个数字通常会被归一化,以防止它偏向长的文件。 同一个词语在长文件里可能会比短文件有更高的词频,而不管该词语重要与否逆向文件频率 (inverse document frequency, IDF) 是一个词语普遍重要性的度量。某一特定词语的 IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。如果该词语不在语料库中,就会导致分母为零,因此一般情况下使用.可修编.-。Tf-idf 计算公式为:某一特定文件

9、的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的 TF-IDF。因此,TF-IDF 倾向于保存文档中较为特别的词语,过滤常用词。缺点:IDF 的简单构造并不能有效地反映特征词的分布情况,使其无法很好的完成对权值的调整功能,所以在一定程度上该算法的精度并不是很高。除此之外,算法也没有表达位置信息,对于出现在文章不同位置的词语都是一视的,因为在文章首尾的词语势必重要性要相对高点。2.62.6 利用算法进展挖掘利用算法进展挖掘经过上面的步骤之后,我们就可以把文本集转化成一个矩阵。我们能够利用各种算法进展挖掘,比方说如果要对文本集进展分类,我们可以利用 KNN 算法,贝叶斯算法、决策树算法等等。2.72.7 程序例如程序例如2.7.1新闻聚类2.7.2Bayes 文本分类.可修编.

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 高考资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁