您现在的位置是:课程教程文章
Python如何使用Spacy进行分词
2023-12-14 21:18课程教程文章 人已围观
-
14年教学积累量身定制的Python+人工智能之
14年教学积累量身定制的Python+人工智能之学习资料和课程咨询请加老师微信沟通552462880 不懂数据库,不是真正的程序员... -
Python编程零基础小白快速入门必听课
Python编程零基础小白快速入门必听课1、 课程咨询加老师助理微信: 助理1微信: chenjinglei88 ,助理2微信: omf6757 ... -
Python爬虫实战体验课
Python爬虫实战体验课祝同学们学习愉快,前程似锦. 达亚学院VIP系统学习路线课程,可以添加甜甜老师... -
Python预定500专用
Python预定500专用公开课订阅须知: 1.课程:初级,中级,高级框架,爬虫,AI人工智能后续不断...
说明
1、Spacy语言模型包含一些强大的文本分析功能,如词性标记和命名实体识别。
2、导入spacy相关模块后,需要加载中文处理包。然后读小说数据,nlp处理天龙八部小说,包括分词、定量、词性标注、语法分析、命名实体识别,用符号/分隔小说。最后,通过is_stop函数判断单词中的单词是否为无效单词,删除无效单词后,将结果写入txt文件。
实例
import spacy import pandas as pd import time from spacy.lang.zh.stop_words import STOP_WORDS nlp = spacy.load('zh_core_web_sm') def fenci_stopwords(data,newdata1): fenci = [] qc_stopwords =[] article = pd.read_table(data,encoding="utf-8") start1 = time.time() with open(newdata1,'w',encoding='utf-8') as f1: for i in article["天龙八部"]:#分词 doc = nlp(i) result1 = '/'.join([t.text for t in doc]) fenci.append(result1) for j in fenci:#去除停用词 words = nlp.vocab[j] if words.is_stop == False: qc_stopwords.append(j) result2 = '/'.join(qc_stopwords) f1.write(result2) end1 = time.time() return end1-start1
以上就是Python使用Spacy进行分词的方法,希望对大家有所帮助。更多Python学习指路:python基础教程
本文教程操作环境:windows7系统、Python 3.9.1,DELL G3电脑。
课程教程:Python如何使用Spacy进行分词下一篇:没有了