博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python读写txt文件,并用jieba库进行中文分词
阅读量:4122 次
发布时间:2019-05-25

本文共 678 字,大约阅读时间需要 2 分钟。

在虎扑上随便找了一段文字,粘贴到word.txt文件中,然后对这段文字进行处理。
其中用到的matplotlib库,主要是用来绘图;jieba库,对文字进行分词;wordcloud库,构建词云。
一、引用库

import jiebaimport matplotlib as mplimport matplotlib.pyplot as pltfrom wordcloud import WordCloud
二、读取txt文件

#定义一个空字符串final = ""#文件夹位置filename = r"E:\Program Files\爬虫\word.txt"#打开文件夹,读取内容,并进行分词with open(filename,'r',encoding = 'gb2312') as f:    for line in f.readlines():        word = jieba.cut(line)        for i in word:            final = final + i +" "
三、构造词云

word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)plt.imshow(word_pic)#去掉坐标轴plt.axis('off')#保存图片到相应文件夹plt.savefig(r'E:\Program Files\6.png')
最后生成的图片如下:

你可能感兴趣的文章
VUE SPA 单页面应用 微信oauth网页授权
查看>>
phpstorm 集成 xdebug 进行调试
查看>>
npm和node升级的正确方式
查看>>
laravel事务
查看>>
springcloud 连续请求 500
查看>>
vue复用新增和编辑表单
查看>>
Ubuntu 16.04 apt-get更换为国内阿里云源
查看>>
laravel部署到宝塔步骤
查看>>
小程序获取access_token
查看>>
navicat远程连接mysql数据库
查看>>
tp5令牌数据无效 解决方法
查看>>
自己的网站与UCenter整合(大致流程)
查看>>
laravel 制作通用的curd 后台操作
查看>>
【小红书2017年笔试】求一个数组中平均数最大的子数组
查看>>
Linux基础系列-定时器与时间管理
查看>>
Linux基础系列-可执行程序的产生过程
查看>>
Linux基础系列-Kernel 初始化宏
查看>>
Linux子系统系列-I2C
查看>>
<iOS>关于自定义description的一点用法
查看>>
Unix 命令,常用到的
查看>>