后端开发|Python教程
python,个性化,实现,如何,使用
后端开发-Python教程
最近看到可视化的词云,看到网上也很多这样的工具,但是都不怎么完美,有些不支持中文,有的中文词频统计得莫名其妙、有的不支持自定义形状、所有的都不能自定义颜色,于是网上找了一下,决定用python绘制词云
.net电商系统源码下载,ubuntu安装gcc 10,tomcat8版本最稳定版,爬虫和下载图片,即时通讯聊天源码PHP,seo优化排序lzw
先上图片
php工具源码下载,vscode删除未引用文件,ubuntu 读取gpt,tomcat输出框不见,etsy商品爬虫,php获取目录下文件,抖音seo企业号运营,css div商业网站布局,yeei 微社区模板lzw
词云图
php互刷平台源码,vscode 代码文字颜色,ubuntu 配置c,tomcat容器的内存,小区 爬虫,php获取上传图片的路径,新津做企业seo服务,旅游门户网站管理后台模板,马克斯电影网站模板lzw
需要模板
pip install jiebapip install wordcloud
还需要安装另外两个东西这两个我也不太懂借鉴百度写上去的
pip install scipypip install matplotlib
因为用ubuntu系统所有没有windows那么麻烦,也没有那么多报错
看到好多人制作自己的词云有没有一丝丝的激动啊,有激动就要马上去做,冲动才是第一创造力。
jieba是一款很恨很好用的中文分词模板
jeiba中文文档
至于wordcloud没有中文文档不过咱会猜啊,英文不好咱们可以猜啊,查看源代码猜。
先把我全部代码贡献上来
#-*-coding:utf-8—-*-import jieba.analysefrom wordcloud import WordCloud,ImageColorGeneratorfrom scipy.misc import imreadimport matplotlib.pyplot as pltclass wc: def init(self,txt_file,img_file,font_file): self.f = open(txt_file, ) self.txt = self.f.read() self.f.close() self.tags = jieba.analyse.extract_tags(self.txt,topK=100) #topK说白了就是返回几个关键词 self.text = .join(self.tags) #把分词链接起来,加空格因为英文靠空格分词 self.img = imread(img_file) self.wc = WordCloud(font_path=font_file,background_color=white,max_words=100,mask=self.img,max_font_size=80)###直接在这里进行猜####font_path指的是字体文件路径,因为wordcloud自带的字体不支持中文所以我们要指定一个字体文件,否者输出的图片全是框框#background_color 默认是黑色我设置成白色#max_words最大显示的词数#mask 背景图片#max_font_size最大字体字号 self.word_cloud = self.wc.generate(self.text) def show_wc(self): #img_color = ImageColorGenerator(self.img) plt.imshow(self.word_cloud)#可以通过 plt.imshow(self.wc.recolor(color_func=img_color))使图片颜色跟字体颜色一样 plt.axis("off") plt.show()if name==main: mywc = wc(sanwen.txt,out.jpg,font.ttc) mywc.show_wc()
使用wc.recolor(color_func=img_color)