100字范文,内容丰富有趣,生活中的好帮手!
100字范文 > [计算机毕业设计]大数据的B站数据分析与可视化

[计算机毕业设计]大数据的B站数据分析与可视化

时间:2018-09-17 22:39:42

相关推荐

[计算机毕业设计]大数据的B站数据分析与可视化

目录

前言

课题背景和意义

实现技术思路

数据爬取

数据可视化

实现效果图样例

前言

📅大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力。近几年各个学校要求的毕设项目越来越难,有不少课题是研究生级别难度的,对本科同学来说是充满挑战。为帮助大家顺利通过和节省时间与精力投入到更重要的就业和考试中去,学长分享优质的选题经验和毕设项目与技术思路。

🚀对毕设有任何疑问都可以问学长哦!

本次分享的课题是

🎯大数据的游戏数据分析系统

课题背景和意义

B站是长视频平台的代表之一,长视频类型的平台就是指通过大量优质自制剧、综艺和电影版权来获取会员,对标的是Netflix。比如一部有可能要火的电视剧或者资源,各大视频平台会疯狂砸重金买版权。因为大家都明白,买下这块版权,就会吸引到想要关注这块内容的海量用户(中国在线视频用户以每年28%的增速在增长),也就会有很多的人去充值会员,甚至于超前点播等。但中国目前三大视频平台后面站的正是BAT IT三巨头,谁都不缺钱。那这就意味着谁都想吃下这块蛋糕,所以都将内容版权炒上了天价,以至于目前这个赛道上,各家都是集体亏损的状态,而到了真正垄断的那天,很难预测会是什么样的局面。

实现技术思路

数据爬取

python爬虫是收集互联网数据的常用工具,近年来随着互联网的发展而快速发展。使用网络爬虫爬取网络数据首先要了解网络概念和主要分类,各类爬虫的系统结构、运作方式,常用策略,以及主要的应用场景,同时,出于版权和数据安全的考虑,还需了解目前有关爬虫的应用合法性以及爬取网站是的需要遵守的协议。

import requests from bs4 import BeautifulSoup import xlwt import time import urllib3 import requests import json # 爬取B站热榜排行 # 格式解析,[0-当前排名,1-视频标题,2-播放数目,3-弹幕数量,4-综合得分,5-作者,6-视频地址,7-时长,8-评论数,9-收藏数,10-投币数,11-分享数,12-点赞数] # 格式化 def whitespace(st): st = st.replace('\n', '') st = st.strip() st = st.replace(' ', '') return st # 详情页 def info_Page(bv): url = '/x/web-interface/view?bvid=' + bv headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36" } # 请求头,模拟浏览器的运行 urllib3.disable_warnings() # 从urllib3中消除警告 response = requests.get(url, headers=headers) content = json.loads(response.text) # 很迷,获取到的是str字符串 需要解析成json数据 statue_code = content.get('code')# print(statue_code) if statue_code == 0: duration = content['data']['duration'] # 时长 reply = content['data']['stat']['reply'] # 评论 favorite = content['data']['stat']['favorite'] # 收藏 coin = content['data']['stat']['coin'] # 投币 share = content['data']['stat']['share'] # 分享 like = content['data']['stat']['like'] # 点赞 return duration,reply,favorite,coin,share,like while(True): url = '/v/popular/rank/all' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36'} rank = requests.get(url, headers=headers) # 请求页面 soup = BeautifulSoup(rank.text, 'lxml') all_rank = soup.find_all('li', class_='rank-item') num = 0 lst=[] for i in all_rank: record = [] rank_num = i.find('div', class_='num').text # 获取排名 info = i.find('div', class_='info') # 筛选出视频详细信息的标签 href = info.find('a', class_='title').attrs['href'] # 获取链接 title = info.find('a', class_='title').text # 获取标题 play_num = info.find('i', class_='b-icon play').parent.text # 获取播放量 view_num = info.find('i', class_='b-icon view').parent.text # 获取弹幕数 author = info.find('i', class_='b-icon author').parent.text # 获取作者名 scores = info.find('div', class_='pts').find('div').text # 获取综合得分 # 播放,弹幕,作者 play_num = whitespace(play_num) view_num = whitespace(view_num) author = whitespace(author) bv = href.split('/')[-1] duration,reply,favorite, coin,share,like = info_Page(bv) record.append(rank_num) record.append(title) record.append(play_num) record.append(view_num) record.append(scores) record.append(author) record.append(href) record.append(duration) record.append(reply) record.append(favorite) record.append(coin) record.append(share) record.append(like) num += 1 lst.append(record) # 爬取的数据存入文件,避免多次爬取且提高响应速度 with open('./bilibili.txt', 'w',encoding='utf-8') as f: for line in lst: for i in line: f.write(str(i)+',') f.write('\n') time.sleep(300) #print(lst[0])

数据可视化

哔哩哔哩综合得分,是视频是否能排上排行榜的依据,若能知道其规则,对于视频内容的倾向,up主是否需要请求“一键三连”,观众们需不需要吝啬手中的币,是有很大的价值的,所以在此首先进行综合得分计算指标的分析及其可视化,此处采取灰色关联度分析(Grey Relation Analysis,GRA)来进行数据的处理,

GRA是一种多因素统计分析的方法。简单来讲,就是在一个灰色系统中,我们想要了解其中某个我们所关注的某个项目受其他的因素影响的相对强弱,本项目中,就是说:我们假设B站综合得分可能是与播放、评论、收藏、投币、分享、点赞几个因素相关的,那么我们想知道综合得分与这几个因素中的哪个相对来说更有关系,而哪个因素相对关系弱一点,把这些因素排个序,得到一个分析结果,我们就可以知道哔哩哔哩综合得分,与因素中的哪些更相关,因而也就可以看出观众的一键三连的作用以及up主们更应该求的是赞、币亦或是其他。

with open('./bilibili.txt', 'r+',encoding='utf-8') as f1: lst2=[] for line in f1.readlines(): lst2.append(line.split(',')) mom_ = [int(i[4]) for i in lst2[0:50:]] view = [] reply = [] favorite = [] coin = [] share = [] like = [] for i in lst2[0:50]: view.append(float(i[2].strip("万"))*10000) reply.append(int(i[8])) favorite.append(int(i[9])) coin.append(int(i[10])) share.append(int(i[11])) like.append(int(i[12])) son_ = [view,reply,favorite,coin,share,like]

然后要对数据进行预处理,因为我们的这些要素是不同质的东西的指标,因此可能会有的数字很大有的数字很小,但是这并不是由于它们内禀的性质决定的,而只是由于量纲不同导致的,因此我们需要对它们进行无量纲化。这个操作一般在数据处理领域叫做归一化(normalization),也就是减少数据的绝对数值的差异,将它们统一到近似的范围内,然后重点关注其变化和趋势。按公式归一化即可。

最终结果:B站综合得分与播放、评论、收藏、投币、分享、点赞几个因素都具有很强的相关性。

实现效果图样例

我是海浪学长,创作不易,欢迎点赞、关注、收藏、留言。

毕设帮助,疑难解答,欢迎打扰!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。