作者|喊麦的c君听不见
来源| CSDN博客
庆雷/通天水利/天塌下来,资金锤塌下来
自转/玄振华/9日玄剑惊天变
看似荒谬的歌词配上简单粗暴的迪斯科音乐。
最近,一首《惊雷》的喊麦歌曲在短视频平台火了,震惊了整个音乐圈。
但4月10日歌手杨坤却在直播中批评《惊雷》“要歌没歌,要旋律没旋律,要节奏没节奏,要律动没律动”,评价其“难听”、“俗气”。
4月11日,MC六道以原唱者的身份对杨坤的指责做出回应表示,音乐没有高低之分,称《惊雷》现在比杨坤的任何一首歌都火。一时间更是把《惊雷》推上了风口浪尖。
那么《惊雷》这首歌到底怎么样?都是哪些人在听?今天我们就用Python来给你解读。
拿下60亿流量,喊麦歌曲《惊雷》火了!
说道喊麦,作为近年来一种新兴的表演形式,其内容和表达方式则比较简单和浮夸,主要形式是在网上下载一些伴奏(以电音伴奏为主),跟着伴奏以简单的节奏和朗朗上口的押韵手法进行的语言表演。
更简单的说法就是,演唱时不讲究什么技法,带着伴奏对着麦喊就完事。比如之前爆火的《一人我饮酒醉》就是很具代表性的喊麦歌曲。
而喊麦歌曲也因为一味堆积看似没有关联的词,闹腾的电音,简单粗暴的唱法等,让大家各种吐槽。而在“全民抵制”喊麦的背景下,《惊雷》却火了。
从今年3月起,以《惊雷》为BGM的短视频在各大平台上迅速走红。截止到4月24日,在抖音的#惊雷#的标签页下显示共有23w个视频作品使用,产生64.1亿次播放。
一些网友更是跟风录制了各种翻唱版本。温柔版、方言版、戏腔版、小黄人版、种类之多,只有你想不到,没有网友做不到。瞬间《惊雷》就成了今年度的网络爆款神曲之一。在B站上搜索《惊雷》更是可以看到大量的相关视频。
我们对B站上《惊雷》的各类视频进行整理分析发现:
在3月底,《惊雷》就在B站小火了一把,总播放量突破50万。接着到了4月12日,随着杨坤和MC六道的“隔空互掐”,大量《惊雷》相关视频如雨后春笋一般爆发出来,无论是音乐、游戏、生活、影视和鬼畜各视频分区产生的相关视频突破300个,播放量更是水涨船高。
“精神小伙”专属歌曲,都是哪些人在听《惊雷》?
我们使用Python获取并分析了网易云音乐上,MC六道的这首《惊雷》相关的评论数据。
经过去重得到1534条样本,从而来分析一下《惊雷》这首歌的用户和评价信息。
先看到结论:
评论时间趋势图
首先看到评论的时间,可以发现评论的高峰时间主要集中在:
中午12-13点左右;
下午5点之后的下班下课时间;
以及傍晚睡前9-10点
看来主要的听歌时间是在忙完工作的午休时,下班后的路上,以及睡前,刷着手机听听歌写写评论,也比较符合用户的听歌习惯。
评论用户性别分布
听歌的人群性别分布是如何的呢?经过分析发现,男性占比达到压倒性的67.08%,女性占比较少为16.43%,另外16.49%的用户没有标注性别。可见听《惊雷》的更多是男性群体。
评论用户年龄分布
分析发现,用户大多集中在14-30岁之间,以20岁左右居多,除去异常和虚假年龄之外,这个年龄分布也符合网易云用户的年龄段。
评论用户地区分布
从城市分布图中可以看出,评论用户涵盖了全国各大省份,其中广东的评论用户排名第一,其次是山东、河北、河南等省份。
根据网易云曾发布的音乐数据,北上广深等发达地带的用户对小众音乐情有独钟,这些城市聚集了大量的小众音乐用户,其中广东也是聚集了众多热爱电音的用户,堪称“最电音省份”。
同时我们查询了2019年全国各省份的人口排名,排名前三的省份是:广东、山东、河南,这个结果也与分布图较为吻合,果然还是人多力量大。
评论情感正负分布
那么评论中大家对《惊雷》更多是称赞还是吐槽呢?接着我们对评论区的留言进行了情感分析,使用的是百度的API。
我们定义了一个函数获取情感评分正向和负向的概率值,值介于[0,1]之前,越接近1,情感越偏向于积极,反之则越消极。
通过评论情感得分分布图,可以发现:
在1534条数据中,有780条数据评分分值在[0,0.05]之间,占比50.08%,有一半以上的用户对这首歌表达了非常厌恶的情绪。我们还看到,有227个样本的评分在0.95以上,属于非常正向,这些正向评论真的正向吗?
我们不妨看几条这些评论:
比如这一条:
谢谢,这首‘歌’我笑吐了
明显是属于负向的情绪,但是因为正向的关键词比较多,百度的情感分析程序给了0.97分,所以可以看出这里的正向评分也是有误差。
还有这一条:
突然感觉杨坤老师有点伟大
这首歌虽然是赞扬杨坤老师,但是放到这里是表达贬义,但是程序并没有判断出来,间接说明程序还是没有人聪明啊(拟合能力不足+汉语语境情况复杂)。
所以实际上大部分评论带着反讽的口吻,我们可以大胆推断,这首歌的负向情绪占比至少上升10~15%个百分点。
评论词云分布:
通过文本分析,可以看出大家对这首歌的评论集中对杨坤和MC六道的讨论上,吐槽点主要集中在关于歌曲的“难听”、“俗气”、"抄袭"等。同时也表达了对于“喊麦”和"音乐"的讨论上。
用Python分析《惊雷》的评论
我们使用Python获取并分析了网易云音乐上《惊雷2020》相关的评论数据并进行了以下部分处理和分析,整个分析过程分为以下几个步骤:数据获取、数据读入与数据预处理、数据分析和可视化。
1、数据获取
此次爬虫部分主要是调用官方API,本次用到的API主要是:
{歌曲ID}?limit={每页限制数量}&offset={评论数总偏移}
参数说明如下:
{歌曲ID}:歌曲ID
limit:限制每页获取的数据条数
offset:翻页参数偏移量,offset需要是limit的倍数
返回的数据格式为json,通过此接口目前每天获取的数据量限制是1000条,代码思路如下:
先获取一页的数据,并封装成解析函数parse_one_page
变化offset参数,循环构建URL,并调用解析函数
具体代码如下:
# 导入库import requests
import json
import time
import pandas as pd
def parse_one_page(comment_url):
"""
功能:给定一页的评论接口,获取一页的数据。
"""
# 添加headers
headers = {
'user-agent': 'Mozilla (Windows NT 10.0; Win64; x64) AppleWebKi (KHTML, like Gecko) Chrome Safari;
}
# 发起请求
r = reque(comment_url, headers=headers)
# 解析数据
comment_data = r.json['comments']
# 获取用户ID
user_id = [i['user']['userId'] for i in comment_data]
# 获取用户昵称
nick_name = [i['user']['nickname'] for i in comment_data]
# 获取评论ID
comment_id = [i['commentId'] for i in comment_data]
# 获取评论内容
content = [i['content'] for i in comment_data]
# 获取评论时间
content_time = [i['time'] for i in comment_data]
# 获取点赞
liked_Count = [i['likedCount'] for i in comment_data]
df_one = ({
'user_id': user_id,
'nick_name': nick_name,
'comment_id': comment_id,
'content': content,
'content_time': content_time,
'liked_Count': liked_Count
})
return df_one
def get_all_page(song_id):
"""
功能:获取100页短评:目前接口一天最多获取数据量
"""
df_all =
for i in range(101): # 最多100页
url = '{}?limit=10&offset={}'.format(song_id, i*10)
# 调用函数
df = parse_one_page(comment_url=url)
# 循环追加
df_all = d(df, ignore_index=True)
# 打印进度
print('我正在获取第{}页的信息'.format(i + 1))
# 休眠一秒
(1)
return df_all
if __name__ == '__main__':
# 惊雷
song_id = '1431580747'
# 运行函数
df_jl = get_all_page(song_id)
获取到的数据如下所示,此次我们一共获取了两天的数据,经过去重得到1534条样本,来分析一下《惊雷》这首歌的用户和评价信息。
获取的数据集主要包含了以下的信息:评论ID、用户ID、用户昵称、用户评论、评论时间、评论点赞。根据用户ID可以获取评论用户相关信息,此处暂不做赘述。
d
2、数据读入与数据预处理
此处,我们将对获取的评论数据集进行以下的处理以方便后续的分析:
读入数据和数据合并,去除重复值
评论时间:将评论时间转换为标准时间
用户评论:使用jieba分词对评论数据进行分词处理。
代码实现如下:
读入数据、合并、去重
# 导入包import numpy as np
import pandas as pd
import ma as plt
import json
import time
import requests
# 读入数据
df_comment_1 = ('jinglei.xlsx')
df_comment_2 = ('jinglei_2.xlsx')
# 数据合并
df_comment = ([df_comment_1, df_comment_2])
# 去除重复值
d(inplace=True)
prin)
<class ';>
Int64Index: 1534 entries, 0 to 983
Data columns (total 6 columns):
user_id 1534 non- int64
nick_name 1534 non- object
comment_id 1534 non- int64
content 1534 non- object
content_time 1534 non- int64
liked_Count 1534 non- int64
dtypes: int64(4), object(2)
memory usage: 83.9+ KB
None
评论时间处理
def timeStamp(timeNum):'''功能:转换毫秒为标准时间'''
timeStamp = float(timeNum/1000) # 转换为秒
timeArray = (timeStamp)
otherStyleTime = ("%Y-%m-%d %H:%M:%S", timeArray) # 转换字符串
return otherStyleTime
df_comment['content_time'] = df_comment['content_time'].apply(lambda x:timeStamp(x))
3、使用百度API进行情感分析
情感分析是NLP的重要部分。这里我们使用百度的API,来进行情感分析,经测试这个API接口结果相对比较准确。我们定义了一个函数获取情感评分正向和负向的概率值。返回结果解释:以正向概率positive_prob为例,值介于[0,1]之前,越接近1,情感越偏向于积极。
代码和结果如下:
百度情感分析的地址见下,点击立即使用就可以了
# 异常值处理df_comment['content'] = df_comment['content'].replace('