社交媒体平台谣言的早期自动检测
本文来自微信公众号:全球传媒学刊(ID:全球传媒学刊),作者:刘知远、宋长河、杨成
摘 要 & 关 键 词
在社交媒体服务迅速发展与普及的今天,谣言传播以前所未有的迅猛之势对人类社会产生着巨大的影响。同时,人工智能技术的异军突起,也为社交媒体平台的谣言自动检测提供了可能。谣言检测现有方法通常是,通过学习某条社交媒体信息的所有转发或评论的语义表示,来预测该条社交媒体信息是否为谣言。然而,是否能在谣言引起严重的社会影响之前尽早有效做出判断(谣言早期检测)至关重要,这一问题在以往的研究中尚未得到很好的解决。本文总结了现有社交媒体平台谣言自动检测的主要技术路线,并探讨了进行谣言早期检测的可能性。
关键词:谣言;早期检测;深度神经网络;社交媒体
一、前言
谣言是人类社会信息传播的重要现象,数十年来都是社会心理学与新闻传播学领域的兴趣焦点之一。关于谣言的研究可以追溯到20世纪40年代。近年来,随着社交媒体的兴起,在线谣言更加泛滥,影响更加广泛。如何定量分析和预测谣言,成为学界各领域广泛关注的话题。
根据维基百科①和社会学家的解释:谣言通常涉及公共话题,并且其完整性或正确性无法被及时验证,或者永远无法被验证。随着新浪微博、微信等大型社交媒体平台的快速发展,谣言传播所带来的相关社会问题比以往任何时候都更加严重。社交媒体上信息的发布与传播都极为便利,谣言可以在被检测或删除之前短时间内爆炸性地传播,社交媒体谣言严重阻碍了人们获取信息的可靠性,并可能在紧急情况下造成巨大的经济损失或公众恐慌。
广泛传播的谣言往往具有迷惑性,社交媒体用户由于专业知识或者时间空间的限制(Liu et al., 2015),无法有效地识别谣言。而且社交媒体信息规模巨大,也不可能邀请专家穷尽式地识别谣言。许多新闻机构和社交媒体服务提供商都在努力构建谣言举报平台,如新浪的谣言报告中心,或者社交网站的相关平台如Snopes②和factcheck③等。然而,这种做法需要大量的人力来收集与验证谣言,并且面临覆盖度和时间延迟等问题。如何自动检测谣言,特别是在传播早期阶段检测谣言,对于避免谣言泛滥、降低谣言危害而言意义重大。
二、已有谣言检测方法
面向社交媒体的谣言自动检测旨在利用疑似谣言的相关信息(如文本内容、评论信息、转发模式、发布者的个人资料等)来识别在社交媒体上发布的消息是否为谣言。根据所使用的信息和方法类型,我们可以将现有谣言检测方法划分为三类:(1)使用人工设计特征的传统分类方法;(2)基于深度神经网络的方法;(3)基于传播模式的方法。
1. 传统分类方法
早期谣言自动检测方法的主要工作是基于疑似谣言的相关信息设计分类特征,并利用已识别的谣言和非谣言数据作为训练数据学习分类器。这些谣言分类特征主要集中在文本内容和用户信息等方面。
Castillo等(2011)手动设计了各种类型的特征(如句子长度、情感词数、用户年龄、追随者和朋友的数量)以评估Twitter平台特定主题相关消息的可信度。文中假设在线上社交媒体的应用情景下,平台本身就可以提供足够的有效信息使得用户有能力判断所获取信息的可信程度,以此来判断某些话题或者事件的真实性。
Yang等(2012)面向中文新浪微博进行谣言的分析与检测,文中指出当时新浪微博的用户量是Twitter用户量的8倍之多,并且有许多与Twitter不同的功能,其中之一就是新浪微博拥有官方的谣言举报与公布平台。在方法方面,该文引入了基于客户端和用户位置的特征,能够更加准确地识别新浪微博的谣言,在真实数据集上的定量实验也验证了这些特征的有效性。
Kwon等(2013)使用时间特征、结构特征和语言特征来改善谣言检测的效果。文中提出了一个基于时间周期的预测模型,该模型考虑了谣言突发的日常周期(如节假日等)与外部冲击周期(如四年一次的大选等事件)的影响,并表明谣言传播很有可能具有随时间周期波动的特征。
Liu等(2015)面向Twitter研究谣言检测算法,其主要思想是挑选出包含常识性知识和调查性新闻的评论,并假设它们是对相关信息真实性的争论,以此判断相关信息是否为谣言。
Ma等(2015)充分利用社交平台中的文本特征会随着时间推移而变化的特性,指出基于时间序列的建模方法对于谣言检测至关重要。此外,Wu等(2015)也提出使用基于传播树的高阶传播模式特征以改善谣言检测效果,并用于传播早期的谣言检测。
这些基于分类特征的谣言检测方法初具成效。但是,手动设计特征的方式耗时耗力,而且设计出来的特征也往往局限于特定场景,泛化能力不好。近年来,随着以神经网络为代表的深度学习技术的兴起,研究者开始探索基于深度神经网络的谣言检测方法。
2. 深度神经网络相关方法
为了解决传统基于特征方法存在的问题,研究者提出采用深度神经网络(deep neural networks,DNN)自动学习有效的语义特征来识别谣言。
Ma等(2016)指出,在面对一个可疑的言论或者事件时,社交媒体用户会不断发布各种线索和基于常识的评论,来对信息真实性提出异议,但这种线索或评论证据会随着时间的进行而可能偏离原信息主题,使得证据的相关性减弱。由此,该文提出使用循环神经网络(recurrent neural network and recursive neural network,RNN)对转帖(转发、评论信息)序列进行建模,学习相关发帖的上下文信息随时间变化的语义特征,并依据这些语义特征判定可疑言论或事件的可信度。
Yu等(2017)则指出循环神经网络存在一些缺陷,如不能有效进行谣言早期检测。因此,该文提出采用卷积神经网络(convolutional neural network,CNN)技术捕捉文本语义特征。实验证明该方法能更有效地识别谣言并且有助于实现谣言早期检测。
与此同时,还有一种技术趋势是将深度神经网络学习的语义特征与传统方法的手动设计特征结合起来。Ruchansky等(2017)提出了一个结合三类特征的模型,这三类特征分别是:文本信息、用户的反馈信息和信息源用户的信息。模型的第一个模块基于文本信息与用户反馈信息,使用循环神经网络提取相关用户沿时间进行的活动模式;第二个模块直接提取信息源用户的特征,结合两者特征后做出对谣言的分类判断。
Bhatt等(2018)使用了深层的多层感知机(multi-layer perceptron,MLP)来结合神经网络特征、统计特征以及人工设计的谣言特征的方法。该方法分别使用深度神经网络提取出神经网络特征,使用加权词袋模型计算出统计特征,并且使用特征工程方法来得到手动设计特征。最后使用深层MLP将三类特征结合起来,用以识别谣言。
但是这种组合不同来源特征的方法只是增加了模型可以使用的信息量与信息类型,并没有对早期检测给予足够的重视。也就是说,所有这些与神经网络相关的模型只能通过考虑整体或固定比例的转帖信息来检测谣言,这类方法在实践中并不能尽早地发现谣言。
3. 传播模式相关方法
与前面两种关注特征信息的方法不同,传播模式相关的方法关注真实信息和虚假信息在传播过程中的差异,而非文本或用户的信息。
Hoaxy等(2016)发现,用来纠正谣言的信息的传播通常比谣言本身传播的时间滞后10~20小时。此外,虚假新闻通常由非常活跃的用户主导,而发布纠正谣言的信息则更多是“草根明星”的活动。
Ma等(2017)提出基于传播树结构的核方法来进行谣言检测。该方法通过评估传播树的结构相似性来捕获不同类型信息的高阶传播模式特征,也就是从原始信息的传播与发展方式出发来提取特征,识别谣言。
Vosoughi等(2018)通过研究大量基于Twitter数据的实验证实,虚假信息和真实信息的实际传播过程存在显著差异。与各种类型信息中的真实信息相比,虚假信息的传播范围更快、更深入,也更广泛。此外还有两个传播模式相关的重要结论值得注意:(1)虚假信息中包含的观点比真实信息的更加新颖,这表明用户更倾向于分享与传播博人眼球的观点;(2)比起恐怖主义、自然灾害、科学科技、传奇传说以及金融经济等领域,政治新闻类型的谣言不仅传播程度更广,而且影响力更大。
然而,基于传播模型的谣言检测方法尚未被彻底研究。到目前为止,没有研究表明早期传播方式的差异是否有助于检测谣言。此外,近年来有一些谣言的早期检测方法,与基于特征的方法类似,大多数现有早期检测模型在很大程度上依赖于转发或评论中精心设计的特征。所以有必要探索传播模式的特征,以实现更可靠的谣言早期检测。
传播过程中还有一种现象值得注意,就是“意见领袖”。拉扎斯菲尔德在20世纪40年代提出“意见领袖”的概念,意指大众传播中的“信息中介”及人际传播中的“活跃分子”。意见领袖能更快、更多地接触到媒介信息,并通过一定的加工处理后,将信息和观点传达给更为广泛的普通受众,即这个传播过程是从大众媒介到意见领袖再到一般受众。
Dewi等(2017)提到,如何正确找到相关话题的意见领袖,对于控制谣言传播具有重要意义,而中心度量(centrality measure)方法作为常见有效的方法,近年来逐渐得到重视。同时,他们通过实验发现,在社交媒体用户关系中,与“提及”这种弱关系相比,“引用”“转发”和“评论回复”等关系更有可能影响到更多的其他用户,也因此对于确定意见领袖更为重要。
Chua等(2018)通过研究Twitter中与“2015年3月新加坡首任总理李光耀去世”相关的谣言数据,得到了三种信息特征——情绪使用、内容清晰度以及可靠来源归因——用来区分谣言信息和谣言更正(rumor correction)。由此发现与谣言相比,谣言更正具有更明确的内容清晰度以及更可靠的信息来源,以及较少的情绪使用。研究同时发现意见领袖的追随者可以缓和情绪特征与其他两类特征的关系,即意见领袖如果有过于情绪化的言论,会被意见追随者加以补充,从而增强内容清晰度和可靠来源这两个特征。
鲁普丹(2016)指出,微博作为一个具有极强号召力和影响力的舆论场,其意见领袖的构成非常多元复杂,包括媒体人员、主持人、评论员、专家、名人明星、企业家、政府官员以及“草根明星”,等等。而意见领袖在掌握话语权以及引导舆论的同时,也在社会语境中制造着分化与冲突,其中造谣和传谣问题尤为突出。其中2010年影响较大的74起微博舆情案例中,就有近5成存在明显的意见领袖现象。
由此可见,社交媒体谣言的传播和检测都与意见领袖息息相关。在谣言传播方面,意见领袖负有重要责任,而在检测更正方面,如Chua等(2018)所揭示的,意见领袖的追随者可以缓和情绪特征带来的负面影响,有效提升真实信息的作用。
总结来说,为了解决社交媒体平台上的谣言检测问题,计算机领域研究人员建议使用机器学习技术进行自动在线谣言检测。大多数现有模型将谣言检测视为二元分类任务,并分别探索了基于特征工程的方法、基于深度神经网络的方法,以及基于传播模式的方法,取得了一定的效果。然而,这些方法都没有充分考虑尽早检测谣言的目标。如何在发布早期,仅利用有限信息就能检测出谣言,仍然是一个挑战性问题。
三、谣言早期检测探索
谣言早期检测要求模型在谣言广泛传播之前尽早做出可靠的预测。上述现有的基于神经网络的谣言检测方法,需要考虑全部或固定比例的转帖信息才能有效地检测谣言,在实践中无法实现早期检测。对此,我们提出一种新的模型来实现谣言早期检测,从而有能力实现社交媒体谣言的实时监测。
如图1所示,我们针对疑似谣言的转帖序列提出了随时间变化的预测概率曲线。对于这个例子,我们可以在早期的时间戳上做出可信的预测。对于谣言信息,转帖中往往会提出很多怀疑和反驳。基于该观察,我们引入“可信检测点”(credible detection point)概念,并利用深度神经网络技术设计了谣言早期检测模型:可信早期检测(credibl eearly detection, CED)。
具体来说,CED模型可以在训练阶段学习怎样确定每个转发序列的“可信检测点”,并确保在该时间点得到的预测结果的可信度,即在“可信检测点”之后不会出现预测结果反转的情况。通过这种方式,我们可以在实际应用中并不使用“可信检测点”之后的转帖信息,就可以进行可靠的谣言检测,从而在社交媒体平台上尽可能早地检测谣言。
为了验证该模型的有效性,我们在具有代表性的真实数据集上进行了谣言检测实验,实验结果表明,我们提出的模型可以显著缩短获得可信预测结果所需要的时间跨度,超过85%以上,并且同时取得了更高的检测准确率。该方法作为基于深度神经网络的方法,也充分利用了传播模式提供的有效信息,在早期检测方面和准确率上,均取得了比所有最先进方法更好的结果。
(一)特征提取与神经网络建模
社交媒体平台中的微博通常有一定的长度限制,可供谣言检测的信息相对有限。因此,与之前工作类似,我们主要利用相关的转帖信息进行谣言检测。对此,我们提出使用神经网络模型进行训练和预测。根据Ma等(2016)的实践,我们需要将原始转帖序列进行分割,以一定数量(N)的连续转帖为单位,将其转换为神经网络输入。为了确保每批转帖信息丰富且时间粒度足够小,我们设置N=10。
对于转换后的转帖序列,我们需要将每个单元中的文本信息转换为特征向量,并将此向量提供给神经网络。这里我们分别采用Salton等(1988)中提出的TF-IDF和用于捕捉局部信息的卷积神经网络(CNN),将每段切割后的转帖序列转换成特征向量。其中TF-IDF是一种基于统计的、简单有效的文本表示方法;卷积神经网络(CNN)则已成功应用于句子语义分析、点击率预测、文本分类等任务,其架构有助于提取重要的语义特征。为了验证疑似谣言原文内容在谣言检测中的作用,我们进一步在模型中使用卷积神经网络对疑似谣言内容进行建模,并将考虑疑似谣言内容的模型表示为CED-OM。
循环神经网络(RNN)通过循环单元处理可变长度序列,是用于序列建模的典型神经网络。如图2所示,我们首先用TF-IDF或者卷积神经网络将每段文本转化为输入向量。在每一步,循环单元基于先前的隐状态和当前输入更新其隐状态,并作出当前时刻的谣言检测判断。
(二)可信早期检测
根据对转帖信息的观察,我们假设每个微博都存在一个“可信检测点”。如图3所示,在该时间点之前,通常存在支持或反对疑似谣言的互相冲突的转帖,不论是人还是谣言检测模型,都很难判断是否为谣言,模型预测结果不稳定;而在此时间点之后,关于疑似谣言的辩论达成了一致,此后的预测结果应该是稳定和可信的。
基于该假设,我们将预测概率首次超过某个阈值并在此后一直超过阈值的时间点定义为“可信检测点”。为了使模型能够自动确定可信检测点,我们在神经网络的训练目标中额外加入以下两种激励机制:(1)为了确保早期检测的性质,我们鼓励“可信检测点”尽量早出现;(2)为了保证该检测点的可靠性,我们鼓励该检测点之后的预测概率的稳定性。换句话说,在预测概率超过该阈值后,我们不希望预测结果再发生大的波动,从而违背我们对“可信检测点”的定义。如图3所示,当对该条微博的预测超过阈值后,我们将对后续预测低于该阈值的情况(图中阴影区域)作出惩罚。
在测试期间,为了实现谣言早期检测,我们提出基于阈值的谣言检测策略:在转发序列的每一步计算预测概率,如果当前预测概率超过或者低于某一阈值,立即判定该微博是否是谣言,否则继续载入下一段转发文本。
四、实验结果与分析
(一)数据集
我们使用Yu等(2017)的研究中来自新浪微博的谣言数据集评估模型的有效性,标记为“Weibo-stan”。我们获取数据集中的微博ID列表,并收集每条微博的所有转发信息。此外,为了在更多的情况下验证模型的性能,我们还抓取了更多的微博数据来构建更大的数据集,称为“Weibo-all”。为了获取更多的微博数据,我们从报告各种谣言信息的新浪社区管理中心获得了一组已知的谣言。我们还收集了相当数量的非谣言微博。表1列出了这两个数据集的详细统计数据。
(二)比较方法
我们选用以下四个代表性方法进行性能比较:(1)CNN-OM:使用卷积神经网络(CNN)对疑似谣言原始微博进行表示并用于谣言分类;(2)TF-IDF:将转发序列的所有文本信息处理为TF-IDF向量表示(Salton et al., 1988),训练支持向量机分类器进行谣言分类;(3)GRU-2:使用2层带门的循环神经网络GRU(Cho et al., 2014)训练谣言分类器;(4)CAMI:使用段落向量(Paragraph Vector)表示每个转发文本(Yu et al., 2017),并利用卷积神经网络捕捉上层的段落间联系进行谣言分类。
(三)评测方法与实验结果
我们使用准确率、召回率和F1等评测指标评估这些模型的性能。此外,为了证明早期检测模型的有效性,提出提前率(ER)评估预测时使用转发文本的百分比,较低的ER值意味着模型使用较少的转发信息,可以更早地检测到谣言。我们将展示两个预测阈值设置(0.875和0.975)下的预测结果。表2列出了各种评估指标下不同方法的详细结果。我们加粗每列的最佳结果。
从实验结果来看,我们有以下观察:
(1)与所有的基线方法相比,我们提出的谣言早期检测模型CED、CED-OM和CED-CNN在实现更高预测准确性的同时,使用了更少的转帖序列信息,证明了早期检测策略的合理性和有效性。
(2)我们提出的模型将谣言检测所需要的时间缩短为85%。特别值得注意的是,CED-CNN仅使用转帖信息序列的13.2%就实现了非常高的检测精度,这将使社交媒体谣言的实时检测成为可能。
(3)通过考虑疑似谣言的原始微博信息,CED-OM在两个阈值下均实现了时间缩减量的显著改善。这主要是因为当只有少数转帖信息时,原始微博可以提供更多的信息。
(4)CED-CNN方法的时间缩减量在所有数据集中都达到了最佳性能。同时,它在预测精度方面也表现出色,特别是在Weibo-all这样的大型数据集上接受充分训练后。这表明使用CNN提取转帖序列信息特征的方式比TF-IDF更有效。
(5)检测阈值在平衡检测精度和早期率方面起着重要作用。如表2所示,更高的阈值意味着我们的模型将给出更准确的预测结果,但同时会推迟检测时间。在实际应用中,阈值可根据情况灵活选择。
上述观察表明,我们的模型能够使用有限的转帖信息进行更准确的预测,它对各种数据集和参数设置都很灵活,且鲁棒性(robustness)强。
(四)早期检测结果
在CED的训练期间,每条疑似谣言的“可信检测点”都不断提前,并在测试期间,可以根据基于阈值的策略进行判断。换句话说,CED可以自动学习并推断出每条微博的适当“可信检测点”。在图4中,我们显示了测试集中“可信检测点”的分布。为了反映不同模型在不同数据集中的具体表现,我们分别计算了微博所有数据集中三种方法(CED, CED-OM, CED-CNN)的早期检测点分布情况。
从这个图中,我们发现:(1)在使用到的转发信息量少于10%的情况下,CED/CED-OM/CED-CNN可以分别检测约30%/40%/60%的微博。这验证了额外考虑原始微博信息以及利用卷积神经网络建模的优势。与此同时,我们提出的三种CED方法都可以对谣言做出有效的早期检测。(2)在使用整个转帖序列进行检测时,占比出现了局部峰值(使用100%转帖信息)。可以看出,这种情况在CED-CNN中较少,小于10%,表明CED-CNN进行可检测所需要的转帖信息量更少,具有较高的转帖信息利用率。
(五)案例研究和错误分析
为了更直观地说明,我们选择了一个被正确预测为谣言的代表性案例,并在表3中展示出其转帖序列。我们还显示了最后一列中每个时间间隔区间对应的预测概率。
从该表我们观察到,由于这些时间间隔中的信息互相冲突,前几个间隔的预测概率变化很大。从“可信检测点”(CDP)起,CED开始进行正确预测而且概率非常一致。这符合CED的假设,即“可信预测点”之后的预测曲线应该是稳定的。同时,我们可以说,“可信检测点”处对应的转帖人,就是该微博评论中的意见领袖,强力地影响了后续评论人的意见,并使他们的意见趋向稳定。同时,也带来了预测概率的骤增,使得早期谣言检测效果有所提升。所以,正确引导意见领袖,发挥其积极作用,对于社交媒体中的谣言早期检测是非常重要的。
另外,对于错误预测的样例,我们总结了有三个原因会导致难以找到可靠的预测点并做出可信的预测:(1)转帖数量太少;(2)转帖信息立场相当矛盾;(3)转帖信息与原始微博内容无关。实际上,(1)和(3)原因会随着传播时间的推移而解决。疑似谣言将不可避免地随着时间而积累足够的转发评论以供CED使用。此外,为了证明CED的转帖信息内容冲突问题,我们选择了两个代表性样本并在表4中展示出他们的转帖序列。从该表中,我们观察到CED可以在早期阶段做出正确的预测,因为其转帖内容是非常一致的。这符合CED的假设,即“可信预测点”之后的预测曲线应该是稳定的。然而,对于不正确样例,它的转帖信息存在明显的相当矛盾,这导致CED无法找到可信的预测点并做出可信的预测,如何解决这类挑战性场景将是我们未来的研究问题。
五、总结与展望
在互联网飞速发展的今天,社交媒体谣言的泛滥传播对人类社会产生极大负面影响,能否充分利用自然语言处理等人工智能技术快速、准确、自动地检测社交媒体谣言,意义重大。本文回顾了谣言自动检测的已有方法,并讨论了已有方法无法有效实现“早期检测”的问题,进而探索了谣言的早期自动检测:提出“可信检测点”概念,提出可信早期检测(CED)模型,可以消除不必要转帖信息的影响,能够自动寻找“可信检测点”,并实现高精度预测。在真实数据集上的实验结果表明,该模型可以将预测所需时间跨度显著缩短85%以上,同时具有更高的准确性。
面向社交媒体谣言的早期自动检测任务仍然有很大提升空间,有很多开放问题等待解决:我们需要将更多重要信息引入检测模型,如发布和转发疑似谣言的用户信息,疑似谣言的传播结构信息,转帖内容和疑似谣言之间的语义关系,以及丰富的外部知识,等等。这些信息有望帮助检测模型更好地处理传播过程中转帖内容之间的矛盾与冲突。此外,还要更加关注意见领袖对于谣言检测的重要影响,可以尝试利用意见领袖来选择重要转帖信息,以此改进谣言早期检测的效果。
总之,谣言自动检测是互联网时代传播学、语言学与人工智能等多学科交叉的重要课题,具有重要的学术价值和社会意义。本文仅就谣言的早期自动检测进行了非常初步的探索,希望这个课题未来能够得到更多学者的关注与探索。
本文工作受到国家社会科学基金重大招标项目(批准号:13&ZD190)的支持,特此致谢。本文部分内容曾以英文形式公布于在线预印本网站arxiv.org上(Song, et al., 2018)。
注释
①https://en.wikipedia.org/wiki/Rumor
②http://www.snopes.com/
③http://www.factcheck.org/
封面及内文插图来自网络。
本文参考文献从略,完整版请参看刊物原文。
原文刊载于《全球传媒学刊》2018年第4期。
本文来自微信公众号:全球传媒学刊(ID:全球传媒学刊),作者:刘知远、宋长河、杨成
相关推荐
社交媒体平台谣言的早期自动检测
面对疫情谣言,西方各社交平台出手:删帖!限流!
面对新冠肺炎“信息疫情”,社交媒体该如何应对?
疫情之下,国内外社交平台如何精准辟谣?
梁建章:网络谣言的纠错管理,来自新加坡的启示 | 超级观点
印度或对海外社交媒体公司实施更严格的监管,本土科技公司松了一口气
美媒:假消息比病毒传播得更快 社交媒体力阻谎言
谷歌爆丑闻:为大批新冠谣言网站显示广告,提供造谣经费
美国高校抖音俱乐部:学生、教师与社交媒体平台的故事
当谣言步入「短命期」,大数据告诉你什么疫情信息更受关注
网址: 社交媒体平台谣言的早期自动检测 http://www.xishuta.com/newsview2249.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 94831
- 2人类唯一的出路:变成人工智能 18279
- 3报告:抖音海外版下载量突破1 17828
- 4移动办公如何高效?谷歌研究了 17547
- 5人类唯一的出路: 变成人工智 17382
- 62023年起,银行存取款迎来 10009
- 7网传比亚迪一员工泄露华为机密 8000
- 8顶风作案?金山WPS被指套娃 6446
- 9大数据杀熟往返套票比单程购买 6423
- 1012306客服回应崩了 12 6370