多人游戏中玩家互喷的现象始终难以杜绝。育碧一直在努力遏制《彩虹6号:围攻》中的这种现象,Valve试图屏蔽或封禁《Dota 2》的喷子玩家,EA也删除了旗下游戏里数以千计的素材,目的是营造一个更和谐的环境。如今,一家波士顿软件公司推出了一款工具,或许能帮助开发商在这方面取得长足进步。
这款工具名为ToxMod,会利用机器学习来识别联网对战中某些玩家的喷子言论。按照工具开发者的说法,它可以识别语音规律,通过观察声波来分辨哪些玩家正在爆粗口,他们说了些什么、说话的方式,并且能实时用“嘟嘟声”替代脏话。
在Modulate公司,两位联合创始人迈克·帕帕斯(Mike Pappas)和卡特·霍夫曼(Carter Huffman)构思了ToxMod的概念。帕帕斯和霍夫曼是在麻省理工学院学习物理学时认识的——由于解决问题的方式非常互补,他俩决定共同创办一家公司。
Modulate团队部分成员,左一为帕帕斯,右一为霍夫曼
“作为核心玩家,我俩从一开始就想做跟游戏相关的事情。我们想到了《堡垒之夜》所获得的成功、可定制皮肤,以及所有能提升玩家沉浸感、帮助玩家表达自己的工具。”
起初,Modulate打算开发“语音皮肤”让玩家来改变聊天时的声音。但经过与游戏开发者的广泛沟通,他们发现许多工作室都在想方设法让玩家在进行语音聊天时感到更安全。为了远离网络喷子,很多人根本不愿戴耳机。
怎样才能提升语音聊天时的安全感?语音皮肤确实可以让玩家隐瞒自己的年龄、性别、种族或可能导致被人骚扰的任何其他信息,但帕帕斯表示,Modulate还有更远大的计划,那就是使用机器学习技术,针对语音聊天问题构建一套“全面的解决方案”。
在网游里,几乎很难避免碰到不文明的行为
“很多游戏工作室问,你们能实时屏蔽脏话吗?或者能不能检测到某个玩家正在骚扰其他人,并向我们的团队发出警报?”
基于公司既有技术,Modulate开发了ToxMod。这款工具使用AI来扫描人声的波形,不仅能分辨出玩家正在说什么,还能判断说话的方式。借助一种复杂算法,ToxMod能够分清人类语音的细微差别,检测出有攻击性的声波峰值,并立即做出响应。
帕帕斯表示,ToxMod的SDK允许开发商将这项技术直接集成到游戏中。大部分语音过滤操作都在客户端进行,如有必要,工作人员也可以标记和处理处于“灰色地带”的语音。随着时间推移,ToxMod的AI会变得越来越智能,无需人工干预。开发商还可以对ToxMod进行自定义调整,选择适当阈值,以适应其游戏和玩家们的特定需求。
“你会将哪种程度的暴力言论视为一种潜在威胁?如果你正在玩《使命召唤》,也许觉得无所谓,除非玩家的言论特别极端。但如果你玩的是更强调社交性的《机器砖块》(Roblox),这无论如何都是个问题。”
另外,ToxMod还可以被用作一种预测工具。它既能分析玩家语音,又会观察游戏内正在发生的事,从而快速判断玩家是否会在某些特定情况下变得更有可能说脏话,例如连续输掉几局比赛。这意味着ToxMod可以向游戏的配对服务器提供建议,预防出现可能导致玩家失控骂街的情况。
ToxMod的基本运作原理
“假设一名玩家连续输了5局比赛,特别沮丧,然后跟几名技术一般的女玩家组队,在比赛中又快输了,那么他会不会说一些性别歧视的话?”帕帕斯解释道,“这种现象糟糕吗?当然。因为几名女玩家遭到了辱骂,我们需要立即制止……但考虑到那名玩家情绪失控的原因,他也许不应该因为这件事就被封号30天。”
“相反,如果我们知道你已经连输几局,很愤怒,那么我们也许应该建议配对系统:‘嘿,给这家伙安排几名经验更丰富的队友带带他,不然他极有可能冲人发火。’”
每款游戏及其玩家社群都有特定需求,Modulate宣称可以与开发商合作,帮助他们对软件进行有针对性的微调。据帕帕斯透露,Modulate一直在与由Epic Games、EA、拳头游戏、Roblox、暴雪和育碧等游戏发行商组成的公平游戏联盟(Fair Play Alliance)沟通,希望能帮助更多游戏营造和谐健康的社区环境。
“我们想完善语音聊天功能。”帕帕斯说,“我们不但开发了一套工具,还可以与游戏公司合作,真正帮助他们塑造玩家的语音聊天体验。”
“任何一家游戏开发商都可以使用ToxMod,并立即查看其处理的所有音频。技术已经准备就绪。我们正在努力邀请首批开发商将它集成到游戏中,所以对我们来说,2021年肯定让人兴奋。”
原文标题:《ToxMod uses AI to bleep out abusive language in live voice chat》
原作者:Ian Boudreau
译者:等等
来源:触乐
地址:http://www.chuapp.com/article/287697.html【编译自pcgamesn.com】
|