我是游戏设计师CIKIDA,寻找合作伙伴中(在美国最好,我现居纽约),欢迎开发者与我联系,也欢迎与我讨论关于游戏设计的问题。我的联系方式可从微信公众号(CIKIDA)后台获取。
玩一个策略游戏就像解一道谜题。谜题一旦被解开,就不值得再研究;谜题越难被解开,就越值得研究。策略游戏也是如此:游戏一旦被解开,就不值得重玩;游戏越难被解开,就越值得重玩。
容易被解开的策略游戏是不值得重玩的,比如井字棋。井字棋是个没有深度的游戏,在3×3的棋盘上,聪明的玩家很快就会发现游戏在双方下法都无误时会平局。当玩家发现这一点时,他就解出了井字棋的“答案”,他在游戏开始前就能看到结局,所以不会产生下棋的兴趣,就像没人有兴趣解一道谜底已知的谜题。
难以被解开的策略游戏是值得重玩的,比如围棋。围棋是个有深度的游戏,在19×19的棋盘上,即使是超级计算机也解不出绝对正确的下法。由于没人知道围棋的“答案”,人们永远可以研究围棋、提升棋技、让自己更接近“答案”;正因如此,围棋极为耐玩,上千年来人们对其代代相承的研究就说明了这一点。
我们都希望自己的游戏像围棋一样经久不衰。要实现这一点,就不能让游戏的“答案”被玩家掌握。在讨论如何避免这种情况之前,我们先聊聊策略游戏的类型。
在所有策略游戏中,玩家要做的都是在给定信息和目标的情况下,采用最大化自身收益的策略。约翰·福布斯·纳什证明,所有有限博弈(绝大多数游戏都是或可近似看成是有限博弈,即玩家的数量和纯策略都是有限的,本文只讨论这类游戏)都至少存在一个纳什均衡。在这种均衡状态下,没人可以通过改变自身策略而获得更高收益。纳什均衡可以分为两类:纯策略纳什均衡和混合策略纳什均衡。这两类均衡,在我看来,对应着策略游戏的两种终局形态:记忆游戏和猜疑游戏,前者比谁记得多,后者比谁猜得准。几乎所有策略游戏最终都会变成这两种游戏,然后不可避免地变得无聊。
先说记忆游戏,这种游戏最终会达到纯策略纳什均衡。
策梅洛定理指出:在有限的、双人的、双方依次行动的、双方都有完美信息的、没有运气因素的零和游戏中,至少有一位玩家拥有保证自己不会输的纯策略。很多我们熟悉的棋类游戏,比如井字棋、围棋、象棋、跳棋、黑白棋、五子棋,都符合策梅洛定理的条件;它们在理论上都是可解的,即玩家若均采用最优(纯)策略——双方达到纯策略纳什均衡——游戏的结局(胜/负/平)可以被预测。而当玩家在游戏开始前就能预测到结局时,游戏就被解开了、不值得重玩了。
当然,符合策梅洛定理条件的完美信息游戏只是在理论上是可解的。这些游戏只要足够复杂,比如围棋(据说其局面总数远超可观测宇宙中的原子总数),它们实际上对于人类来说就是不可解的,因为脑力有限的人类不可能完全掌握它们。由于极为难解,这些游戏的确有着极高的耐玩性,但是,这不代表它们一直具有较高的可玩性。
这些游戏的问题在于,它们的玩法会逐渐因为“正确答案”而变得公式化和无聊。例如象棋,刚开始琢磨着玩很有意思,但是随着越玩越多,追求胜利的玩家最终必然会去背棋谱;因为象棋,特别是其开局,已经被研究透彻,玩家可以几十手都按定式走,否则就容易陷入劣势并失败。而当双方都按照定式下棋时,游戏就会变得像看过的剧本一样可预测和无聊。
围棋也不例外。在AI极大帮助人类理解围棋之前,顶级棋手有着迥异的棋风,每盘棋都因为不同棋风的交锋而难以预料和精彩;而在AI之后,棋风不再迥异,棋手们为了胜利争相模仿AI下棋,人们甚至开始用“AI吻合率”为指标来进行围棋训练。在AI的加持下,人们虽然加深了对围棋的理解,但是也因此减缓甚至停止了对围棋的探索——毕竟下棋的“正确答案”已经存在,只需要记住并照做就可以了。
到了这个地步,记忆对于下棋的重要性就被过分拔高了——谁能记住更多定式,谁就更有可能获胜。游戏的状态空间越小,这点就越是明显。例如,一个水平较低的象棋手是可以靠背棋谱——而不是棋力——获得巨大前期优势并战胜专业棋手的,而专业棋手如果想靠自身的棋力而非死板的走谱取胜,只能靠非常规的散手棋将对方拖入棋谱外的陌生局面进行搏杀,而这是比较冒险的。而当这些专业棋手想赢同水平或更强的对手时,他们就不能冒险了,他们也得下棋谱。
所有存在纯策略纳什均衡的游戏,最终都会变得强调记忆。在这些游戏的终局(已解)阶段,玩家的决策不再重要——玩家甚至不需要动脑思考决策,他只需要记住并执行纯策略就能获得最好的结果。玩好这种游戏需要记大量东西,而这是枯燥无聊的。诚然,有人喜欢记东西,世界上还有背圆周率的比赛,但是这种爱好非常小众。一个游戏如果太强调记忆,它对大多数人来说是不好玩的。
当然,游戏只要足够复杂,纯比记忆的情况就不会发生。围棋也不是光靠背棋谱就能赢,毕竟人不可能记住全部棋局,而那些记不住的地方(比如中后盘),就需要比游戏理解了。不过,这并不能阻挡围棋因为玩法的公式化而变得无聊。看看现在的围棋选手吧,他们都在模仿AI下棋——游戏不再像两个不同的人对弈,而是像两本相同的棋谱对答案,这是很没劲的。
记忆游戏——存在纯策略纳什均衡的游戏——的问题在于,它们即使难解和耐玩,最终也会因为玩法的公式化而变得不好玩。
再说说猜疑游戏,这种游戏最终会达到混合策略纳什均衡。
猜疑游戏通常是不完美信息游戏。玩家在行动时有一部分信息是不知道的,所以他需要猜那部分信息,比如猜别人手里有什么牌、草丛里有没有埋伏等等。由于信息的不完美性,这类游戏不符合策梅洛定理的条件,所以它们的结局在玩家都采用最优策略时不是可预测的,比如剪刀石头布,如果玩家都以三分之一的概率随机出三个选项,那么没人能预测谁输谁赢。(注:本文认为剪刀石头布这种玩家同时行动的游戏是不完美信息游戏,因为玩家掌握着对别人隐藏的信息,并且必须在不知道别人隐藏信息的情况下行动,这与存在隐藏信息的游戏是类似的。)
结局的不可预测性的确让猜疑游戏在重玩性上比记忆游戏更胜一筹,但是,由于同样存在最优策略,猜疑游戏也存在与记忆游戏类似的问题。
首先,猜疑游戏也需要背东西。猜疑游戏的最优策略——混合策略——需要玩家以特定的概率在不同的纯策略之间随机选择。纯策略和概率都是玩家需要记忆的东西,比如德州扑克的玩家要记住各位置的起手牌范围、各种牌面的下注频率等等,这和背棋谱一样枯燥。
其次,猜疑游戏也存在玩法公式化的问题。最优策略会统一玩家的理解和打法,继而让游戏变得同质化和无聊。例如德州扑克,玩家的打法在过去迥然不同,但是在solver类软件出现后高度趋同,这和围棋在KataGo等AI引擎出现后的情况如出一辙。
不过,即便如此,猜疑游戏在终局阶段仍具有一定的可玩性,这是因为:猜疑游戏的混合策略比记忆游戏的纯策略更难执行,而这可以赋予游戏技巧性和可玩性。
纯策略是容易执行的,玩家只需要照着一张“如果—那么”的说明书按条件触发回应就可以了,比如对手在这里下棋,我就在那里下棋。混合策略比纯策略复杂,它除了要玩家知道纯策略,还要玩家以特定的概率随机选择纯策略,而这执行起来是有难度的,因为人很难不带偏差地随机化自己的选择。
例如剪刀石头布,很多人都知道最优策略是以三分之一的概率随机出三个选项,但是执行起来却总是会陷入某种“不够随机”的倾向。浙江大学的一项大规模研究显示,在下一回合,胜者更有可能保持相同选项,败者更有可能变换选项——参与者的行为并不是完全随机的,而是受到了过往结果的影响。
人类这种“不够随机”的天性可以引出两项竞技:第一,玩家可以比“谁更随机”;第二,玩家可以比谁更能识别并剥削别人“不够随机”的倾向。谁把这两点做得更好,谁就更难被预测和剥削(第一点)、更能预测和剥削别人(第二点),然后在多轮博弈中胜出。例如在剪刀石头布中,如果我发现你出布赢后喜欢继续出布,我在下一回合就可以多出剪刀,这样我的胜率就会更高;如果我非常善于发现并剥削你“不够随机”的倾向,那么只要玩得够多,我最终就会赢你更多场次。
浙江大学的何赛灵教授的研究团队开发了一个基于马尔可夫链的剪刀石头布AI模型。在和52名人类玩家对战300回合后,AI击败了95%的玩家。图为AI与不同玩家进行300回合比赛的总得分(赢加2分,平加1分,输不得分)
正是人类的这种“不够随机”的天性,赋予了猜疑游戏在终局阶段技巧性和可玩性。如果玩家真能完美执行混合策略,那么他们在公平的游戏中是难分胜负的,比如一个人如果完全随机地以三分之一的概率出剪刀、石头、布,那么他即使面对一个只会出石头的傻子,最终也只能平局(双方的胜:负:平都是1:1:1)。
这里补充说明一点,这里经常引起歧义:猜疑游戏的最优策略,指的并不是让玩家赢得最多的策略,而是让玩家输得最少的策略;这种策略优化的不是“击败别人”,而是“自己不被击败”。如果玩家想赢,他就要采用剥削策略,去剥削别人某种偏离最优策略的倾向。
还是以剪刀石头布为例。如果玩家不想输,他就该采用最优策略;而如果他想赢,他就该采用剥削策略,比如A发现B有1/2的概率出剪刀——这是偏离最优策略(1/3)的——A就可以多出石头剥削B,但是当A这样做时,他自己也会变得可被剥削,B可以多出布剥削他。
我们不妨把猜疑游戏中的最优策略和剥削策略理解成盾和矛,前者是低风险低收益的防御性策略,后者是高风险高收益的进攻性策略。要玩好猜疑游戏,玩家就要熟练掌握并切换这两种策略。比如在德州扑克中,高手会先采用GTO(Game Theory Optimal,正如其名,这是德州扑克的博弈论最优策略)观察其他玩家的打法,然后伺机剥削别人的某种偏离GTO的倾向。在高水平的比赛中,选手们会不断变换打法,最精于此道的人通常会胜出。
这可以解释为什么猜疑游戏比记忆游戏更不容易让人感到无聊。观察一下猜疑游戏和记忆游戏的最简单形式,剪刀石头布和井字棋,就会发现前者更有意思一点(前者有比赛,后者没有,不是吗?)。记忆游戏是有终点的,玩家一旦解出答案(最优策略),游戏就会像已解的谜题一样结束;而猜疑游戏没有终点,玩家即使知道答案,也不知道别人在想什么——这种心理博弈,加上执行混合策略所需的技巧性,保证了猜疑游戏在终局阶段仍具有一定的可玩性。
我们放大一下视角,就会发现这种对比不只存在于策略游戏,而是存在于很多游戏中需要玩家动脑的地方。实际上,很多游戏,在策略玩法层面,都是由各种记忆游戏与猜疑游戏组合而成的,也就是说游戏中某些层面存在最优的纯策略和混合策略:比如FTG,最优连段和角色克制是记忆游戏,攻防投和正逆择是猜疑游戏;比如MOBA,点天赋和出装备是记忆游戏,预判和走位是猜疑游戏;比如FPS,背地图点位是记忆游戏,打A还是打B是猜疑游戏……通常来说,玩家用不了多久就会在网上讨论出前者的最优解,然后觉得游戏的meta固定无聊,而后者自游戏诞生起就不曾变化,但是却能让人乐此不疲。(注:后者并非全无依据的盲猜,而是有一定的猜的成分。双方实力越悬殊,猜的成分越小(强者能看穿弱者);双方实力越接近和越顶尖,猜的成分越大(强者难看穿强者,因为他们懂得让自己难以被预测))
新版本一出,各种玩法百花齐放,但是用不了多久,玩家就会找到最优解,然后游戏就会变得同质化和无聊
记忆游戏的问题在于,它在今天太易解了。连围棋都难逃算法,更别说其他游戏了。策略游戏的很大一部分乐趣,在于不断发现更好的策略的过程。在这个过程中,玩家们采取不同的策略检验自己的正确、发现自己的错误,然后从别人的策略中取长补短,不断完善自己的游戏理解,这个过程可以持续一辈子甚至几代人。可是在今天,AI极大缩短了这一过程,它用绝对实力告诉你正确答案,你不再需要琢磨答案,你只需要照抄答案。到了这个地步,策略游戏就失去了过程乐趣,它不再是一门值得研究的学科,而是一场已经公布答案的考试,玩家们比的不再是谁把问题解决得更好,而是谁把答案抄错得更少。
当然,记忆游戏并非穷途末路,毕竟游戏只要足够复杂,上面的情况就不会发生。那么,增加游戏的复杂度去避免玩法的公式化可行吗?我认为效果有限。因为游戏是给脑力有限的人类玩的,把游戏的复杂度增加到超出人类理解能力的一亿倍和十亿倍是没什么区别的——反正人都理解不了。一味增加复杂度只会面临迅速递减的边际效用,而且还可能降低游戏的策略性——当游戏复杂到让人思考不过来时(试想把黑白棋的棋盘扩大十倍),玩家在决策时就只能蒙一个选择了,这样做决策和抛硬币没什么区别。
比较可行的避免玩法公式化的方式是更新游戏,比如TCG会加入新卡牌、MOBA会加入新角色、自走棋会更替赛季——游戏机制在变化,玩法自然不会固定。还有一些游戏会引入随机性让每局游戏都不同,比如Chess960,每局开始时棋子都会随机摆放,这让人没法靠背棋谱下棋。不过,这些方式都存在局限性:更新游戏的设计成本较大,因为这需要不断平衡甚至重做游戏;随机性可能会破坏公平性(比如4X游戏,开局刷在好位置,赢面就比别人大),且很多游戏不适合随机化。
左:国际象棋的标准开局;右:Chess960的某种开局(最后一排棋子被打乱了顺序)
还有一些游戏会通过操作玩法弥补策略玩法的短板。例如一些RTS游戏,它们的策略玩法早就已经高度公式化了——怎么开局,怎么运营,怎么变阵……玩家早已研究出最优解——但是没人能完美无误地执行这些策略,所以玩家可以比谁执行得更好,也就是比谁的手速更快。类似的还有俄罗斯方块和魔方,它们本来是益智游戏(姑且算是策略游戏吧),但是在比赛中却成了比手速的操作游戏。这些游戏的确有技巧性和可玩性,但是由于操作远比策略重要,它们已经不属于本文讨论的策略游戏的范畴了。
简单总结一下本文。游戏只要是有限博弈(绝大多数游戏都是或可近似看成是有限博弈),就存在纳什均衡策略,而存在纳什均衡策略,就会逐渐因为玩法的公式化而变得无聊。这个问题在过去不明显,是因为人们对复杂游戏的理解不够深;但是在今天,借助科技的手段,人们对复杂游戏的理解越来越深、越来越快了,于是策略游戏越来越不耐玩了。每一个策略游戏都是一道题(或者说一些题),而每道题在今天都会被迅速解开,因此,比谁的答案更正确,在人手一份正确答案的今天有些行不通,除非游戏不断出新题;比较行得通的,是比谁更能执行好正确答案,而混合策略比纯策略更难执行,所以我推荐将混合策略纳什均衡确立为策略玩法的终局状态,通过执行层面的技巧性和永无止境的心理博弈维持游戏的可玩性。
参考
Xu, B., Zhou, H.-J. & Wang, Z. (2013). Cycle frequency in standard Rock–Paper–Scissors games: Evidence from experimental economics. Physica A. https://doi.org/10.1016/j.physa.2013.06.039
Wang, L., Huang, W., Li, Y. et al. (2020). Multi-AI competing and winning against humans in iterated Rock–Paper–Scissors game. Scientific Reports. https://doi.org/10.1038/s41598-020-70544-7
|