GameRes游资网

 找回密码
 立即注册
返回列表
查看: 592|回复: 0

游戏设计模式——面向数据编程思想

[复制链接]
发表于 2018-11-5 14:38:05 | 显示全部楼层 |阅读模式
游戏程序
平台类型:  
程序设计: 设计思想/框架 
编程语言:  
引擎/SDK:  
文/KillerAery

前言:随着软件需求的日益复杂发展,远古时期面的向过程编程思想才渐渐萌生了面向对象编程思想。

当人们发现面向对象在应对高层软件的种种好处时,越来越沉醉于面向对象,热衷于研究如何更加优雅地抽象出对象。

然而现代开发中渐渐发现面向对象编程层层抽象造成臃肿,导致运行效率降低,而这是性能要求高的游戏编程领域不想看到的。

于是现代游戏编程中,面向数据编程的思想越来越被接受(例如Unity2018更新的ECS框架就是一种面向数据思想的框架)。

面向数据编程是什么?

先来一个简单的比较:

  • 面向过程思想:考虑解决问题所需的各个步骤(函数)。
  • 面向对象思想:考虑解决问题所需的各个模型(类)。
  • 面向数据思想:考虑数据的存取及布局为核心思想(数据)。


那么所谓的考虑数据存储/布局是什么意思呢?先引入一个有关CPU处理数据的概念:CPU多级缓存。

CPU多级缓存(CPU cache)

在组装电脑购买CPU的时候,不知道大家是否留意过CPU的一个参数:N级缓存(N一般有1/2/3)

什么是CPU缓存:

1409576-20181002232252974-1716194206.png

更详细来说,结构应该是:CPU<---->寄存器<---->CPU缓存<---->内存

可以看到CPU缓存是介于内存和寄存器之间的一个存储区域,此外它存储空间比内存小,比寄存器大。

为什么需要CPU多级缓存:

CPU的运行频率太快了,而CPU访问内存的速度很慢,这样在处理器时钟周期内,CPU常常需要等待寄存器读取内存,浪费时间。

而CPU访问CPU缓存则速度快很多。为了缓解CPU和内存之间速度的不匹配问题,CPU缓存则预先存储好潜在可能会访问的内存数据。

CPU多级缓存预先存的是什么:

  • 时间局部性:如果某个数据被访问,那么在不久的将来它很可能再次被访问。
  • 空间局部性:如果某个数据被访问,那么与它相邻的数据很快也能被访问。
  • CPU多级缓存根据这两个特点,一般存储的是访问过的数据+访问数据的相邻数据。


CPU缓存命中/未命中:

  • CPU把待处理的数据或已处理的数据存入缓存指定的地址中,如果即将要处理的数据已经存在此地址了,就叫作CPU缓存命中。
  • 如果CPU缓存未命中,就转到内存地址访问。


提高CPU缓存命中率

要尽可能提高CPU缓存命中率,就是要尽量让使用的数据连续在一起。

由于面向数据编程技巧很多,本文篇幅有限,只介绍部分。

使用连续数组存储要批处理的对象

1,传统的组件模式,往往让游戏对象持有一个或多个组件的引用数据(指针数据)。

(一个典型的游戏对象类,包含了2种组件的指针)

  1. class GameObject {
  2.     //....GameObject的属性
  3.     Component1* m_component1;
  4.     Component2* m_component2;
  5. };
复制代码

下面一幅图显示了这种传统模式的结构:

1409576-20181003002716013-991391927.png

游戏对象/组件往往是批处理操作较多(每帧更新/渲染/其它操作)的对象。

这个传统结构相应的每帧更新渲染代码:

  1. GameObject g[MAX_GAMEOBJECT_NUM];

  2. for(int i = 0; i < GameObjectsNum; ++i) {
  3.       g[i].update();
  4.       g[i].draw();
  5.       if(g[i].componet1 != nullptr)g[i].componet1->update();
  6.       if(g[i].componet2 != nullptr)g[i].componet2->update();
  7. }
复制代码

而根据图中可以看到,这种指来指去的结构对CPU缓存极其不友好:为了访问组件总是跳转到不相邻的内存。

倘若游戏对象和组件的更新顺序不影响游戏逻辑,则一个可行的办法是将他们都以连续数组形式存在。

注意是对象数组,而不是指针数组。如果是指针数组的话,这对CPU缓存命中没有意义(因为要通过指针跳转到不相邻的内存)。

  1. GameObject g[MAX_GAMEOBJECT_NUM];
  2. Component1 a[MAX_COMPONENT_NUM];
  3. Component2 b[MAX_COMPONENT_NUM];
复制代码

(连续数组存储能让下面的批处理中CPU缓存命中率较高)

  1. for (int i = 0; i < GameObjectsNum; ++i) {
  2.     g[i].update();
  3.     g[i].draw();
  4. }
  5. for (int i = 0; i < Componet1Num; ++i) {
  6.     a[i].update();
  7. }
  8. for (int i = 0; i < Componet2Num; ++i) {
  9.     b[i].update();
  10. }
复制代码

2,这是一个简单的粒子系统:

  1. const int MAX_PARTICLE_NUM = 3000;
  2. //粒子类
  3. class Particle {
  4. private:
  5.     bool active;
  6.     Vec3 position;
  7.     Vec3 velocity;
  8.     //....其它粒子所需方法
  9. };

  10. Particle particles[MAX_PARTICLE_NUM];
  11. int particleNum;
复制代码

它使用了典型的lazy策略,当要删除一个粒子时,只需改变active标记,无需移动内存。

然后利用标记判断,每帧更新的时候可以略过删除掉的粒子。

当需要创建新粒子时,只需要找到第一个被删除掉的粒子,更改其属性即可。

  1. for (int i = 0; i < particleNum; ++i) {
  2.     if (particles[i].isActive()) {
  3.         particles[i].update();
  4.     }
  5. }
复制代码

表面上看这很科学,实际上这样做CPU缓存命中率不高:每次批处理CPU缓存都加载过很多不会用到的粒子数据(标记被删除的粒子)。

一个可行的方法是:当要删除粒子时,将队列尾的粒子内存复制到该粒子的位置,并记录减少后的粒子数量。

(移动内存(复制内存)操作是程序员最不想看到的,但是实际运行批处理带来的速度提升相比删除的开销多的非常多,这也是面向数据编程的奇妙之处。)

  1. particles[i] = particles[particleNum];
  2. particleNum--;
复制代码

这样我们就可以保证在这个粒子批量更新操作中,CPU缓存总是能以高命中率击中。

  1. for (int i = 0; i < particleNum; ++i) {
  2.     particles[i].update();
  3. }
复制代码

冷数据/热数据分割

有人可能认为这样能最大程度利用CPU缓存:把一个对象所有要用的数据(包括组件数据)都塞进一个类里,而没有任何用指针或引用的形式间接存储数据。

实际上这个想法是错误的,我们不能忽视一个问题:CPU缓存的存储空间是有限的

于是我们希望CPU缓存存储的是经常使用的数据,而不是那些少用的数据。这就引入了冷数据/热数据分割的概念了。

  • 热数据:经常要操作使用的数据,我们一般可以直接作为可直接访问的成员变量。
  • 冷数据:比较少用的数据,我们一般以引用/指针来间接访问(即存储的是指针或者引用)。


一个栗子:对于人类来说,生命值位置速度都是经常需要操作的变量,是热数据;

而掉落物对象只有人类死亡的时候才需要用到,所以是冷数据;

  1. class Human {
  2. private:
  3.     float health;
  4.     float power;
  5.     Vec3 position;
  6.     Vec3 velocity;
  7.     LootDrop* drop;
  8.     //....
  9. };

  10. class LootDrop{
  11.     Item[2] itemsToDrop;
  12.     float chance;
  13.     //....
  14. };
复制代码

更多小细节(不常用)

面向数据编程还有更多小细节,但是这些都不常用,就只作为一种思考面向数据编程的另类角度。

对多维数组的遍历:int a[100][100];

  1. for(int x=0;x<100;++x)
  2. for(int y=0;y<100;++y)
  3. a[x][y];

  4. for(int y=0;y<100;++y)
  5. for(int x=0;x<100;++x)
  6. a[x][y];
复制代码

内循环应该是对x递增还是对y递增比较快?答案是:对y递增比较快。

因为对y的递增,结果是一个int大小的跳转,也就是说容易访问到相邻的内存,即容易击中CPU缓存。

而对x的递增,结果是100个int大小的跳转,不容易击中CPU。

而内循环如果是y的话,那么就能内外循环总共递增100*100次y。

但内循环如果是x的话,那么就内外循环总共只能递增100次y,相比上者,CPU击中比较少。

额外

面向数据编程可以说是对CPU优化的一个重要思想。

但是在实际开发中,一定要注意不能忘记这个原则:

不要过早优化!

面向数据编程说到底不是针对软件需求的,而是针对CPU优化的。

在游戏的迭代开发的后期,要是CPU性能出现瓶颈,才应去考虑使用面向数据编程技巧。

博客地址:https://www.cnblogs.com/KillerAery/p/9685004.html

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|稿件投递|广告合作|关于本站|GameRes游资网 ( 闽ICP备05005107-1 )

GMT+8, 2018-11-18 18:31

快速回复 返回顶部 返回列表