游戏开发论坛

 找回密码
 立即注册
搜索
查看: 1962|回复: 6

请教几个时间函数有关问题?

[复制链接]

60

主题

134

帖子

134

积分

注册会员

Rank: 2

积分
134
QQ
发表于 2006-3-1 09:27:00 | 显示全部楼层 |阅读模式
我想精确控制游戏,听网友说timeGetTime有10ms的误差,可我一直认为它只有1ms的误差,因为它精确到1ms,那么它的误差到底是多少?
还有一个函数GetTickCount(),它的误差是多少?
这两个函数用起来哪个比较精确比较好?还有其他更好的么?

谢谢各位大侠相助!

60

主题

134

帖子

134

积分

注册会员

Rank: 2

积分
134
QQ
 楼主| 发表于 2006-3-1 17:03:00 | 显示全部楼层

Re:请教几个时间函数有关问题?

怎么没有人回答啊!?

28

主题

433

帖子

433

积分

中级会员

Rank: 3Rank: 3

积分
433
发表于 2006-3-1 19:31:00 | 显示全部楼层

Re:请教几个时间函数有关问题?

误差 大 点 没关系~~
你 要1ms 这么高的 精度 干什么~~
最高精度 的 是 CPU时间戳~~
//----------------------------
下面 是转帖~~
这本书 我也有~~
//-------------------------------------------------------------
 对关注性能的程序开发人员而言,一个好的计时部件既是益友,也是良师。计时器既可以作为程序组件帮助程序员精确的控制程序进程,又是一件有力的调试武器,在有经验的程序员手里可以尽快的确定程序的性能瓶颈,或者对不同的算法作出有说服力的性能比较。

  在Windows平台下,常用的计时器有两种,一种是timeGetTime多媒体计时器,它可以提供毫秒级的计时。但这个精度对很多应用场合而言还是太粗糙了。另一种是QueryPerformanceCount计数器,随系统的不同可以提供微秒级的计数。对于实时图形处理、多媒体数据流处理、或者实时系统构造的程序员,善用QueryPerformanceCount/QueryPerformanceFrequency是一项基本功。

  本文要介绍的,是另一种直接利用Pentium CPU内部时间戳进行计时的高精度计时手段。以下讨论主要得益于《Windows图形编程》一书,第15页-17页,有兴趣的读者可以直接参考该书。关于 RDTSC指令的详细讨论,可以参考Intel产品手册。本文仅仅作抛砖之用。
  在Intel Pentium以上级别的CPU中,有一个称为“时间戳(Time Stamp)”的部件,它以64位无符号整型数的格式,记录了自CPU上电以来所经过的时钟周期数。由于目前的CPU主频都非常高,因此这个部件可以达到纳秒级的计时精度。这个精确性是上述两种方法所无法比拟的。

  在Pentium以上的CPU中,提供了一条机器指令RDTSC (Read Time Stamp Counter)来读取这个时间戳的数字,并将其保存在EDX:EAX寄存器对中。由于EDX:EAX寄存器对恰好是Win32平台下C++语言保存函数返回值的寄存器,所以我们可以把这条指令看成是一个普通的函数调用。像这样:

inline unsigned __int64 GetCycleCount()
{
__asm RDTSC
}

但是不行,因为RDTSC不被C++的内嵌汇编器直接支持,所以我们要用_emit伪指令直接嵌入该指令的机器码形式0X0F、0X31,如下:

inline unsigned __int64 GetCycleCount()
{
__asm _emit 0x0F
__asm _emit 0x31
}

以后在需要计数器的场合,可以像使用普通的Win32 API一样,调用两次GetCycleCount函数,比较两个返回值的差,像这样:

unsigned long t;
t = (unsigned long)GetCycleCount();
//Do Something time-intensive ...
t -= (unsigned long)GetCycleCount();

  《Windows图形编程》第15页编写了一个类,把这个计数器封装起来。有兴趣的读者可以去参考那个类的代码。作者为了更精确的定时,做了一点小小的改进,把执行RDTSC指令的时间,通过连续两次调用GetCycleCount函数计算出来并保存了起来,以后每次计时结束后,都从实际得到的计数中减掉这一小段时间,以得到更准确的计时数字。但我个人觉得这一点点改进意义不大。在我的机器上实测,这条指令大概花掉了几十到100多个周期,在 Celeron 800MHz的机器上,这不过是十分之一微秒的时间。对大多数应用来说,这点时间完全可以忽略不计;而对那些确实要精确到纳秒数量级的应用来说,这个补偿也过于粗糙了。
这个方法的优点是:

1.高精度。可以直接达到纳秒级的计时精度(在1GHz的CPU上每个时钟周期就是一纳秒),这是其他计时方法所难以企及的。

2. 成本低。timeGetTime 函数需要链接多媒体库winmm.lib,QueryPerformance* 函数根据MSDN的说明,需要硬件的支持(虽然我还没有见过不支持的机器)和KERNEL库的支持,所以二者都只能在Windows平台下使用(关于 DOS平台下的高精度计时问题,可以参考《图形程序开发人员指南》,里面有关于控制定时器8253的详细说明)。但RDTSC指令是一条CPU指令,凡是 i386平台下Pentium以上的机器均支持,甚至没有平台的限制(我相信i386版本UNIX和Linux下这个方法同样适用,但没有条件试验),而且函数调用的开销是最小的。

3.具有和CPU主频直接对应的速率关系。一个计数相当于1/(CPU主频Hz数)秒,这样只要知道了CPU 的主频,可以直接计算出时间。这和QueryPerformanceCount不同,后者需要通过QueryPerformanceFrequency获取当前计数器每秒的计数次数才能换算成时间。
这个方法的缺点是:

1.现有的C/C++编译器多数不直接支持使用RDTSC指令,需要用直接嵌入机器码的方式编程,比较麻烦。

2.数据抖动比较厉害。其实对任何计量手段而言,精度和稳定性永远是一对矛盾。如果用低精度的timeGetTime来计时,基本上每次计时的结果都是相同的;而RDTSC指令每次结果都不一样,经常有几百甚至上千的差距。这是这种方法高精度本身固有的矛盾。

关于这个方法计时的最大长度,我们可以简单的用下列公式计算:
自CPU上电以来的秒数 = RDTSC读出的周期数 / CPU主频速率(Hz)
64位无符号整数所能表达的最大数字是1.8×10^19,在我的Celeron 800上可以计时大约700年(书中说可以在200MHz的Pentium上计时117年,这个数字不知道是怎么得出来的,与我的计算有出入)。无论如何,我们大可不必关心溢出的问题。
下面是几个小例子,简要比较了三种计时方法的用法与精度

//Timer1.cpp 使用了RDTSC指令的Timer类//KTimer类的定义可以参见《Windows图形编程》P15
//编译行:CL Timer1.cpp /link USER32.lib
#include <stdio.h>
#include "KTimer.h"

main()
{
  unsigned t;
  KTimer timer;
  timer.Start();
  Sleep(1000);
  t = timer.Stop();
  printf("Lasting Time: %d\n",t);
}

//Timer2.cpp 使用了timeGetTime函数
//需包含<mmsys.h>,但由于Windows头文件错综复杂的关系
//简单包含<windows.h>比较偷懒:)
//编译行:CL timer2.cpp /link winmm.lib
#include <windows.h>
#include <stdio.h>

main()
{
  DWORD t1, t2;
  t1 = timeGetTime();
  Sleep(1000);
  t2 = timeGetTime();
  printf("Begin Time: %u\n", t1);
  printf("End Time: %u\n", t2);
  printf("Lasting Time: %u\n",(t2-t1));
}

//Timer3.cpp 使用了QueryPerformanceCounter函数
//编译行:CL timer3.cpp /link KERNEl32.lib
#include <windows.h>
#include <stdio.h>

main()
{
  LARGE_INTEGER t1, t2, tc;
  QueryPerformanceFrequency(&tc);
  printf("Frequency: %u\n", tc.QuadPart);
  QueryPerformanceCounter(&t1);
  Sleep(1000);
  QueryPerformanceCounter(&t2);
  printf("Begin Time: %u\n", t1.QuadPart);
  printf("End Time: %u\n", t2.QuadPart);
  printf("Lasting Time: %u\n",( t2.QuadPart- t1.QuadPart));
}

////////////////////////////////////////////////
//以上三个示例程序都是测试1秒钟休眠所耗费的时间
file://测/试环境:Celeron 800MHz / 256M SDRAM
// Windows 2000 Professional SP2
// Microsoft Visual C++ 6.0 SP5
////////////////////////////////////////////////

以下是Timer1的运行结果,使用的是高精度的RDTSC指令
Lasting Time: 804586872

以下是Timer2的运行结果,使用的是最粗糙的timeGetTime API
Begin Time: 20254254
End Time: 20255255
Lasting Time: 1001

以下是Timer3的运行结果,使用的是QueryPerformanceCount API
Frequency: 3579545
Begin Time: 3804729124
End Time: 3808298836
Lasting Time: 3569712

对于wince, 只有采用KTimer那种方式,因为QueryPerformanceFrequency,timeGetTime均不支持。 

60

主题

134

帖子

134

积分

注册会员

Rank: 2

积分
134
QQ
 楼主| 发表于 2006-3-2 09:34:00 | 显示全部楼层

Re:请教几个时间函数有关问题?

我觉的TimeGetTime()能够精确到一秒,不是最粗糙的,而GetTickCount()精确度不到一秒,它才是最粗糙的,可书上介绍的游戏设计用的是GetTickCount(),那么大型游戏用的TimeGetTime()还是GetTickCount()多?TimeGetTime()执行一次需耗多少CPU时间?

180

主题

3511

帖子

3520

积分

论坛元老

Rank: 8Rank: 8

积分
3520
发表于 2006-3-2 22:05:00 | 显示全部楼层

答案:

你是对的,
timeGetTime()的精确度是 1ms,误差当然不超过 1ms了.
但timeGetTime()的精确度也是可以修改的.默认是1ms.

timeGetTime();1ms
GetTickCount();55ms
GetSystemTime(&time);55ms

timeGetTime()更好,经常用于游戏开发.
GetTickCount();只能用在"不经常计算时间"的软件里.

QueryPerformanceCount什么的,都用不着.
除非你是研究院的,研究"卫星发射"等,需要高度精密.

注意大小写,是
timeGetTime(),第一个"t"是小写的.

60

主题

134

帖子

134

积分

注册会员

Rank: 2

积分
134
QQ
 楼主| 发表于 2006-3-3 15:21:00 | 显示全部楼层

Re:请教几个时间函数有关问题?

那timeGetTime()执行效率如何?执行一次大约消耗多少CPU时间?

180

主题

3511

帖子

3520

积分

论坛元老

Rank: 8Rank: 8

积分
3520
发表于 2006-3-3 15:31:00 | 显示全部楼层

Re:请教几个时间函数有关问题?

timeGetTime()的效率吗?
不清楚.
不过,肯定接近0.
因为,它的工作原理是这样的.

电脑在启动时,会以 DWORD格式开始记数.
执行 timeGetTime() 时,把数据读出来.
就这么简单.

游戏设计,需要以"CPU时间"来考虑问题吗?不用吧?
汇编年代里,人们也不怎么考虑CPU时间.因为CPU太快了.
渲染画面占用CPU多,计算时间什么的,根本不用考虑CPU时间消耗.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

作品发布|文章投稿|广告合作|关于本站|游戏开发论坛 ( 闽ICP备17032699号-3 )

GMT+8, 2026-1-23 19:55

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表