C++ 提速的新发现
C++ 比 Octave 慢好多,怎么破?自相关两层循环,内层循环涉及浮点数计算,试验了一下把内层循环内部全都 comment out 只留个壳子,但空的内层循环本身就把速度拉下来了,看来问题并不在浮点计算。
速度优化问题真的很有意思啊。
欢迎大家继续讨论 拉下来?拉多少?
把代码贴上来看看?
难道分支预测不准破坏流水线执行?不该啊。 会不会代码本身的缺陷阻止了自动优化?另外,硬件配置和开发环境可能也有关系。 Maybe Debug mode? 本帖最后由 雷达 于 2022-9-24 23:57 编辑
数值分析 发表于 2022-9-24 23:04
拉下来?拉多少?
把代码贴上来看看?
void xcorr(comp* outcomp, comp* A, int lenA, comp* B, int lenB)
{
comp temp, xtimesy;
xtimesy.re = 0;
xtimesy.im = 0;
int j0 = lenB - 1;
int i, j, i1, reali;
if (lenA % 2 == 1)
reali = lenA + 1;
else
reali = lenA;
reali /= 2;
int nconv = reali + lenB;
//#pragma omp parallel for
for (i = reali; i < nconv; i++)
{
temp.re = 0;
temp.im = 0;
i1 = i;
for (j = j0; j >= 0; j--)
{
/* floating date operation */
}
}
}
xcorr函数代码如上,comp是复数struct, 做过长度为11、19两个矢量的测试,和octave结果完全一样
红色部分是内循环,现在其内部操作都comment out 了, j0大概是 6000。
现在call xcorr 100次,耗时78s.
如果把红色部分内循环本身完全comment out, call xcorr 1000次,耗时 <1s.
风雨无阻 发表于 2022-9-24 23:33
Maybe Debug mode?
不应该,看我上面的回复。
我更怀疑是 VS 社区版的问题 本帖最后由 数值分析 于 2022-9-25 00:24 编辑
雷达 发表于 2022-9-24 23:54
void xcorr(comp* outcomp, comp* A, int lenA, comp* B, int lenB)
{
comp temp, xtimesy;
这个不是这么比的吧。。。
您这个函数,不带内循环的话,汇编完总共操作也没几个(不到100个)。
而加上内循环,光jmp和dec指令就至少多执行了6000个,慢个几十倍不是正常的么? 本帖最后由 雷达 于 2022-9-25 01:09 编辑
数值分析 发表于 2022-9-25 00:20
这个不是这么比的吧。。。
您这个函数,不带内循环的话,汇编完总共操作也没几个(不到100个)。
有道理。
所以存在内循环速度就上不去,把内循环取消,改成两个向量直接点乘再求和应该就会好得多,记得 numeric 库里有算向量内积的,我回头试试。
我先尝试尽量用标准库,一个小程序,不想搞得太复杂。多谢了 雷达 发表于 2022-9-25 00:46
有道理。
所以存在内循环速度就上不去,把内循环取消,改成两个向量直接点乘再求和应该就会好得多,这大 ...
你两个试验之间就差了一个空循环, call 1000次按理不会有秒级差异,可能还是编译器优化的问题。举个例子,把循环本身翻译成机器指令loop或dec/jnz,两者速度上会差很多
Why is the loop instruction slow? Couldn't Intel have implemented it efficiently? 数值分析 发表于 2022-9-25 00:20
这个不是这么比的吧。。。
您这个函数,不带内循环的话,汇编完总共操作也没几个(不到100个)。
而加上内循环,光jmp和dec指令就至少多执行了6000个
现在的CPU,可以把判断、jmp和dec指令全部融合进一个µOp(微操作,CPU内部流水线上的执行单位)。如果循环这样跑,花不了多少时间。 本帖最后由 数值分析 于 2022-9-25 02:16 编辑
沉宝 发表于 2022-9-25 01:48
现在的CPU,可以把判断、jmp和dec指令全部融合进一个µOp(微操作,CPU内部流水线上的执行单位)。如果 ...
是的,兄台说的对。
其实我想说的是 真正数值计算部分和代码中其他不直接计算的overhead的比值这个事儿。
雷达兄构造测试用例的时候,屏蔽掉了所有计算的部分,使得剩下的都是overhead,这样run time比较的结果就显得好像不合理了。如果把计算加回去,计算部分的run time会dominate,结果就不那么离谱了。因为不好说,所以用指令数对比的方式试图直观地说明这一点。
比如说,如果有计算,那么跑六千个循环相对于计算应该用不了多少时间。但是如果一边是什么都不做,另一边是六千个循环,那六千个循环比什么都不做慢几十倍了,就不是那么不合理了。
当然也有可能像兄台说的,是优化参数的问题,但我觉得更多地是测试用例设计的不合理。 本帖最后由 雷达 于 2022-9-25 04:49 编辑
沉宝 发表于 2022-9-25 01:27
你两个试验之间就差了一个空循环, call 1000次按理不会有秒级差异,可能还是编译器优化的问题。举个例子 ...
又写了个小实验,没有调用子函数,双层循环,外层6千次,内循环30万次空转,有或没有空转内循环,时间差一倍,我上面这个差的太多了。
我已经完全懵了。 雷达 发表于 2022-9-25 04:47
又写了个小实验,没有调用子函数,双层循环,外层6千次,内循环30万次空转,有或没有空转内循环,时间差 ...
时间差一倍的结果可以接受。
你还是用profile工具看看吧。现在大家都主观瞎猜。 本帖最后由 数值分析 于 2022-9-25 15:38 编辑
雷达 发表于 2022-9-25 04:47
又写了个小实验,没有调用子函数,双层循环,外层6千次,内循环30万次空转,有或没有空转内循环,时间差 ...
能不能把这个也贴上来,看看和上一个有什么不同? 本帖最后由 雷达 于 2022-9-27 01:17 编辑
数值分析 发表于 2022-9-25 14:58
能不能把这个也贴上来,看看和上一个有什么不同?
理了理思路,重新做了一个测试。
做了两个 vector 和 两个 float *, 都长 100000
外循环 6000,里面先做随机数生成,模拟真实环境,避免数据的 cache.
内循环试了4种方法,
1. 直接调用 vector inner_product 247s
2. vector 循环点乘累加 237s
3. float * 循环点乘累加 204s
4. 空循环 100000 次 202s
不做内循环 200s
你昨天说的对,内循环本身占比是很小的,大头在其他处理。
另外可以看到, float * 循环点乘累加 并不差,比用vector 还更快。
至于我那个原始程序,还有一些疑问,见5楼,其他都不变仅仅是有无空的内循环就有很大不同,这是不对的,也许有一些其他缺陷我没有看到。(也许可以改成 while 试试)
(为什么下面我贴的b1 加 方括号里的 i , 显示出来却是 b1 ?方括号 i 消失了。 LOL . 改成jj 好了,原来 方括号里的 i 是斜体标志LOL)
std::vector < float > vec1(N);
std::vector < float > vec2(N);
float* b1 = new float;
float* b2 = new float;
for (int j = 0; j < 6000; j++)
{
std::generate(vec1.begin(), vec1.end(), []() {
return static_cast <float> (rand()) / (static_cast <float> (RAND_MAX / 23.23));;
});
std::generate(vec2.begin(), vec2.end(), []() {
return static_cast <float> (rand()) / (static_cast <float> (RAND_MAX / 24.31));;
});
for (size_t jj = 0; jj < vec1.size(); jj++)
{
b1 = vec1;
}
for (size_t jj = 0; jj < vec2.size(); jj++)
{
b2 = vec2;
}
//Method - 1N=100000 247s
//fresult = inner_product(vec1.begin(), vec1.end(), vec2.begin(), 0);
//Method - 2N=100000237s
/*
for (int jj = 0; jj < N ; jj++)
{
fresult += vec1 * vec2;
}
*/
//Method - 3N=100000 204s
/*
for (int jj = 0; jj < N; jj++)
{
fresult += b1 * b2;
}
*/
//Method - 4 202s
/*
for (int jj = 0; jj < N; jj++)
{
}
*/
//comment out all methods, N=100000202s
}
delete []b1;
delete []b2;
瞎猜一下啊。把第一个的那个j定义成register变量会不会有不同?
你第二个试验里面的j在循环里面又重新定义了啊,你确定真的跑了6000次?
机器猫 发表于 2022-9-27 00:15
瞎猜一下啊。把第一个的那个j定义成register变量会不会有不同?
你第二个试验里面的j在循环里面又重新定义 ...
内循环里面的 j 实际是 i, 为了规避爱坛显示的冲突帖子里临时改成了j, 现在是 jj 了。好累 、LOL
不和它较劲了,瞎耽误工夫,我已经转到 ubuntu, 也准备顺便试试 avx2 向量化。 雷达 发表于 2022-9-27 01:16
内循环里面的 j 实际是 i, 为了规避爱坛显示的冲突帖子里临时改成了j, 现在是 jj 了。好累 、LOL
不和它 ...
{:191:}
不过可以试试我说的register变量。前一个试验j是混在一堆其它变量里一起定义的,很有可能是在stack上,这样内存读写会更多,要是再碰上每次都需要加载cache就更慢了。
后面一个是在循环那里定义的,说不定编译器就把它优化成register变量了 一个无关问题,为什么爱坛的帖子里在我这里有好些奇怪的东东在里面,是防拷贝措施吗? 雷达 发表于 2022-9-24 23:54
void xcorr(comp* outcomp, comp* A, int lenA, comp* B, int lenB)
{
comp temp, xtimesy;
这个code里面如果Openmp没有被注释掉的话,那么temp那个变量应该是定义在循环里面,否则线程之间会存在争夺写入那个temp的风险。
内层for循环如果没有内部操作的话,编译时应该被优化掉了,和你完全注册掉整个循环是一回事。可能你的编译设置没有打开优化?
VS社区版没有问题,我工作用的就是社区版,设置正常的话不会比商业版差。以前游说头头用Intel Compiler,他说不想花钱,而且差不了多少,就一直用到现在。
页:
[1]
2