linux syscall耗时分析
每个cpu的core在执行指令(代码)的时候,身边有约30大悍将(寄存器)在辅做,比如最典型的EBP、ESP,当要发生运行空间切换(syscall、中断),这30个寄存器里的数据是不是都要存起来以待再切回来时恢复继续接着干;
几个问题:
什么时候存?
谁存?
存在哪?
什么时候恢复?
最主要这个过程耗时多久?本文syscal揭开耗时的面纱。
程序的大致要干的事;
对64MB 循环访问一把;
连续20次调用同一个syscall函数,并分别记录每次的耗时;
printf 20次的耗时;
循环以上三步骤;
main_syscall.c
#include <stdio.h>
#include <stdlib.h>
#include <ctype.h>
#include <unistd.h>
#include <sys/types.h>
#include “common.h”
#define LOOPCNT 20
#define BLOCKLEN 1000000
int g_aiData[BLOCKLEN][16];
int main(int argc, char ** argv)
{
int i;
long long t1, t2;
struct timespec stTP;
long long aldiff[LOOPCNT] = { 0 };
int iTemp = 0;
while(1)
{
for (i = 0; i < BLOCKLEN; i++) /* 64MB的内存先访问一把,把L1 L2 L3尽力刷一把 */
g_aiData[i][0] = i;
aldiff[0] = 0;
for (i = 0; i < LOOPCNT; i++)
{
t1 = rte_rdtsc(); /* 直接从rdtsc寄存器取,注:这个是x86_64上的 */
getnstime(&stTP); /* 这个函数会走syscall进内核 */
t2 = rte_rdtsc();
aldiff[i] = t2 - t1;
}
printf("----------------------------\n");
for (i = 0; i < LOOPCNT; i++)
{
printf("%d:%lld, ", i, aldiff[i]);
}
printf("\n");
}
return 0;
}
common.c
#include <sys/time.h>
#include <time.h>
#include <stdlib.h>
#include <stdio.h>
#include “common.h”
//typedef unsigned long long uint64_t;
long long getustime(void)
{
struct timeval tv;
long long ust;
gettimeofday(&tv, NULL);
ust = ((long)tv.tv_sec)*1000000;
ust += tv.tv_usec;
return ust;
}
void getnstime(struct timespec pstTP)
{
clock_gettime(CLOCK_MONOTONIC_RAW, pstTP); / 这里带RAW的是会syscall进内核的 */
return;
}
long diff_nstime(struct timespec *pstTP1, struct timespec *pstTP2)
{
return (pstTP2->tv_sec - pstTP1->tv_sec)*1000000000 + pstTP2->tv_nsec - pstTP1->tv_nsec;
}
inline long long rte_rdtsc(void)
{
union {
long long tsc_64;
struct {
unsigned int lo_32;
unsigned int hi_32;
};
} tsc;
asm volatile("rdtsc" :
"=a" (tsc.lo_32),
"=d" (tsc.hi_32));
return tsc.tsc_64;
}
common.h
#ifndef COMMON_H_
#define COMMON_H_
#define ERROR_SUCCESS 0
#define ERROR_FAIL 1
#define IN
#define OUT
#define INOUT
#define CACHE_LINE 64
//#define HASHSIZE 1*1024
typedef unsigned long ulong_t;
long long getustime(void);
void getnstime(struct timespec *pstTP);
long diff_nstime(struct timespec *pstTP1, struct timespec *pstTP2);
inline long long rte_rdtsc(void);
#endif
可以看出,每轮都是第1次耗时最长,约3000(计时单位是时钟周期)这个量级,后面接着的都是300,相差了近10倍;
为什么会是这样?
我们平常调的系统调用都是每轮第1次这个样子么?
原文地址:https://blog.csdn.net/m0_38133358/article/details/143740538
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!