请考虑以下代码:
#include <iostream>
#include <vector>
#include <functional>
#include <map>
#include <atomic>
#include <memory>
#include <chrono>
#include <thread>
#include <boost/asio.hpp>
#include <boost/thread.hpp>
#include <boost/asio/high_resolution_timer.hpp>
static const uint32_t FREQUENCY = 5000; // Hz
static const uint32_t MKSEC_IN_SEC = 1000000;
std::chrono::microseconds timeout(MKSEC_IN_SEC / FREQUENCY);
boost::asio::io_service ioservice;
boost::asio::high_resolution_timer timer(ioservice);
static std::chrono::system_clock::time_point lastCallTime = std::chrono::high_resolution_clock::now();
static uint64_t deviationSum = 0;
static uint64_t deviationMin = 100000000;
static uint64_t deviationMax = 0;
static uint32_t counter = 0;
void timerCallback(const boost::system::error_code &err) {
auto actualTimeout = std::chrono::high_resolution_clock::now() - lastCallTime;
std::chrono::microseconds actualTimeoutMkSec = std::chrono::duration_cast<std::chrono::microseconds>(actualTimeout);
long timeoutDeviation = actualTimeoutMkSec.count() - timeout.count();
deviationSum += abs(timeoutDeviation);
if(abs(timeoutDeviation) > deviationMax) {
deviationMax = abs(timeoutDeviation);
} else if(abs(timeoutDeviation) < deviationMin) {
deviationMin = abs(timeoutDeviation);
}
++counter;
//std::cout << "Actual timeout: " << actualTimeoutMkSec.count() << "\t\tDeviation: " << timeoutDeviation << "\t\tCounter: " << counter << std::endl;
timer.expires_from_now(timeout);
timer.async_wait(timerCallback);
lastCallTime = std::chrono::high_resolution_clock::now();
}
using namespace std::chrono_literals;
int main() {
std::cout << "Frequency: " << FREQUENCY << " Hz" << std::endl;
std::cout << "Callback should be called each: " << timeout.count() << " mkSec" << std::endl;
std::cout << std::endl;
ioservice.reset();
timer.expires_from_now(timeout);
timer.async_wait(timerCallback);
lastCallTime = std::chrono::high_resolution_clock::now();
auto thread = new std::thread([&] { ioservice.run(); });
std::this_thread::sleep_for(1s);
std::cout << std::endl << "Messages posted: " << counter << std::endl;
std::cout << "Frequency deviation: " << FREQUENCY - counter << std::endl;
std::cout << "Min timeout deviation: " << deviationMin << std::endl;
std::cout << "Max timeout deviation: " << deviationMax << std::endl;
std::cout << "Avg timeout deviation: " << deviationSum / counter << std::endl;
return 0;
}
它运行timer以调用timerCallback(。。)以特定的频率周期性地。在本例中,必须每秒调用5000次回调。一个人可以玩频率,并看到实际(测量)的呼叫频率不同于期望的频率。事实上,频率越高,偏差就越大。我用不同的频率做了一些测量,下面是总结:https://docs.google.com/spreadsheets/d/1sqtg2slnv-9vpdgs0rd4ykrnydk1ijkrjvz7bbmsg24/edit?usp=sharing
当期望频率为10000Hz时,系统漏报率为10%(~1000)。当期望频率为100000Hz时,系统漏报率为40%(~40000)。
问题:在Linux\C++环境中有可能实现更好的精确度吗?怎么做?我需要它的工作没有显著的偏差与频率500000Hz
附注。我的第一个想法是它是timerCallback的主体(。。)方法本身会导致延迟。我量过了。它的执行时间不到1微秒。因此它不会影响进程。
我自己在这个问题上没有经验,但是我猜(正如参考文献所解释的)操作系统的调度程序以某种方式干扰了您的回调。因此,您可以尝试使用实时调度器并尝试将任务的优先级更高。
希望这能给你一个找到答案的方向。
排定程序:http://gumstix.8.x6.nabble.com/high-resolution-periodic-task-on-overo-td4968642.html
优先级:https://linux.die.net/man/3/setpriority
如果你需要每两微秒间隔完成一次呼叫,你最好附加到绝对时间位置,而不要考虑每个请求将需要的时间。。。但您会遇到这样一个问题,即在每个时隙所需的处理可能比执行所需的时间更需要cpu。
如果您有一个多核cpu,我会在每个内核之间划分时间槽(在多线程方法中),以使每个内核的时间槽更长,因此假设您在四核cpu中有您的需求,那么您可以允许每个线程每8usec执行1个cal,这可能更经济。在这种情况下,您使用绝对计时器(一个绝对计时器是一个等待到挂钟发出特定的绝对时间的计时器,而不是从调用它的时间开始的延迟),并将它们偏移等于2usec延迟的线程数的量,在这种情况下(4个核心),您将在时间T启动线程{1},在时间T+2usec启动线程{2},在时间T+4usec启动线程{3},以及在时间T+2*N-1)usec启动线程{n}。然后,每个线程将在时间oldT+2usec再次启动自己,而不是执行某种
在这种方法中,外部总线可能是一个瓶颈,因此即使您让它工作,可能最好用NTP同步几台机器(这可以在usec级别上完成,以实际GBit链路的速度),并使用并行运行的不同处理器。由于你没有描述任何你必须如此密集地重复的过程,我无法提供更多的帮助这个问题。