文章目录
- 光流法介绍
- OpenCV中`calcOpticalFlowPyrLK`函数
- 补充
- reference
欢迎访问个人网络日志🌹🌹知行空间🌹🌹
光流法介绍
光流描述了像素在图像中的运动,就像彗星☄划过天空中流动图像。同一个像素,随着时间的流逝,会在图像中运动,光流法就是追踪它的运动过程。
光流法根据追踪的像素数又可以分成稀疏光流法和稠密光流法。
- 稀疏光流法:计算部分像素的运动,稀疏法以
Lucas-Kanade
光流为代表,可以用来目标追踪中跟踪特征点的位置。 - 稠密光流法:计算所有像素的运动,稠密光流法以
Horn-Schunck
光流为代表。
在Lucas-Kanade
光流中,将相机的图像看成是随时间变化的,图像 I I I在 t t t时刻位置为 ( x , y ) (x,y) (x,y)处的像素,它的灰度值可以写成:
I ( x , y , t ) I(x,y,t) I(x,y,t)
通过这种方式将图像看成了关于位置和时间的函数。
考虑固定的空间点,在世界坐标系中的其位置是固定不变的,在 t t t时刻,其在图像中的像素坐标为 ( x , y ) (x,y) (x,y)。由于相机在运动,该空间点在 t + 1 t+1 t+1时刻在图像中的像素坐标将发生变动,如何估计在 t + 1 t+1 t+1时刻同个空间点的像素坐标呢?这正是光流法要解决的问题。
光流法的基本假设:同一个空间点的像素灰度值,在各个图像中的是固定不变的。
上述假设使用公式描述就是说,
t t t时刻在图像中位置 ( x , y ) (x,y) (x,y)处的像素 I ( x , y , t ) I(x,y,t) I(x,y,t)
在 t + d t t+dt t+dt时刻运动到了图像的 ( x + d x , y + d y ) (x+dx,y+dy) (x+dx,y+dy)处,
基于灰度假设有以下关系成立:
I ( x , y , t ) = I ( x + d x , y + d y , t + d t ) I(x,y,t) = I(x+dx,y+dy,t+dt) I(x,y,t)=I(x+dx,y+dy,t+dt)
灰度假设是一个很强的假设,实际中很可能不成立,由于物体的材质/相机成想的角度/光照条件发生变化的时候,同一个空间点的像素灰度值很有可能发生变化,因此光流法的结果不一定可靠。
在此假设成立的前提下,来看下如何计算像素的运动。
对上式右侧进行泰勒展开:
I ( x + d x , y + d y , t + d t ) ≈ I ( x , y , t ) + ∂ I ∂ x d x + ∂ I ∂ y d y + ∂ I ∂ t d t I(x+dx,y+dy,t+dt)\approx I(x,y,t)+\frac{\partial I}{\partial x}dx+\frac{\partial I}{\partial y}dy+\frac{\partial I}{\partial t}dt I(x+dx,y+dy,t+dt)≈I(x,y,t)+∂x∂Idx+∂y∂Idy+∂t∂Idt
因为假设了灰度不变,即 I ( x + d x , y + d y , t + d t ) = I ( x , y , t ) I(x+dx,y+dy,t+dt)=I(x,y,t) I(x+dx,y+dy,t+dt)=I(x,y,t),因此:
∂ I ∂ x d x + ∂ I ∂ y d y + ∂ I ∂ t d t = 0 \frac{\partial I}{\partial x}dx+\frac{\partial I}{\partial y}dy+\frac{\partial I}{\partial t}dt=0 ∂x∂Idx+∂y∂Idy+∂t∂Idt=0
对上式两边同时除以 d t dt dt得:
∂ I ∂ x d x d t + ∂ I ∂ y d y d t = − ∂ I ∂ t \frac{\partial I}{\partial x}\frac{dx}{dt}+\frac{\partial I}{\partial y}\frac{dy}{dt}=-\frac{\partial I}{\partial t} ∂x∂Idtdx+∂y∂Idtdy=−∂t∂I
d x d t \frac{dx}{dt} dtdx为像素在x
轴上的速度,记为 μ \mu μ
d y d t \frac{dy}{dt} dtdy为像素在y
轴上的速度,记为 v v v
∂ I ∂ x \frac{\partial I}{\partial x} ∂x∂I为图像在该点 x x x方向上的梯度,记为 I x I_x Ix
∂ I ∂ y \frac{\partial I}{\partial y} ∂y∂I为图像在该点 y y y方向上的梯度,记为 I y I_y Iy
图像灰度值对时间的变化量,记为 I t I_t It(?_?不是已经假设了图像灰度值不变的吗?_?)
写成矩阵形式有:
[ I x I y ] [ μ v ] = − I t \begin{bmatrix}I_x &I_y\end{bmatrix}\begin{bmatrix}\mu \\ v \end{bmatrix}=-I_t [IxIy][μv]=−It
上式中,
I x / I y I_x/I_y Ix/Iy是x/y
方向的图像梯度,可以从图像中直接求得。
I t I_t It是像素灰度值的变化量,也可从图像中直接求得。
μ / v \mu /v μ/v是像素在x,y
方向的运动速度,有了速度,就可以求距离了,因此 μ / v \mu/v μ/v就是我们期望计算的量。
而上式是二元一次方程,单纯的通过上式还无法求出 μ / v \mu/v μ/v。
在LK
光流中,引入了新的假设作为约束,即:某一个窗口内的像素具有相同的运动。
考虑一个大小为 w × w w\times w w×w的窗口,其包含 w 2 w^2 w2个像素。因为假设该窗口内像素具有相同的运动,因此可以得到 w 2 w^2 w2个方程,
[ I x I y ] k [ μ v ] = − I t k , k = 1 , 2 , 3.. w 2 \begin{bmatrix}I_x &I_y\end{bmatrix}_k\begin{bmatrix}\mu \\ v \end{bmatrix}=-I_{tk},k=1,2,3..w^2 [IxIy]k[μv]=−Itk,k=1,2,3..w2
记:
A = [ [ I x , I y ] 1 . . . [ I x , I y ] k ] , b = [ I t 1 . . . I t k ] A=\begin{bmatrix}[I_x,I_y]_1 \\... \\ [I_x,I_y]_k\end{bmatrix},b=\begin{bmatrix}I_{t1} \\...\\ I_{tk} \end{bmatrix} A= [Ix,Iy]1...[Ix,Iy]k ,b= It1...Itk
上面的方程就变成了,
A [ μ v ] = b A\begin{bmatrix} \mu \\ v \end{bmatrix}=b A[μv]=b
这个是关于 μ / v \mu/v μ/v的超定线性方程,可以使用最小二乘法求解。
[ μ v ] ∗ = − ( A T A ) − 1 A T b \begin{bmatrix} \mu \\ v \end{bmatrix}^*=-(A^TA)^{-1}A^Tb [μv]∗=−(ATA)−1ATb
OpenCV中calcOpticalFlowPyrLK
函数
该方法使用迭代Lucas-Kanade
算法计算稀疏特征点的光流,用来做特征点跟踪,该方法使用了金字塔,因此具有一定的尺度不变性。
void cv::calcOpticalFlowPyrLK( InputArray prevImg,InputArray nextImg,InputArray prevPts,InputOutputArray nextPts,OutputArray status,OutputArray err,Size winSize = Size(21, 21),int maxLevel = 3,TermCriteria criteria = TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, 0.01),int flags = 0,double minEigThreshold = 1e-4
);
prevImg
:上一帧图像nextImg
:下一帧图像prevPts
:上一帧图像中关键点nextPts
:根据光流计算的上一帧关键点在当前帧中的位置status
:关键点的跟踪状态,vector,1
表示OK
,0
表示LOST
err
:每个特征点的跟踪误差vector<float>
有len(status)==len(nextPts)==len(prePts)==len(err)
winSize
:在每层金字塔中,LK
算法中用来求解计算像素运动而假设具有相同运动的窗口大小。maxLevel
:金字塔的层数,层数多,尺度不变性能更好,运算时间更久criteria
:迭代搜索算法的终止条件,默认值表示在指定的最大迭代次数criteria.maxCount(30)之后或当搜索窗口移动小于criteria.epsilon(0.01)时终止迭代flags
:设置误差或者初始值参数,可选下面两个值:OPTFLOW_USE_INITIAL_FLOW
设置使用nextPts
中的值作为迭代的初始值,如果不设置为OPTFLOW_USE_INITIAL_FLOW
,初始状态就使用prevPts
中的值,直接从prevPts
复制到nextPts
,OpenCV
源码中对OPTFLOW_USE_INITIAL_FLOW
的使用方式为:if( flags & OPTFLOW_USE_INITIAL_FLOW )nextPt = nextPts[ptidx]*(float)(1./(1 << level)); elsenextPt = prevPt;
OPTFLOW_LK_GET_MIN_EIGENVALS
,flags
设置为这个值时使用光流运动方程2x2
的正规矩阵,也即空间梯度矩阵的最小特征值作为误差项。如果不设置成OPTFLOW_LK_GET_MIN_EIGENVALS
,将原始点和移动点周围像素的 L 1 L_1 L1距离除以窗口中的像素作为误差项。
minEigThreshold
:迭代LK
算法会计算光流运动方程2x2
的正规矩阵,也即空间梯度矩阵的最小特征值,然后再除以运动不变窗口中的像素总数作为一个误差评价标准,当其小于minEigThreshold
时,说明这个点已经追踪不到了,会将其从追踪特征点中移除,避免其对应相素运动的计算,可提升性能。
calcOpticalFlowPyrLK
通常和goodFeatureToTrack
方法一起使用,先使用GFTTDetector
提取特征点的位置,再使用calcOpticalFlowPyrLK
追踪其在连续视频流中的位置,避免了特征描述子的计算和特征点的匹配,可以极大的提升追踪的性能。
#include <memory>
#include <vector>
#include <cstdlib>#include <opencv2/features2d.hpp>
#include <opencv2/opencv.hpp>class TestOpticalFlowLK {public:typedef std::shared_ptr<TestOpticalFlowLK> Ptr;TestOpticalFlowLK();~TestOpticalFlowLK() = default;void track(std::vector<cv::String> &filenames) const;private:cv::Ptr<cv::GFTTDetector> gftt_ptr_;};TestOpticalFlowLK::TestOpticalFlowLK()
{gftt_ptr_ = cv::GFTTDetector::create(500, 0.2, 50);
}void TestOpticalFlowLK::track(std::vector<cv::String> &filenames) const
{assert(filenames.size() > 1);std::vector<cv::KeyPoint> kps1;std::vector<cv::Point2f>pts1, pts2;std::vector<cv::Scalar> colors;cv::Mat last_img = cv::imread(filenames[0], 0), cur_img;cv::Mat mask(last_img.size(), CV_8UC1, 255);gftt_ptr_->detect(last_img, kps1, mask);for(auto &kp : kps1) {int r = (int)(255. * rand() / (RAND_MAX + 1.f));int g = (int)(255. * rand() / (RAND_MAX + 1.f));int b = (int)(255. * rand() / (RAND_MAX + 1.f));std::cout << "r:" << r << "g:" << g << "b:" << b << std::endl;colors.emplace_back(r, g, b);pts1.push_back(kp.pt);pts2.push_back(kp.pt);}std::vector<uchar> status;// cv::Mat err;std::vector<float> err;cv::cvtColor(mask, mask, cv::COLOR_GRAY2BGR);cv::Mat frame;for (auto &filename : filenames){std::cout << "filename: " << filename << std::endl;cur_img = cv::imread(filename, 0);cv::calcOpticalFlowPyrLK(last_img,cur_img,pts1,pts2,status,err,cv::Size(13, 13),3,cv::TermCriteria(cv::TermCriteria::COUNT + cv::TermCriteria::EPS, 30, 0.01),cv::OPTFLOW_USE_INITIAL_FLOW);cv::cvtColor(cur_img, cur_img, cv::COLOR_GRAY2BGR);int cnt = 0;for(size_t i = 0; i < status.size(); i++) {std::cout << " " << err[i];if(!status[i]) continue;if(abs((pts1[i].x - pts2[i].x)) > 80 | abs((pts1[i].y - pts2[i].y)) > 80) continue;cv::line(mask, pts1[i], pts2[i], colors[i], 2);cv::circle(cur_img, pts2[i], 10, colors[i], 1);pts1[i].x = pts2[i].x;pts1[i].y = pts2[i].y;cnt += 1;}std::cout << std::endl;cv::addWeighted(mask, 0.5, cur_img, 0.5, -65, frame);cv::imshow("frame", frame);cv::waitKey(0);cv::cvtColor(cur_img, cur_img, cv::COLOR_BGR2GRAY);last_img = cur_img;cv::imwrite("frame.png", frame);}
}
上述代码的运行效果为:
完整演示代码和数据可以在以下仓库中找到:
https://gitee.com/lx_r/basic_cplusplus_examples
补充
因为假设了像素灰度值不变,还可以将其看成非线性优化问题,求解如下方程:
min Δ x , Δ y ∣ ∣ I 1 ( x , y ) − I 2 ( x + Δ x , y + Δ y ) ∣ ∣ 2 2 \begin{equation}\mathop{\min}\limits_{\Delta x,\Delta y}||I_1(x,y)-I_2(x+\Delta x,y+\Delta y)||_2^2\end{equation} Δx,Δymin∣∣I1(x,y)−I2(x+Δx,y+Δy)∣∣22
从零开始实现LK
光流在视觉SLAM十四讲中高博已经实现过了,更读详细信息可以参考slambook2
仓库。
https://github.com/gaoxiang12/slambook2
欢迎访问个人网络日志🌹🌹知行空间🌹🌹
reference
致谢:理论部分来自于《视觉SLAM十四讲(第二版)》P201-210.
- 1.https://zhuanlan.zhihu.com/p/384651830
- 2.https://docs.opencv.org/4.6.0/dc/d6b/group__video__track.html#ga473e4b886d0bcc6b65831eb88ed93323
- 3.Pyramidal implementation of the lucas kanade feature tracker