OpenCV实现基于傅里叶变换的旋转文本校正

代码

        先给出代码,再详细解释一下过程:


过程
读取图片

        srcImg.empty()用来判断是否成功读进图像,如果srcImg中没有数据,在后面的步骤会产生内存错误。
        由于处理的是文本,彩色信息不会提供额外帮助,所以要用CV_LOAD_IMAGE_GRAYSCALE表明以灰度形式读进图像。
        假定读取的图像如下:

english-rotation

旋转原图像(可选)

        如果手头没有这样的倾斜图像,可以选择一张正放的文本图像,再把第12行#define DEGREE那行前的注释符号去掉。然后这部分代码就会把所给的图像旋转你规定的角度,再交给后面处理。

图像延扩

        OpenCV中的DFT采用的是快速算法,这种算法要求图像的尺寸是2、3和5的倍数时处理速度最快。所以需要用getOptimalDFTSize()找到最适合的尺寸,然后用copyMakeBorder()填充多余的部分。这里是让原图像和扩大的图像左上角对齐。填充的颜色如果是纯色对变换结果的影响不会很大,后面寻找倾斜线的过程又会完全忽略这一点影响。

DFT

        DFT要分别计算实部和虚部,把要处理的图像作为输入的实部、一个全零的图像作为输入的虚部。dft()输入和输出应该分别为单张图像,所以要先用merge()把实虚部图像合并,分别处于图像comImg的两个通道内。计算得到的实虚部仍然保存在comImg的两个通道内。

获得DFT图像

        一般都会用幅度图像来表示图像傅里叶的变换结果(傅里叶谱)。
        幅度的计算公式:magnitude = sqrt(Re(DFT)^2 + Im(DFT)^2)。
        由于幅度的变化范围很大,而一般图像亮度范围只有[0,255],容易造成一大片漆黑,只有几个点很亮。所以要用log函数把数值的范围缩小。

 

        dft()直接获得的结果中,低频部分位于四角,高频部分位于中间。习惯上会把图像做四等份,互相对调,使低频部分位于图像中心,也就是让频域原点位于中心。

 

fft-mag

        虽然用log()缩小了数据范围,但仍然不能保证数值都落在[0,255]之内,所以要先用normalize()规范化到[0,1]内,再用convertTo()把小数映射到[0,255]内的整数。结果保存在一幅单通道图像内:

 

english-mag

Hough直线检测
        从傅里叶谱可以明显地看到一条过中心点的倾斜直线。要想求出这个倾斜角,首先要在图像上找出这条直线。
        一个很方便的方法是采用霍夫(Hough)变换检测直线。

        Hough变换要求输入图像是二值的,所以要用threshold()把图像二值化。
        二值化的一种结果:

english-binary

        这一部分用HoughLines()检测图像中可能存在的直线,并把直线参数保存在向量组lines中,然后绘制出找到的直线。
        两个参数GRAY_THRESH和HOUGH_VOTE需要手动指定,不同的图像需要设置不同的参数,同一段文本旋转不同的角度也需要不同的参数。GRAY_THRESH越大,二值化的阈值就越高;HOUGH_VOTE越大,霍夫检测的投票数就越高(需要更多的共线点来确定一条直线)。说白了,如果发现二值化图像中直线附近有很多散点,就要适当提高GRAY_THRESH;如果发现从二值图像的一条直线上检测到了几条角度相差很小的直线,就需要适当提高HOUGH_VOTE。我们希望得到的结果时刚好检测到三条直线(有时只能检测到一条直线,后面会给出一个例子)。
        检测到的直线:

english-line

计算倾斜角
        上面得到了三个角度,一个是0度,一个是90度,另一个就是我们所需要的倾斜角。要把这个角找出来,而且要考虑误差。

        由于DFT的特点,只有输入图像是正方形时,检测到的角才是文本真正旋转的角度。但我们的输入图像不一定是正方形的,所以要根据图像的长宽比改变这个角度。
        还有一个需要注意的细节,虽然HoughLines()输出的倾斜角在[0,180)之间,但在[0,90]和(90,180)之间这个角的含义是不同的。请看图示:

 

hough-transformation

        当倾斜角大于90度时,(180-倾斜角)才是直线相对竖直方向的偏离角度。在OpenCV中,逆时针旋转,角度为正。要把图像转回去,这个角度就变成了(倾斜角-180)。
校正图像
        最后一步,当然是把图像转回去~

 

        先用getRotationMatrix2D()获得一个2*3的仿射变换矩阵,再把这个矩阵输入warpAffine(),做一个单纯旋转的仿射变换。warpAffine()的最后一个参数Scalar(255,255,255)是把由于旋转产生的空白用白色填充。
        校正的结果:

english-correction


一个检测单条直线的例子
原始图像:

single-english-rotation

傅里叶谱:

single-english-mag

        只有一条明显的直线。还好仅有的这条直线正是我们所需要的。
检测直线:

single-english-line

校正结果:

single-english-correction


对中文的效果
        我们来试试看这段程序对中文的校正效果。
输入图像:

chinese-rotation

傅里叶谱:

chinese-mag

        可以发现有许多条平行的亮线,其中过频域原点的那条长度最长,最容易检测出来。
检测直线:

chinese-line

校正结果:

chinese-correction

        虽然中文和英文在文字上有很大的不同,但字母(或者文字)的高度比较一致,使得行与行之间的分隔很明显。所以它们的频域特征是相似的。


对其他语言文字的效果
        我从IMDB.com摘取影片《教父》的英文介绍,然后用谷歌翻译成其他文字进行测试。
阿拉伯语

arabic-rotation

arabic-mag

arabic-line

一枚反例
老挝语:

lao-rotation

傅里叶谱:

lao-mag

一种二值化的结果:

lao-binary

直线检测:

lao-line

        这种文字的很多字母的上下方多了很多“笔画”(我不知道该怎么称呼那些小曲线),让行与行之间的分离变得不明显,使得频域特征变得不明显。
        虽然用肉眼可以看出傅里叶谱中存在一条倾斜的直线,但它的亮度太低,二值化过程很难排除噪声,导致直线检测会首先检出噪声产生的直线。这也是我的程序目前受限之处。需要增加一个过滤散点噪声的步骤以增加程序的适用范围。


参考:Discrete Fourier Transform — OpenCV 2.4.7.0 documentation

代码还可以在这里下载:https://github.com/johnhany/textRotCorrect


2014.1.3更新:

        由于文章内的图片右下角存在水印,若直接使用文章内的图片进行处理会使频域原点附近增加一团亮点,妨碍直线的检出。而且为了节省空间,图片是经过缩小的,使得字母的边缘变得模糊,频域特征也减弱。为此我提供了十幅没有水印的图片,供想要亲手实验的朋友使用。下载链接

共有28条评论

  1. 楼主,你好。我尝试用你的代码做倾斜矫正,但是对于同一张不同倾斜角度的图片,需要调整灰度化参数值和霍夫变换投票率才能达到比较好的效果。想请教一下有没有什么好的自适应方法。

  2. 你好,我想问问,为什么频谱图象进行中心转移之后,计算得到的倾角还是原来的那个角呢?不会变嘛?

  3. 您好,请问一下您使用的这个方法是有没有发过相应的文章,因为我的实验里用到了您的方法,论文的时候需要写这个方法的来源,所以想问一下您这个方法来自您自己发过的文章里的还是其他书本或期刊上的。谢谢您。

    1. 我的方法并不是完全原创,参考的资料也只有文章末尾的那个官方文档页面。那个页面的最后一节只是提到水平与倾斜的文本频谱图像是有差异的,也没有提及相关的文献,我也是自己用代码实验了一下,所以也没有发过相应的文章。某些杂志是允许把网址作为参考文献的,可以按照格式要求直接把这篇文章的链接写上。

  4. 您好,看了您的方法后,我用C语言试用了一下,但是不知道为什么在HoughLines后,呈现出来的图象是全黑的。为了方便,我贴出这部分的代码,不知道哪里出了问题,想向您请教一下。谢谢。

     

    CvMemStorage *storage  = cvCreateMemStorage(0);
     CvSeq* lines = NULL;
     float pi180 = (float)CV_PI/180;
     lines = cvHoughLines2(Image,storage,CV_HOUGH_STANDARD,1,pi180,HOUGH_VOTE,0,0); //Image是之前的二值化图象
    IplImage *lineImg;
     lineImg = cvCreateImage(cvGetSize(src),IPL_DEPTH_8U,1);
     int numLines = lines->total;
     int i=0;
     for(i=0;i<numLines;i++)
       {
         float *line = (float*) cvGetSeqElem(lines,i);
         float rho = line[0];
         float theta = line[1];
         CvPoint pt1,pt2;
         double a = cos(theta), b = sin(theta);
         double x0 = a*rho, y0 = b*rho;
         pt1.x = cvRound(x0+1000*(-b));
         pt1.y = cvRound(y0+1000*(a));
         pt2.x = cvRound(x0-1000*(-b));
         pt2.y = cvRound(y0-1000*(a));
         cvLine(lineImg,pt1,pt2,CV_RGB(255,0,0),3,8,0);
    }
        cvNamedWindow("line",0);
        cvShowImage("line",lineImg);
        cvWaitKey(10000);

        1. 您好,请问houghline之后呈现图像是黑的这个问题要怎么解决?我是一枚编程小白,最近在研究畸变矫正的相关知识,希望得到您的帮助

          1. 你指的是直线图像linImg全黑还是原图像magImg经过HoughLines()函数之后发生了变化?如果是前者的话,有可能由于参数的设置没有正确检出直线(numLines=0);后者是由于HoughLines()函数在计算的过程中改变了输入图像的值,所以最好先复制一下输入图像再输入该函数。

          2. 您好,我是指直线图像lineImg全黑,在此之前显示的图像是正确的,关闭图像后会出现如图所示的错误(在这次实验中所用的代码&图像都是您在上文中使用的内容,我没有更改QAQ由于在HOUGH线获取环节出错,之后的输出:“find three angles:”也没有显示出来。)

          3. 抱歉,图片显示错误,下面是调试时出错的代码段
              // MEMBER FUNCTIONS FOR _Container_base12
            inline void _Container_base12::_Orphan_all()
             { // orphan all iterators
             #if _ITERATOR_DEBUG_LEVEL == 2
             if (_Myproxy != 0)
              { // proxy allocated, drain it
              _Lockit _Lock(_LOCK_DEBUG);

              for (_Iterator_base12 **_Pnext = &_Myproxy->_Myfirstiter;
               *_Pnext != 0; *_Pnext = (*_Pnext)->_Mynextiter)
               (*_Pnext)->_Myproxy = 0;(在这一行出现了错误)
              _Myproxy->_Myfirstiter = 0;
              }
             #endif /* _ITERATOR_DEBUG_LEVEL == 2 */
             }

            其中局部变量的名称  值 类型 如下:

            _Pnext 0x0000000000473918 {0x3fc90fdb43700000 {_Myproxy=??? _Mynextiter=??? }} std::_Iterator_base12 * *

             _Lock {_Locktype=3 } std::_Lockit

             this 0x000000000026f278 {_Myproxy=0x0000000000473910 {_Mycont=0x0000000043f00000 {_Myproxy=??? } _Myfirstiter=…} } std::_Container_base12 *

            麻烦您了

  5. 作者您好,我想做的是一幅图像经过傅里叶变换之后,分别得到实部和虚部的数据,看了您的文章,深受启发,但是遇到个问题,下面三步算是对原有图像填充的尺寸,但是填充值后傅里叶变换得到的虚部和实部尺寸也已改变,怎么让实部虚部数据都还原到填充前的尺寸呢?非常感谢!

    int opWidth = getOptimalDFTSize(srcImg.rows);

    int opHeight = getOptimalDFTSize(srcImg.cols);

    copyMakeBorder(srcImg, padded, 0, opWidth-srcImg.rows, 0, opHeight-srcImg.cols, BORDER_CONST

    1. 原有图像的纯色填充对频域的影响应该是可以忽略的。况且这三个函数改变的是图像的空间域,经过FFT之后得到的频域图像,其尺寸也失去了与原来空间域尺寸比较的意义。虽然OpenCV库函数默认产生的频谱图像本身的大小与输入图像相同,但实际是对频域横纵坐标缩放的结果,其本质上仍然是沿坐标轴对称的正方形区域。如果直接对频谱图像切割,会造成原始图像频率上信息的丢失(高频或是低频,取决于是否将四象限对调)。

      关于频域对应空间域的关系,可以参考这个问题的第一个答案,个人觉得解释得很精湛:http://dsp.stackexchange.com/questions/1637/what-does-frequency-domain-denote-in-case-of-images

      1. 感谢您的详细解答,可能我太笨啦,有个问题还是想不太明白,希望您解惑。问题描述:其实我是在把MATLAB代码变成c++时遇到的提取图像经过fft变换后的实部和虚部数据这个问题,下面是MATLAB代码:

        //tilted_array2,array1是灰度图像

        //PCE是一个计算相关度的函数

        TA = fft2(tilted_array2);           clear tilted_array2
        FA = fft2(array1);                  clear array1
        FF = FA .* TA;                      clear FA TA
        ret = real(ifft2(FF));

        detection = PCE(ret)

        可以看到ret得到的是FF傅里叶逆变换之后的实部数据,然后在PCE函数中得到相关度的数值。

        我把上面的MATLAB代码变成如下c++代码(调用了opencv库)(菜鸟代码可能写的乱七八糟,见谅~):

        Mat paddedTA;
          int mTA = getOptimalDFTSize(tilted_array2.rows);  
          int nTA = getOptimalDFTSize(tilted_array2.cols);
          copyMakeBorder(tilted_array2, paddedTA,0,mTA-tilted_array2.rows,0,nTA-tilted_array2.cols, BORDER_CONSTANT, Scalar::all(0));

        Mat planesTA[] ={Mat_<float(paddedTA),Mat::zeros(paddedTA.size(), CV_32F) };
            Mat TA;
            merge(planesTA, 2, TA);
            dft(TA, TA);
            split(TA,planesTA); 

        Mat paddedFA;
            int mFA = getOptimalDFTSize(array1.rows); 
            int nFA = getOptimalDFTSize(array1.cols);
            copyMakeBorder(array1, paddedFA, 0, mFA-array1.rows, 0, nFA-array1.cols, BORDER_CONSTANT, Scalar::all(0));
            Mat planesFA[] = {Mat_<float>(paddedFA), Mat::zeros(paddedFA.size(), CV_32F) };
            Mat FA;
            merge(planesFA, 2, FA);
            dft(FA, FA);
            split(FA, planesFA);

         //下面实现MATLAB中的FF = FA .* TA;   

        Mat FF1,FF2,FF3,FF4;
            FF1=planesFA[0].mul(planesTA[0]);
            FF2=planesFA[1].mul(planesTA[1]);
            FF3=planesFA[0].mul(planesTA[1]);
            FF4=planesFA[1].mul(planesTA[0]);

            Mat planesFF[] = {Mat::zeros(paddedTA.size(), CV_32F), Mat::zeros(paddedTA.size(), CV_32F) };
            subtract(FF1,FF2,planesFF[0]);
            add(FF3,FF4,planesFF[1]);
            Mat FF;
            merge(planesFF, 2, FF);
            
            idft(FF,FF,cv::DFT_SCALE | cv::DFT_REAL_OUTPUT );
            split(FF,planesFF);

            Mat rel=planesFF[0];
            PCE(rel,detection);

        因为getOptimalDFTSize()函数是把输入图像的尺寸调节成2^n或2,3,5乘积这种形式,当我的输入图像像素满足是2^n或2,3,5乘积这种形式时,程序不会对原图像填充补0,这时opencv得到的planesTA、planesFA的实部和虚部数据都与MATLAB中TA、FA值一样(行列数也都一样),PCE函数得到的最后结果detection也是一样的。但是,如果输入图像不满足像素是2^n或2,3,5乘积这种形式时,程序会对输入图像进行填充,这样得到的

        planesTA、planesFA的行列都是填充之后的行列,与输入图像行列不同,这时

        planesTA、planesFA的实部和虚部数据都与MATLAB中TA、FA对应数据肯定不同,但我想着可能对最后的PCE函数结果没有影响,结果却是这种情况下opencv的PCE结果与MATLAB也是不同的。

        所以我想请教您的是,输入图像像素不满足条件时最后PCE结果不同的这个问题该怎么解决?不胜感谢!

        1. 为方便您的理解我贴出函数PCE的MATLAB代码:

          shift_range = [0,0];

          Cinrange = rel(end-shift_range(1):end,end-shift_range(2):end);
          [max_cc, imax] = max(Cinrange(:));
          [ypeak, xpeak] = ind2sub(size(Cinrange),imax(1));
          peakheight = Cinrange(ypeak,xpeak);

          C_without_peak = RemoveNeighborhood(C,[ypeak, xpeak],squaresize);//RemoveNeighborhood是一个函数,下面有代码
          correl = rel(end,end);        clear rel
          PCE_energy = mean(C_without_peak.*C_without_peak);
          detection = peakheight.^2/PCE_energy * sign(peakheight);

           

          //RemoveNeighborhood函数

          function Y = RemoveNeighborhood(X,x,ssize)
          % Remove a 2-D neighborhood around x=[x1,x2] from matrix X and output a 1-D vector Y
          % ssize     square neighborhood has size (ssize x ssize) square

          [M,N] = size(X);
          radius = (ssize-1)/2;
          X = circshift(X,[radius-x(1)+1,radius-x(2)+1]);
          Y = X(ssize+1:end,1:ssize);  
          Y = Y(:);
          Y = [Y;X(M*ssize+1:end)'];

          非常感谢!

           

           

           

    1. 象限换位的目的就是把频域原点移到图像中心,所以移位后低频是位于中心区域的。频谱图像中心的小亮点F(0,0)表示图像的平均灰度,也能说明这一点。

      感兴趣的话,可以试着把一幅图像作高斯模糊,再比较一下前后的频谱图像,坐标轴附近的点亮度是会增加的。

  6. 试了一下 英文很好用,中文就不行了,葡萄牙语也不行,西班牙语还能凑合着用。总之,非常感谢博主分享。另有什么改善的方法么?

发表评论

电子邮件地址不会被公开。 必填项已用*标注