技术领域
[0001] 本发明涉及图像/视频编码技术领域。技术背景
[0002] 传统的图像/视频编码技术主要针对空间域冗余、时间域冗余以及统计冗余进行压缩编码,但很少考虑到人眼视觉系统特性和心理效应,因此大量视觉冗余数据被编码并传输,为了进一步提高编码的效率,研究人员开始了致力于去除视觉冗余的研究。目前一个表征视觉冗余的有效方法就是基于心理学和生理学的最小可察觉失真模型,简称JND模型,也可称为恰可察觉失真模型,即人眼不能感知的变化,由于人眼的各种屏蔽效应,人眼只能觉察超过某一阈值的噪声,该阈值就是人眼的恰可觉察失真,代表着图像中的视觉冗余度。JND模型常用来指导图像或视频的感知编码和处理,如预处理、自适应量化、码流控制、运动估计等。
[0003] 现有的可察觉失真(JND)模型可以大致分为两类:第一类为像素域JND模型,其基本原理大多是通过表征亮度自适应效应和纹理掩蔽效应来建模,例如文献1(参见X.Yang,W.Lin,Z.Lu,E.P.Ong,and S.Yao,“Just-noticeable-distortion profile with nonlinear additivity model for perceptual masking color images”,LEEE Trans.CircuitsSyst.Video Technol.,vol.15,no.6,pp742-752,Jun.2005)中提出了基于空域的彩色图像JND模型,但是由于其无法很好的将对比敏感度函数(Contrast Sensitive Function,CSF)整合进来,因此这类模型没有办法得到精确的JND值,常作为计算JND阈值的快速方法来使用。
[0004] 第二类JND模型为子带JND模型,这类模型是在变换域中进行计算,例如DCT域、小波域、CONTOURLET域等。由于大多数图像/视频编码标准都是基于DCT域(如JPEG、H.261/3/4、MPEG-1/2/4),因此基于DCT域的JND模型得到了很多研究者的关注,例如文献2(参见Z.Wei and K.N.Ngan,“Spatial just noticeable distortion profile for image in DCT domain,”In Proc.IEEE Int.Conf.Multimeda and Expo,pp.925-928,2008.)中结合图像的亮度自适应特性,空间对比度效应以及基于块分类的对比度掩盖效应,但是该模型并没有考虑人眼的视觉注意力机制对JND模型的影响,因此计算精度有待进一步提高。
具体实施方式
[0030] 下面以具体实例结合附图对本发明作进一步说明:
[0031] 本发明提供的实例采用MATLAB7作为仿真实验平台,以512×512的bmp灰度图像Airplane作为选定的测试图像,下面结合每个步骤详细描述本实例:
[0032] 步骤(1),选定512×512的bmp灰度图像作为输入测试的图像,将其进行8×8的DCT变换,将其由空域变换到DCT域;
[0033] 步骤(2),在DCT域,根据空间对比度基本阈值和亮度自适应调制因子的乘积计算获得可觉察失真JND值,其计算公式如下:
[0034] TJND(n,i,j)=TBasic(n,i,j)×Flum(n) (1)
[0035] 其中,TBasic(n,i,j)代表空间对比度敏感阈值,Flum(n)代表亮度自适应调整因子,n为DCT块的索引, W为图像的宽度,H为图像的高度,i,j为DCT块中系数的索引,1≤i≤64,1≤j≤64。一般的DCT块都为8x8大小,那么该测试图像就分为个DCT块,n取1到4096之间数值,i、j取1到64之间数值。
[0036] 上式(1)中的基本阈值TBasic(n,i,j)采用如下方法计算获得:
[0037] DCT子带的频率可以表示如下:
[0038]
[0039] 其中θx=θy=2·arctan(γ/2·1)是一个像素的水平和垂直视角,1是图像的观察距离,在该发明中,1为图像宽度的3倍,γ代表显示器上一个像素显示的宽度或者长度。由上所述,DCT块的空间对比度敏感阈值为:
[0040]
[0041] 式(3)中:s代表空间集合效应,在该发明中取 代表倾斜效应,其中r=0.6,Φi、Φj是DCT归一化系数, 代表相应DCT系数的方向角:
[0042]
[0043]
[0044] 参数a=1.33,b=0.11,c=0.005。
[0045] 上式(1)中的亮度自适应调制因子Flum(n)采用如下方法计算获得:
[0046]
[0047] 式(6)中,I代表每个8×8块大的平均亮度值。
[0048] 然后按照公式(1)计算得到传统的JND阈值。
[0049] 步骤(3),对图像进行块分类,计算基于块分类的对比度掩蔽因子Fcontrast(n,i,j)。
[0050] 将图像中的所有8×8大小DCT块进行分类,分成纹理、平坦和边缘三类(如图2所示);用canny算子来检测计算图像中的边缘信息,通过计算每个8×8块中的边缘像素密度ρedge来对块进行分类,具体过程如下:
[0051]
[0052] 其中,ρedge表示每个8X8块中通过canny算子得到的边缘像素的总数;N为DCT块大小,在本实例中取N=8;
[0053] 块的分类方法为:
[0054]
[0055] 由8×8的DCT块类型可知,块间掩蔽效应因子为:
[0056]
[0057] 又考虑到相邻子带间的掩盖效应,传统的基于块分类的对比度掩盖函数表达式如下:
[0058]
[0059] 步骤(4),对图像进行显著性检测,得到图像的显著图。
[0060] 在本实例中利用谱残差方法对图像进行显著性检测:
[0061]
[0062] 其中,P(f)和R(f)分别代表图像傅里叶变换之后的相位谱和幅度谱, 代表傅里叶逆变换,g(σ)代表高斯滤波器,σ是滤波器窗口大小,在本实例中,σ取图像宽度的0.32倍。S(x)代表每个图像的显著图。
[0063] 步骤(5),若选择方案一,则参照(a)描述,若选择方案二,则参照(b)描述:
[0064] (a)基于图像的显著图,计算图像的显著对比掩蔽因子:
[0065] Fvs(n,i,j)=μ·Smax-S(n,i,j)) (12)
[0066] 图像的显著度值越大说明人眼对该点的关注度越高,其中Smax代表显著图归一化之后的最大值,S(n,i,j)代表显著图归一化之后每个块中每个点对应位置(i,j)的显著度。μ代表调制因子,在本实例中取μ=1.0。
[0067] (b)基于图像的显著图,用每个块的显著度平均值代表整个块的显著度。并基于每个块的显著度,计算图像的显著度对比掩蔽因子:
[0068] FVs(n)=μ·(Smax(n)-S(n)) (13)
[0069] 其中,Smax(n)代表所有块的显著度中的最大值,S(n)代表每个块的显著度。μ代表调制因子,在本实例中取μ=1.0。Fvs(n)代表每个块的显著度掩蔽因子。
[0070] 步骤(6),从块结构角度和显著度角度两方面综合出发,对图像进行更加细致的分类。
[0071] 首先按照图像的显著度将图像分为显著区和非显著区域(如图3所示):
[0072]
[0073] 其中T代表分割阈值,在本实例中T是显著图的均值。
[0074] 结合显著度分割结果和块分类结果,对图像进行更细致的分类,如图4所示。
[0075] 步骤(7),针对不同的块结构,设置不同的显著度调整因子和块结构调整因子,从而计算综合的调制函数:
[0076]
[0077] 式(15)中,若采用方案一,则Fvs代表使用式(12)计算所得的显著度掩蔽因子,若采用方案二,则Fvs代表使用式(13)计算所得的显著度掩蔽因子。Fcontrast(n,i,j)代表式(10)计算得到的基于块结构的对比度掩蔽函数。显著度调制因子α和块结构调整因子β的取值基于不同的块结构:
[0078]
[0079] 步骤(8),基于步骤(2)计算得到的JND基本阈值,利用步骤(7)计算得到综合的调制函数,对JND基本阈值进行调制:
[0080]
[0081] 综合以上所有步骤计算得到图像的JND阈值,该阈值综合考虑了空间对比度效应,亮度自适应效应,块分类对比度掩蔽效应以及视觉注意力机制,所以该阈值和人眼的视觉系统更加吻合,更加精确。
[0082] 本发明的创新点:
[0083] 提出了将图像显著度应用到改进图像恰可察觉失真模型的思路。
[0084] 提出了基于图像显著度的视觉注意力掩蔽因子,该因子描述了人眼对图像的关注程度。
[0085] 综合考虑图像的显著性特征和块结构特征,对图像进行更加准确和细致的分类。
[0086] 基于不同块的显著特性和块结构特性综合考虑,构造了综合的调制函数对传统的JND模型进行调制,计算得到更加吻合视觉系统的JND阈值。