基于熵模型的高透明性自适应视频水印算法
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

Supported by the Science and Research Foundation of Guizhou Province of China under Grant No.20052109 (贵州省科研基金项目); the Governor Foundation of Guizhou Province of China under Grant No.200714 (贵州省省长专项资金); the Science and Technology Foundation of Guizhou Province of China under Grant No.20102257 (贵州省科学技术基金)


Adaptively Imperceptible Video Watermarking Algorithm Using Entropy Model
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    提出一种基于视频运动估计熵模型的自适应视频水印算法.该算法将人类视觉系统(human visual system,简称HVS)与视频分块运动估计(block motion estimation of video)相结合,获取视频序列帧中与运动相关的视频运动信息,然后利用熵模型对视频序列帧中的运动信息进行统计,从而得到一组基于视频序列帧间运动信息与人类视觉屏蔽特性相结合的非线性计算公式.利用该组计算公式,可以根据视频帧的内容自适应地计算每个方块的水印最大嵌入强度.实验结果表明,熵模型与非线性公式的引入较大幅度地提高了视频水印的透明性,并且能够有效地抵抗常见的针对视频水印的攻击,具有较高的安全性和鲁棒性.

    Abstract:

    An adaptively imperceptible video watermarking algorithm using entropy model is proposed. This algorithm works by first combining the Human Visual System (HVS) with block-matching techniques to obtain motion-related information. It then uses entropy model to statistically analyze the obtained information, and eventually establish a set of non-linear formulas based on HVS and motion information. Based on the contents of video frames, this set of non-linear formulas can adaptively calculate the maximum strength of every block. Experimental results show that using entropy model and non-linear formulas can significantly improve watermarking imperceptibility, effectively resist common attacks for video watermarking, and consequently achieve higher robustness.

    参考文献
    相似文献
    引证文献
引用本文

李智,陈孝威.基于熵模型的高透明性自适应视频水印算法.软件学报,2010,21(7):1692-1703

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2007-11-12
  • 最后修改日期:2008-12-29
  • 录用日期:
  • 在线发布日期:
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号