您的位置:山东大学 -> 科技期刊社 -> 《山东大学学报(工学版)》

山东大学学报(工学版) ›› 2013, Vol. 43 ›› Issue (5): 24-30.

• 机器学习与数据挖掘 • 上一篇    下一篇

基于人脸色温的拼接图像篡改检测

杨健梅1,黄添强1,2*,江伟坚1   

  1. 1.福建师范大学数学与计算机科学学院, 福建 福州 350007;
    2. 网络安全与密码技术福建省高校重点实验室(福建师范大学
  • 收稿日期:2013-05-14 出版日期:2013-10-20 发布日期:2013-05-14
  • 通讯作者: 黄添强(1971- ),男,福建仙游人,博士,教授,主要研究方向为机器学习、数据挖掘、多媒体篡改检测.E-mail:fjhtq@fjnu.edu.cn
  • 作者简介:杨健梅(1989- ),女,福建南平人,硕士研究生,主要研究方向为数据挖掘、多媒体篡改检测.Email:jmyang0811@163.com
  • 基金资助:

    国家自然科学基金资助项目(61070062);福建省高校产学合作科技重大资助项目(2012H6006);福建省高校服务海西建设重点资助项目(2008HX20094145);福建省高等学校新世纪优秀人才支持计划资助项目(JAI1038);福建省科学厅K类基金资助项目 (JK2011007);福建省教育厅A类基金资助项目(JA10064)

Splicing image tamper detection based on human face color temperature

YANG Jian-mei1, HUANG Tian-qiang1,2*, JIANG Wei-jian1   

  1. 1.School of Mathematics and Computer Science, Fujian Normal University, Fuzhou 350007, China;
    2. Key Laboratory of Network Security and Cryptography(Fujian Normal University), Fuzhou 350007, China
  • Received:2013-05-14 Online:2013-10-20 Published:2013-05-14

摘要:

针对人脸拼接篡改图像,提出一种判断人脸合成的图像篡改检测方法。以人脸作为检测目标,利用目标检测技术,对图像中的人脸进行定位后估计人脸色温,然后估计参考色温,计算人脸色温与参考色温的色温距离,找出色温异常的检测目标视为篡改目标,并用该算法定位出篡改目标的精确位置。实验结果验证了该算法具有的有效性。

关键词: 人脸色温, 人脸拼接, 色温距离, 目标检测, 参考色温, 图像篡改检测

Abstract:

 Focusing on the face stitching tampering image, a splicing image tamper detection method based on human face color temperature was proposed. Using the technology of target detection, the method in question pinpointed the faces in the image, and then estimated the color temperature of all those faces and the reference color temperature. After calculating the discrepancy between human face color temperature and reference color temperature, the method could find out the detection target with abnormal color temperature discrepancy as the tampering target, and then could locate the precise position of the tampering target. The empirical study showed that the algorithm was effective.

Key words: reference color temperature;color temperature discrepancy, image tamper detection, human face color temperature, face stitching, target detection

中图分类号: 

  • TP391
[1] 索大翔,李波. 细粒度特征增强与尺寸匹配的光伏缺陷检测[J]. 山东大学学报 (工学版), 2025, 55(4): 9-17.
[2] 董明书,陈俐企,马川义,张珠皓,孙仁娟,管延华,庄培芝. 沥青路面内部裂缝雷达图像智能判识算法研究[J]. 山东大学学报 (工学版), 2025, 55(3): 72-79.
[3] 聂秀山,赵润虎,宁阳,刘新锋. 开放词汇目标检测方法综述[J]. 山东大学学报 (工学版), 2025, 55(1): 1-14.
[4] 张曼,孙凯军,李翔,孙纪舟. 融合FasterNet和RepVGG的安全设备佩戴检测方法[J]. 山东大学学报 (工学版), 2024, 54(6): 19-28.
[5] 陈晓燕,王川,齐明杰,张宁,林晓龙,霍延强,刘世杰,田源. 采用雷视融合方法的灌溉风险区异物入侵风险预警[J]. 山东大学学报 (工学版), 2024, 54(3): 115-121.
[6] 索大翔,李波. 基于Gromov-Wasserstein最优传输的输电线路小目标检测方法[J]. 山东大学学报 (工学版), 2024, 54(3): 22-29.
[7] 于畅,伍星,邓秋菊. 基于深度学习的多视角螺钉缺失智能检测算法[J]. 山东大学学报 (工学版), 2023, 53(4): 104-112.
[8] 余明骏,刁红军,凌兴宏. 基于轨迹掩膜的在线多目标跟踪方法[J]. 山东大学学报 (工学版), 2023, 53(2): 61-69.
[9] 刘丁菠,刘学艳,于东然,杨博,李伟. 面向小样本目标检测任务的自适应特征重构算法[J]. 山东大学学报 (工学版), 2022, 52(6): 115-122.
[10] 孟令灿,聂秀山,张雪. 基于遮挡目标去除的公交车拥挤度分类算法[J]. 山东大学学报 (工学版), 2022, 52(4): 83-88.
[11] 万鹏. 基于F-PointNet的3D点云数据目标检测[J]. 山东大学学报 (工学版), 2019, 49(5): 98-104.
[12] 惠开发,成科扬,詹永照. 基于改进ViBe算法的视频浓缩[J]. 山东大学学报(工学版), 2017, 47(3): 43-48.
[13] 刘英霞,王希常,唐晓丽,常发亮. 基于小波域特征和贝叶斯估计的目标检测算法[J]. 山东大学学报(工学版), 2017, 47(2): 63-70.
[14] 王秀芬,王汇源,王松. 基于背景差分法和显著性图的海底目标检测方法[J]. 山东大学学报(工学版), 2011, 41(1): 12-16.
[15] 乔伟1,王汇源1,2,吴晓娟1,刘鹏威1. 基于混沌动力学模型的群体目标检测与分类[J]. 山东大学学报(工学版), 2010, 40(2): 19-23.
Viewed
Full text


Abstract

Cited

  Shared   
  Discussed   
[1] 王素玉,艾兴,赵军,李作丽,刘增文 . 高速立铣3Cr2Mo模具钢切削力建模及预测[J]. 山东大学学报(工学版), 2006, 36(1): 1 -5 .
[2] 李 侃 . 嵌入式相贯线焊接控制系统开发与实现[J]. 山东大学学报(工学版), 2008, 38(4): 37 -41 .
[3] 孔祥臻,刘延俊,王勇,赵秀华 . 气动比例阀的死区补偿与仿真[J]. 山东大学学报(工学版), 2006, 36(1): 99 -102 .
[4] 来翔 . 用胞映射方法讨论一类MKdV方程[J]. 山东大学学报(工学版), 2006, 36(1): 87 -92 .
[5] 余嘉元1 , 田金亭1 , 朱强忠2 . 计算智能在心理学中的应用[J]. 山东大学学报(工学版), 2009, 39(1): 1 -5 .
[6] 陈瑞,李红伟,田靖. 磁极数对径向磁轴承承载力的影响[J]. 山东大学学报(工学版), 2018, 48(2): 81 -85 .
[7] 王波,王宁生 . 机电装配体拆卸序列的自动生成及组合优化[J]. 山东大学学报(工学版), 2006, 36(2): 52 -57 .
[8] 李可,刘常春,李同磊 . 一种改进的最大互信息医学图像配准算法[J]. 山东大学学报(工学版), 2006, 36(2): 107 -110 .
[9] 季涛,高旭,孙同景,薛永端,徐丙垠 . 铁路10 kV自闭/贯通线路故障行波特征分析[J]. 山东大学学报(工学版), 2006, 36(2): 111 -116 .
[10] 浦剑1 ,张军平1 ,黄华2 . 超分辨率算法研究综述[J]. 山东大学学报(工学版), 2009, 39(1): 27 -32 .