找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

查看: 49|回复: 0

揭示深度伪造检测 作者:David Bradley, Inderscience

[复制链接]

2883

主题

0

回帖

5766

积分

管理员

积分
5766
发表于 2024-7-16 08:24:19 | 显示全部楼层 |阅读模式 IP归属地:亚太地区
  所谓的深度伪造技术(deepfake)的出现,通常涉及生成虚假的图像、视频和声音,这些图像、视频和声音看起来如此真实,甚至让专业观众和听众都感到困惑,它已经到了可以影响我们生活的重要方面,例如政治、金融等。
  在这个新的欺骗时代,复杂的图像和视频伪造成为头条新闻。这些深度伪造通常很快就会被识别出来,但有时一旦深度伪造被发现,损害可能已经造成,尤其是考虑到视频和其他数字媒体在社交媒体上传播的速度。
  改变或完全合成人脸的数字操作已经变得令人震惊地令人信服,助长了虚假新闻并削弱了公众对数字媒体的信任。《国际自主和自适应通信系统杂志》发表的研究描述了一种新方法,该方法可以发现图像中的照明不一致,从而可以识别视频或照片是否为深度伪造。
  据南京信息工程大学的顾飞、戴云姝、费建伟和陈贤一介绍,深度伪造主要可分为四种类型:身份互换、表情互换、属性操纵和整个面部合成。每种类型都带来不同的威胁和风险。
  身份互换(将一个人的脸替换为另一个人的脸)和表情互换(将面部表情从一个人转移到另一个人)尤其令人担忧。深度伪造可能会严重损害被深度伪造的个人或团体的声誉和形象。
  深度伪造检测的常用方法是采用二元分类方法。但是,如果视频或图像经过高度压缩或质量较差,传统方法可能会失败。压缩和质量可能会混淆面部特征并降低对深度伪造检测的信任度。
  即使是专业的深度伪造者,在让图像或视频中改变和未改变区域的光照完美匹配时也会犯错。顾和他的同事们在他们的检测方法中重点关注的就是这个问题,该方法使用神经网络来发现光照差异。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|NewCET |网站地图

GMT+8, 2024-11-23 03:11 , Processed in 0.025479 second(s), 20 queries .

Powered by NewCET 1.0

Copyright © 2012-2024, NewCET.

快速回复 返回顶部 返回列表