担心被AI换脸技术祸害?Deepfake打假队正在赶来

发布日期:2019-08-14 01:27   来源:未知   阅读:

  没有人想在互联网上看到自己的面孔说着自己没说过的线;许多针对个人的伤害,也因为影响不够巨大而投诉无门。

  他告诉硅星人,他的合作对象有警察、记者、保险公司等,通过机器学习寻找伪造视频的破绽,用区块链记录信息等技术来辅助鉴别。

  一旦传播图像的信息与原始图片不符,就容易判断线;这些产品希望帮助记者、做传奇一条龙是违法的?为什么还有那么人要做呢,媒体公司、政治竞选团体、执法机构(例如FBI、NSA),保险公司(面临虚假事故照片的保险索赔问题)和大公司(例如Facebook、Twitter、Redditt、PornHub),在其平台上阻止虚假的视频、音频、照片传播。

  面对真伪难辨的影像资料,记者不知道能否发布,保险公司不知是应该理赔还是报警诈骗,警察收集证据后,也需要专业工具去鉴定图片和视频的线;目前流传的假视频大多是“浅度造假”,但因为数量多,造成了无数困扰。

  相机应用捕获设备的传感器数据,在传输之前加密照片或视频,运行20多个图像取证测试,并在几秒钟内,将图像的加密签名印在公共区块链上,使得信息不可被篡改。

  任何二次传播的多媒体材料,都可以与区块链上的原始信息对比,辨别线;在Deepfake的威胁下,鉴定图片、视频的真实性,都成了相机应用的卖点。

  一种方法是基于像素的视频检测,视频其实是成千上万帧图片连放,细致到检测每个像素的改变痕迹,是一件颇为浩大工程。

  这是正常视频人物应有的眨眼频率,但很多Deepfake视频的人物没能做到这一点。

  彼时由于缺乏闭眼图像数据,算法的训练并不完美,视频人物面孔总有一种“哪里不对”的不和谐感。

  为了实现这一过程的自动化,研究人员首先建立了一个神经网络,“学习”人类在说话时如何移动的重要特征。

  普渡大学的研究人员也采用了类似的方法,他们认为,随着训练模型的Deepfake视频数据量越来越大,模型也会更加精确,更容易检测出伪造的视频。