《2019年AI的欺骗艺术-人工智能图像攻击.pdf》由会员分享,可在线阅读,更多相关《2019年AI的欺骗艺术-人工智能图像攻击.pdf(22页珍藏版)》请在三个皮匠报告上搜索。
1、人工智能技术应用:深度学习、计算机视觉、语音机器人、自然语言处理、推荐引擎等等对抗神经网络对抗性攻击虚拟世界AI换脸 所谓AI换脸术,是基于人工智能的人体图像合成技术,生成的假脸(DeepFake)。这个技术是怎么做到的?它给人们的生活会带来哪些利与弊?有何办法对其辨别?避免潜在风险?所谓AI换脸术,是基于人工智能的人体图像合成技术,生成的假脸(DeepFake)。侵犯肖像权、名誉权 政治利用、负面舆论 数字时代,欺骗无处不在 完善法律,数字签名认证以上视频均来自外网 一个编码器,两个解码器。在应用时,使用对应人物的解码器即可完成转换。数据尽可能涵盖更多的侧面、动作、光线场景 VR 创造虚拟现
2、实 缸中之脑?庄周梦蝶?黑客帝国?风格转换?人脸表情转化?这些图像中的人在现实中不存在!这些图像中的物体在现实中不存在!对抗生成网络(GAN):Generative Adversarial Networks 人工智能领域的左右互搏术 生成器 Generator 鉴别器 Discriminator 何为对抗性攻击?通过设计有针对性的噪声,从而让机器学习模型做出误判,便被称为对抗性攻击。针对Inception-v3的对抗性攻击 对抗性攻击的类型:根据对抗结果:定向攻击(指定图像猫-分类结果:狗)非定向攻击(图像猫-任何不是猫的结果)根据模型是否透明:白盒攻击(模型/样本已知)黑盒攻击(模型/样本未
3、知/甚至不可接触)灰盒攻击(得知部分结构/模型迁移)白盒攻击FGM/FGSM简介:(Fast Gradient Sign Method)使用对抗生成网络 攻击人脸识别模型GAN(Generative Adversarial Networks)D(Detector):判别网络(被攻击的模型)G(Generator):生成网络(用来攻击D)相互博弈G训练完成后能直接生成对抗样本,不接触DGAN攻击的优势一种灰盒方式一旦训练形成G,即可快速/无接触的生成对抗样本可以通过对抗多种模型,产生易于迁移的样本 在声音中加入微小噪声:speech can be embedded in music:纯音乐无内容:without the dataset the article is useless:okay google browse to AI换脸 基于风格转换的虚拟图像 对抗性攻击,神经网络的弱点THANK YOU谢谢观看