1.《ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD》
说明打印出来的通过digital attack的图片也可以欺骗 边缘端设备

2.《No need to worry about adversarial examples in object detection in autonomous vehicles》
证明了digital attack在物理世界视角等变化下是无效的
3.《Synthesizing Robust Adversarial Examples》
提出了Expectation Over Transformation (EOT)框架,将图像的变化作为分布加入对抗期望的学习,使得扰动在各种变化T下都鲁棒!渲染了一个3D目标,在任意角度都是具有干扰性能。

EOT: 
用拉格朗日松弛方法得到
用PGD方法计算扰动
两个点:
1.怎么去实现T变化的分布采样
When working in simulation, we evaluate over a large number of transformations sampled randomly from the distribution;
应该是每次有概率采取不同的变化吧!在ART这个代码库里可以找到EOT的代码,其实就是遍历了多种可能性,每一张图片变化N次,每次取不同的变化幅度!
adversarial-robustness-toolbox/pytorch.py at main · Trusted-AI/adversarial-robustness-toolbox · GitHub
synthesizing-robust-adversarial-examples/Adversarial.ipynb at master · prabhant/synthesizing-robust-adversarial-examples · GitHub

2.为什么拉格朗日松弛是这样的结果!系数怎么确定!