論文の概要: Moir\'e Attack (MA): A New Potential Risk of Screen Photos
- arxiv url: http://arxiv.org/abs/2110.10444v1
- Date: Wed, 20 Oct 2021 09:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 22:20:20.143424
- Title: Moir\'e Attack (MA): A New Potential Risk of Screen Photos
- Title(参考訳): Moir\'e Attack (MA): スクリーン写真の新たなリスク
- Authors: Dantong Niu, Ruohao Guo, Yisen Wang
- Abstract要約: 私たちは、ディープニューラルネットワークに対する未確認のセキュリティ脅威を引き起こす可能性のある、デジタル画像処理、モワール効果に特別な現象を見つけました。
そこで本研究では,デジタルデバイスの発射過程を模倣して,映像に付加する物理世界モイアパターンを生成するモイア攻撃(MA)を提案する。
提案したディジタルモイア攻撃(MA)は、攻撃者がDNNを高い成功率で改ざんするための完璧なカモフラージュである。
- 参考スコア(独自算出の注目度): 15.498304057398078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Images, captured by a camera, play a critical role in training Deep Neural
Networks (DNNs). Usually, we assume the images acquired by cameras are
consistent with the ones perceived by human eyes. However, due to the different
physical mechanisms between human-vision and computer-vision systems, the final
perceived images could be very different in some cases, for example shooting on
digital monitors. In this paper, we find a special phenomenon in digital image
processing, the moir\'e effect, that could cause unnoticed security threats to
DNNs. Based on it, we propose a Moir\'e Attack (MA) that generates the
physical-world moir\'e pattern adding to the images by mimicking the shooting
process of digital devices. Extensive experiments demonstrate that our proposed
digital Moir\'e Attack (MA) is a perfect camouflage for attackers to tamper
with DNNs with a high success rate ($100.0\%$ for untargeted and $97.0\%$ for
targeted attack with the noise budget $\epsilon=4$), high transferability rate
across different models, and high robustness under various defenses.
Furthermore, MA owns great stealthiness because the moir\'e effect is
unavoidable due to the camera's inner physical structure, which therefore
hardly attracts the awareness of humans. Our code is available at
https://github.com/Dantong88/Moire_Attack.
- Abstract(参考訳): カメラが捉えた画像は、ディープニューラルネットワーク(DNN)のトレーニングにおいて重要な役割を果たす。
通常、カメラが取得した画像は人間の目で認識した画像と一致していると仮定する。
しかし、人間の視覚システムとコンピュータビジョンシステムの間で物理的メカニズムが異なるため、デジタルモニターでの撮影など、最終的な知覚イメージは大きく異なる場合がある。
本稿では,デジタル画像処理における特別な現象であるmoir\'e効果が,DNNに対する未確認のセキュリティ脅威を引き起こす可能性があることを明らかにする。
そこで本研究では,デジタルデバイスの撮影過程を模倣して画像に物理世界moir\'eパターンを付加するmoir\'e攻撃(ma)を提案する。
広範な実験により,提案するデジタルmoir\'e攻撃 (ma) は,攻撃者が高い成功率(100.0\%$,ノイズ予算$\epsilon=4$),異なるモデル間の高い伝達率,様々な防御下で高い堅牢性を有するdnnを改ざんするための完璧なカモフラージュであることが示された。
さらに、maは、カメラの内部構造のためにmoir\'e効果が避けられないため、人間の意識を惹きつけることがほとんどないため、非常にステルス性が高い。
私たちのコードはhttps://github.com/Dantong88/Moire_Attack.comから入手可能です。
関連論文リスト
- Imperceptible CMOS camera dazzle for adversarial attacks on deep neural
networks [0.0]
我々は、光源を用いてローリングシャッターでCMOSカメラをダッズする可視光対向攻撃を提案する。
本稿では、被写体に印加されたディープニューラルネットワークを騙すのに十分なジャムを施しながら、攻撃光源を完全に見えなくするために必要な写真条件を示す。
論文 参考訳(メタデータ) (2023-10-22T09:44:59Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Adversarial Zoom Lens: A Novel Physical-World Attack to DNNs [0.0]
本稿では,Adrial Zoom Lens (AdvZL) と呼ばれる新しい物理対向攻撃手法を実演する。
AdvZLはズームレンズを使って物理世界の画像をズームイン/アウトし、ターゲットの物体の特性を変えることなくDNNを騙す。
デジタル環境では,AdvZLに基づくデータセットを構築し,DNNに対する等スケール拡大画像の対角性を検証する。
物理環境では、ズームレンズを操作して対象物体の内外をズームインし、対向サンプルを生成する。
論文 参考訳(メタデータ) (2022-06-23T13:03:08Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Bio-Inspired Adversarial Attack Against Deep Neural Networks [28.16483200512112]
本論文は,生体にインスパイアされた設計を応用した,ディープニューラルネットワーク(DNN)に対する新たな敵攻撃を開発する。
我々の知る限りでは、これは動く物体で物理的な攻撃を導入する最初の試みである。
論文 参考訳(メタデータ) (2021-06-30T03:23:52Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Adversarial Exposure Attack on Diabetic Retinopathy Imagery Grading [75.73437831338907]
糖尿病網膜症(DR)は、世界中の視覚障害の主要な原因である。
診断を助けるために、多くの最先端の作業が強力なディープニューラルネットワーク(DNN)を構築し、網膜基底画像(RFI)を介してDRを自動的にグレードする。
RFIは一般的に、不正グレードにつながる可能性のあるカメラ露出の問題によって影響を受ける。
本稿では,敵攻撃の観点からこの問題を考察する。
論文 参考訳(メタデータ) (2020-09-19T13:47:33Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial Camouflage: Hiding Physical-World Attacks with Natural
Styles [40.57099683047126]
そこで我々は,人間の観察者にとって正当な自然スタイルへの,工芸とカモフラージュの物理世界敵の新たなアプローチを提案する。
emphAdvCamは、ディープラーニングシステムによって個人情報が検出されるのを防ぐためにも使用できる。
論文 参考訳(メタデータ) (2020-03-08T07:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。