論文の概要: Towards Benchmarking and Assessing Visual Naturalness of Physical World
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2305.12863v1
- Date: Mon, 22 May 2023 09:40:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:59:01.084373
- Title: Towards Benchmarking and Assessing Visual Naturalness of Physical World
Adversarial Attacks
- Title(参考訳): 物理世界敵攻撃の視自然性のベンチマークと評価に向けて
- Authors: Simin Li, Shuing Zhang, Gujun Chen, Dong Wang, Pu Feng, Jiakai Wang,
Aishan Liu, Xin Yi, Xianglong Liu
- Abstract要約: 物理的世界攻撃では、人間が容易に不自然な攻撃を検出し、除去できるため、自然性を評価することが非常に強調される。
本稿では,身体的世界攻撃の視覚的自然性を評価するための第一歩として,自律走行シナリオを第一試みとする。
モデル推論プロセスに人間の知識を組み込むことを目的としたDPA(Dual Prior Alignment)ネットワークを導入する。
- 参考スコア(独自算出の注目度): 48.42363580408451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical world adversarial attack is a highly practical and threatening
attack, which fools real world deep learning systems by generating conspicuous
and maliciously crafted real world artifacts. In physical world attacks,
evaluating naturalness is highly emphasized since human can easily detect and
remove unnatural attacks. However, current studies evaluate naturalness in a
case-by-case fashion, which suffers from errors, bias and inconsistencies. In
this paper, we take the first step to benchmark and assess visual naturalness
of physical world attacks, taking autonomous driving scenario as the first
attempt. First, to benchmark attack naturalness, we contribute the first
Physical Attack Naturalness (PAN) dataset with human rating and gaze. PAN
verifies several insights for the first time: naturalness is (disparately)
affected by contextual features (i.e., environmental and semantic variations)
and correlates with behavioral feature (i.e., gaze signal). Second, to
automatically assess attack naturalness that aligns with human ratings, we
further introduce Dual Prior Alignment (DPA) network, which aims to embed human
knowledge into model reasoning process. Specifically, DPA imitates human
reasoning in naturalness assessment by rating prior alignment and mimics human
gaze behavior by attentive prior alignment. We hope our work fosters researches
to improve and automatically assess naturalness of physical world attacks. Our
code and dataset can be found at https://github.com/zhangsn-19/PAN.
- Abstract(参考訳): 物理的な世界敵の攻撃は、非常に実用的で脅威に満ちた攻撃であり、目立って悪意ある現実世界のアーティファクトを生成して、現実世界のディープラーニングシステムを騙す。
物理的世界攻撃では、人間が容易に不自然な攻撃を検出し除去できるため、自然性を評価することが非常に強調される。
しかし、近年の研究では、誤り、バイアス、不整合に苦しむケースバイケースで自然性を評価する。
本稿では,物理世界攻撃の視覚的自然性を評価するための第一歩として,自律走行シナリオを第一試みとする。
まず、自然度をベンチマークするために、最初の物理攻撃自然度データセットを人間の評価と視線で貢献する。
自然性は(異なる)文脈的特徴(環境的特徴と意味的変化)に影響され、行動的特徴(すなわち視線信号)と相関する。
第二に、人間の評価と一致した攻撃自然度を自動的に評価するために、モデル推論プロセスに人間の知識を組み込むDPA(Dual Prior Alignment)ネットワークを導入する。
具体的には、dpaは、事前アライメントの評価による自然性評価における人間の推論を模倣し、注意的な事前アライメントによる人間の視線行動を模倣する。
私たちの仕事は、物理世界の攻撃の自然性を改善し、自動的に評価する研究を促進することを願っています。
コードとデータセットはhttps://github.com/zhangsn-19/PANで確認できます。
関連論文リスト
- Exploring the Naturalness of AI-Generated Images [59.04528584651131]
我々は、AI生成画像の視覚的自然性をベンチマークし、評価する第一歩を踏み出した。
本研究では,人間の評価を整列するAGIの自然性を自動予測するジョイント・オブジェクト・イメージ・ナチュラルネス評価器(JOINT)を提案する。
その結果,JOINTは自然性評価において,より主観的に一貫した結果を提供するために,ベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-12-09T06:08:09Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - How do humans perceive adversarial text? A reality check on the validity
and naturalness of word-based adversarial attacks [4.297786261992324]
敵対的攻撃は 不正なアルゴリズムだ 入力テキストを不当に修正して モデルに誤った予測をさせる
378人の被験者を対象に,最先端の手法によるテキスト対逆例の知覚可能性について調査した。
以上の結果から,既存のテキスト攻撃は人間が関与する現実のシナリオでは実行不可能であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T21:52:13Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Survey on Physical Adversarial Attack in Computer Vision [7.053905447737444]
ディープニューラルネットワーク(DNN)は、悪意のある小さなノイズによって作られた敵の例に弱いことが示されている。
DNNベースのシステムを現実世界に展開する機会が増えているため、これらのシステムの堅牢性を強化することは非常事態である。
論文 参考訳(メタデータ) (2022-09-28T17:23:52Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。