論文の概要: Exploring the Physical World Adversarial Robustness of Vehicle Detection
- arxiv url: http://arxiv.org/abs/2308.03476v1
- Date: Mon, 7 Aug 2023 11:09:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 14:01:40.767256
- Title: Exploring the Physical World Adversarial Robustness of Vehicle Detection
- Title(参考訳): 車両検出の物理世界逆境ロバスト性を探る
- Authors: Wei Jiang, Tianyuan Zhang, Shuangcheng Liu, Weiyu Ji, Zichao Zhang,
Gang Xiao
- Abstract要約: アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
- 参考スコア(独自算出の注目度): 13.588120545886229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks can compromise the robustness of real-world detection
models. However, evaluating these models under real-world conditions poses
challenges due to resource-intensive experiments. Virtual simulations offer an
alternative, but the absence of standardized benchmarks hampers progress.
Addressing this, we propose an innovative instant-level data generation
pipeline using the CARLA simulator. Through this pipeline, we establish the
Discrete and Continuous Instant-level (DCI) dataset, enabling comprehensive
experiments involving three detection models and three physical adversarial
attacks. Our findings highlight diverse model performances under adversarial
conditions. Yolo v6 demonstrates remarkable resilience, experiencing just a
marginal 6.59% average drop in average precision (AP). In contrast, the ASA
attack yields a substantial 14.51% average AP reduction, twice the effect of
other algorithms. We also note that static scenes yield higher recognition AP
values, and outcomes remain relatively consistent across varying weather
conditions. Intriguingly, our study suggests that advancements in adversarial
attack algorithms may be approaching its ``limitation''.In summary, our work
underscores the significance of adversarial attacks in real-world contexts and
introduces the DCI dataset as a versatile benchmark. Our findings provide
valuable insights for enhancing the robustness of detection models and offer
guidance for future research endeavors in the realm of adversarial attacks.
- Abstract(参考訳): 敵攻撃は実世界の検出モデルの堅牢性を損なう可能性がある。
しかし,実環境下でのモデル評価は,資源集約的な実験により課題となる。
仮想シミュレーションは代替手段を提供するが、標準ベンチマークの欠如が進行している。
そこで我々は,CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
このパイプラインを通じて、離散・連続インスタントレベル(DCI)データセットを確立し、3つの検出モデルと3つの物理的敵攻撃を含む包括的な実験を可能にする。
本研究は,敵対的条件下での多様なモデル性能を浮き彫りにする。
yolo v6は顕著な弾力性を示し、平均精度(ap)が6.59%低下した。
対照的に、ASA攻撃は、他のアルゴリズムの2倍の14.51%の平均AP削減をもたらす。
また,静的なシーンではAPの認識が向上し,様々な気象条件で結果が比較的一定であることに留意する。
興味深いことに、我々の研究は敵攻撃アルゴリズムの進歩が'limitation'に近づいていることを示唆している。
まとめると、我々の研究は現実世界の文脈における敵対的攻撃の重要性を強調し、汎用ベンチマークとしてdciデータセットを紹介します。
本研究は,検出モデルの堅牢性を高めるための貴重な知見と,敵攻撃の領域における今後の研究へのガイダンスを提供する。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Improving Adversarial Robustness for 3D Point Cloud Recognition at Test-Time through Purified Self-Training [9.072521170921712]
3Dポイントのクラウドディープラーニングモデルは、敵の攻撃に対して脆弱である。
敵の浄化は 生成モデルを使って 敵の攻撃の影響を緩和する
そこで我々は,この目的を達成するために,テスト時間浄化型自己学習戦略を提案する。
論文 参考訳(メタデータ) (2024-09-23T11:46:38Z) - Benchmarking and Improving Bird's Eye View Perception Robustness in Autonomous Driving [55.93813178692077]
本稿では,BEVアルゴリズムのレジリエンスを評価するためのベンチマークスイートであるRoboBEVを紹介する。
検出,マップセグメンテーション,深さ推定,占有予測といったタスクにまたがる33の最先端のBEVベースの知覚モデルを評価する。
また, 事前学習や深度自由なBEVトランスフォーメーションなどの戦略が, アウト・オブ・ディストリビューションデータに対するロバスト性を高める上で有効であることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:59:39Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Benchmarking the Physical-world Adversarial Robustness of Vehicle
Detection [14.202833467294765]
物理世界の敵対的攻撃は、検出モデルの堅牢性を損なう可能性がある。
Yolo v6は6.59%のAP降下率で強い抵抗を示し、ASAは14.51%のAP減少率を持つ最も効果的な攻撃アルゴリズムであった。
論文 参考訳(メタデータ) (2023-04-11T09:48:25Z) - Consistent Valid Physically-Realizable Adversarial Attack against
Crowd-flow Prediction Models [4.286570387250455]
ディープラーニング(DL)モデルは、都市全体のクラウドフローパターンを効果的に学習することができる。
DLモデルは、目立たない逆境の摂動に対して不利に作用することが知られている。
論文 参考訳(メタデータ) (2023-03-05T13:30:25Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。