論文の概要: Benchmarking Adversarial Robustness and Adversarial Training Strategies for Object Detection
- arxiv url: http://arxiv.org/abs/2602.16494v1
- Date: Wed, 18 Feb 2026 14:33:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.616224
- Title: Benchmarking Adversarial Robustness and Adversarial Training Strategies for Object Detection
- Title(参考訳): 物体検出のための対向ロバスト性と対向学習戦略のベンチマーク
- Authors: Alexis Winter, Jean-Vincent Martini, Romaric Audigier, Angelique Loesch, Bertrand Luvison,
- Abstract要約: 物体検出モデルは、自動運転車や知覚に基づくロボットなど、自動システムの重要なコンポーネントである。
これらのモデルの防衛の進歩は、標準化された評価の欠如によって妨げられている分類の遅れを妨げている。
既存の作業では、異なるデータセット、一貫性のない効率指標、様々な摂動コストの測定が使用されているため、攻撃や防御の方法を徹底的に比較することはほぼ不可能である。
- 参考スコア(独自算出の注目度): 24.70528833663651
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Object detection models are critical components of automated systems, such as autonomous vehicles and perception-based robots, but their sensitivity to adversarial attacks poses a serious security risk. Progress in defending these models lags behind classification, hindered by a lack of standardized evaluation. It is nearly impossible to thoroughly compare attack or defense methods, as existing work uses different datasets, inconsistent efficiency metrics, and varied measures of perturbation cost. This paper addresses this gap by investigating three key questions: (1) How can we create a fair benchmark to impartially compare attacks? (2) How well do modern attacks transfer across different architectures, especially from Convolutional Neural Networks to Vision Transformers? (3) What is the most effective adversarial training strategy for robust defense? To answer these, we first propose a unified benchmark framework focused on digital, non-patch-based attacks. This framework introduces specific metrics to disentangle localization and classification errors and evaluates attack cost using multiple perceptual metrics. Using this benchmark, we conduct extensive experiments on state-of-the-art attacks and a wide range of detectors. Our findings reveal two major conclusions: first, modern adversarial attacks against object detection models show a significant lack of transferability to transformer-based architectures. Second, we demonstrate that the most robust adversarial training strategy leverages a dataset composed of a mix of high-perturbation attacks with different objectives (e.g., spatial and semantic), which outperforms training on any single attack.
- Abstract(参考訳): 物体検出モデルは、自動運転車や知覚に基づくロボットのような自動システムの重要な構成要素であるが、敵攻撃に対する感度は深刻なセキュリティリスクを引き起こす。
これらのモデルの防衛の進歩は、標準化された評価の欠如によって妨げられている分類の遅れを妨げている。
既存の作業では、異なるデータセット、一貫性のない効率指標、様々な摂動コストの測定が使用されているため、攻撃や防御の方法を徹底的に比較することはほぼ不可能である。
本稿は、(1)攻撃を公平に比較するための公正なベンチマークをどうやって作成できるのか、という3つの重要な疑問を調査することによって、このギャップに対処する。
2) 現代の攻撃は、特に畳み込みニューラルネットワークから視覚変換器へ、異なるアーキテクチャをまたいでどのように伝達されるか?
(3)頑強防衛のための最も効果的な対人訓練戦略は何か。
これに対応するために、我々はまず、デジタル、非パッチベースの攻撃に焦点を当てた統合ベンチマークフレームワークを提案する。
このフレームワークは、特定メトリクスを導入し、ローカライゼーションと分類エラーを解消し、複数の知覚メトリクスを使用して攻撃コストを評価する。
このベンチマークを用いて、我々は最先端の攻撃と幅広い検知器に関する広範な実験を行う。
まず, オブジェクト検出モデルに対する現代の敵攻撃は, トランスフォーマベースアーキテクチャへのトランスファー可能性の欠如を示す。
第2に、最も頑健な対人訓練戦略は、異なる目的(例えば、空間的、意味的)で高摂動攻撃を混合したデータセットを利用しており、単一の攻撃に対する訓練よりも優れていることを実証する。
関連論文リスト
- Debiased Dual-Invariant Defense for Adversarially Robust Person Re-Identification [52.63017280231648]
人物再識別(ReID)は、歩行者軌道追跡などの現実の多くの応用において、基本的な課題である。
Person ReIDモデルは、歩行者画像に対する知覚不能な摂動が完全に誤った予測を引き起こすような、敵の攻撃に非常に敏感である。
本稿では,2つの相からなる二重不変防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-13T03:56:40Z) - Amplifying Machine Learning Attacks Through Strategic Compositions [25.796285779866686]
我々は,モデルの推論フェーズにおいて,逆例,属性推論,メンバシップ推論,プロパティ推論という,よく研究された4つの攻撃に焦点を当てた。
本研究では,属性推論を準備レベルで支援するプロパティ推論と,その実行レベルでのプロパティ推論を補助する逆例の4つの効果的な攻撃成分を同定する。
我々の研究は、研究者や実践者が、複数の攻撃戦略を含む高度な敵の設定を検討するために役立ちます。
論文 参考訳(メタデータ) (2025-06-23T17:38:48Z) - DUMB and DUMBer: Is Adversarial Training Worth It in the Real World? [15.469010487781931]
敵の例は小さく、しばしば、愚かな機械学習モデルのために作られた、知覚不能な摂動である。
侵入攻撃(英語: Evasion attack)とは、入力がテスト時に誤分類を引き起こすように修正される敵攻撃の一種であり、その伝達性のために特に不快である。
本稿では,DUMB法の基礎の上に構築された攻撃フレームワークであるDUMBerを紹介し,敵の訓練したモデルの弾力性を評価する。
論文 参考訳(メタデータ) (2025-06-23T11:16:21Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Preference Poisoning Attacks on Reward Model Learning [47.00395978031771]
ペア比較による報酬モデル学習における脆弱性の性質と範囲について検討する。
本稿では,これらの攻撃に対するアルゴリズム的アプローチのクラスとして,勾配に基づくフレームワークと,ランク・バイ・ディスタンス手法のいくつかのバリエーションを提案する。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。