論文の概要: FROD: Robust Object Detection for Free
- arxiv url: http://arxiv.org/abs/2308.01888v1
- Date: Thu, 3 Aug 2023 17:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 13:21:01.717823
- Title: FROD: Robust Object Detection for Free
- Title(参考訳): FROD: 無償でロバストオブジェクト検出
- Authors: Muhammad, Awais, Weiming, Zhuang, Lingjuan, Lyu, Sung-Ho, Bae
- Abstract要約: 最先端の物体検出器は、小さな敵の摂動に影響を受けやすい。
対象検出における頑健性を高めるために,分類に基づくバックボーンの変更を提案する。
- 参考スコア(独自算出の注目度): 1.8139771201780368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection is a vital task in computer vision and has become an
integral component of numerous critical systems. However, state-of-the-art
object detectors, similar to their classification counterparts, are susceptible
to small adversarial perturbations that can significantly alter their normal
behavior. Unlike classification, the robustness of object detectors has not
been thoroughly explored. In this work, we take the initial step towards
bridging the gap between the robustness of classification and object detection
by leveraging adversarially trained classification models. Merely utilizing
adversarially trained models as backbones for object detection does not result
in robustness. We propose effective modifications to the classification-based
backbone to instill robustness in object detection without incurring any
computational overhead. To further enhance the robustness achieved by the
proposed modified backbone, we introduce two lightweight components: imitation
loss and delayed adversarial training. Extensive experiments on the MS-COCO and
Pascal VOC datasets are conducted to demonstrate the effectiveness of our
proposed approach.
- Abstract(参考訳): 物体検出はコンピュータビジョンにおいて重要なタスクであり、多くの重要なシステムの不可欠な構成要素となっている。
しかし、最先端の物体検出器は、その分類と似ており、通常の振る舞いを著しく変えうる小さな対向摂動の影響を受けやすい。
分類とは異なり、物体検出器の堅牢性は徹底的に調査されていない。
本研究は,逆向きに訓練された分類モデルを利用して,分類の頑健さと物体検出のギャップを埋めるための最初のステップである。
敵が訓練したモデルを、オブジェクト検出のバックボーンとして利用するだけでは、堅牢性は得られない。
本稿では,計算オーバーヘッドを伴わずにオブジェクト検出に頑健性を持たせるために,分類に基づくバックボーンの効果的な修正を提案する。
提案する修正バックボーンによるロバスト性をさらに高めるために,模倣損失と遅延敵訓練という2つの軽量コンポーネントを導入する。
提案手法の有効性を示すため,MS-COCOおよびPascal VOCデータセットの大規模な実験を行った。
関連論文リスト
- On the Importance of Backbone to the Adversarial Robustness of Object
Detectors [26.712934402914854]
対象検出器の対向ロバスト性を高めるためには,逆向きに事前学習したバックボーンネットワークを用いることが不可欠である。
本稿では,逆さまに事前学習したバックボーンを持つ物体検出器の高速逆方向微調整のための簡易かつ効果的なレシピを提案する。
我々の実験結果は新たなマイルストーンを樹立し、対向的に堅牢な物体検出の理解を深めた。
論文 参考訳(メタデータ) (2023-05-27T10:26:23Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Class-Aware Robust Adversarial Training for Object Detection [12.600009462416663]
本稿では,オブジェクト検出タスクのための新しいクラス認識ロバストな敵対的トレーニングパラダイムを提案する。
与えられた画像に対して、提案手法は、画像内のすべての生成されたオブジェクトを同時に攻撃する普遍的対向摂動を生成する。
提案手法では,全損失をクラス別損失に分解し,各クラス損失をクラス用のオブジェクト数で正規化する。
論文 参考訳(メタデータ) (2021-03-30T08:02:28Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。