論文の概要: Class-Aware Robust Adversarial Training for Object Detection
- arxiv url: http://arxiv.org/abs/2103.16148v2
- Date: Wed, 31 Mar 2021 02:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 11:59:12.917035
- Title: Class-Aware Robust Adversarial Training for Object Detection
- Title(参考訳): クラス認識型ロバストな物体検出学習
- Authors: Pin-Chun Chen, Bo-Han Kung, and Jun-Cheng Chen
- Abstract要約: 本稿では,オブジェクト検出タスクのための新しいクラス認識ロバストな敵対的トレーニングパラダイムを提案する。
与えられた画像に対して、提案手法は、画像内のすべての生成されたオブジェクトを同時に攻撃する普遍的対向摂動を生成する。
提案手法では,全損失をクラス別損失に分解し,各クラス損失をクラス用のオブジェクト数で正規化する。
- 参考スコア(独自算出の注目度): 12.600009462416663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is an important computer vision task with plenty of
real-world applications; therefore, how to enhance its robustness against
adversarial attacks has emerged as a crucial issue. However, most of the
previous defense methods focused on the classification task and had few
analysis in the context of the object detection task. In this work, to address
the issue, we present a novel class-aware robust adversarial training paradigm
for the object detection task. For a given image, the proposed approach
generates an universal adversarial perturbation to simultaneously attack all
the occurred objects in the image through jointly maximizing the respective
loss for each object. Meanwhile, instead of normalizing the total loss with the
number of objects, the proposed approach decomposes the total loss into
class-wise losses and normalizes each class loss using the number of objects
for the class. The adversarial training based on the class weighted loss can
not only balances the influence of each class but also effectively and evenly
improves the adversarial robustness of trained models for all the object
classes as compared with the previous defense methods. Furthermore, with the
recent development of fast adversarial training, we provide a fast version of
the proposed algorithm which can be trained faster than the traditional
adversarial training while keeping comparable performance. With extensive
experiments on the challenging PASCAL-VOC and MS-COCO datasets, the evaluation
results demonstrate that the proposed defense methods can effectively enhance
the robustness of the object detection models.
- Abstract(参考訳): オブジェクト検出は、現実世界のアプリケーションが多い重要なコンピュータビジョンタスクであり、敵攻撃に対する堅牢性を高める方法が重要な問題となっている。
しかし,従来の防御手法の多くは分類タスクに焦点をあて,対象検出タスクの文脈での分析はほとんど行わなかった。
本稿では,この問題に対処するために,オブジェクト検出タスクのための,新しいクラス対応頑健な対人訓練パラダイムを提案する。
与えられた画像に対して,提案手法は,各オブジェクトの損失を最大化することにより,画像内のすべての被写体を同時に攻撃するために,普遍的な逆摂動を生成する。
一方、オブジェクト数で全体の損失を正規化する代わりに、提案手法はクラス単位の損失に総損失を分解し、クラスに対するオブジェクト数を用いて各クラス損失を正規化する。
クラス重み付け損失に基づく敵の訓練は,各クラスの影響のバランスをとるだけでなく,従来の防御手法と比較して,訓練対象クラスの敵の堅牢性を効果的かつ均一に改善する。
さらに,近年の高速対向訓練の開発により,従来の対向訓練よりも高速に学習でき,同等の性能を保ちながら,提案アルゴリズムの高速版を提供する。
PASCAL-VOCおよびMS-COCOデータセットに対する広範囲な実験により,提案手法がオブジェクト検出モデルの堅牢性を効果的に向上することを示す。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - DOEPatch: Dynamically Optimized Ensemble Model for Adversarial Patches Generation [12.995762461474856]
本稿では, エネルギーの概念を導入し, 相手のカテゴリの総エネルギーを最小化するために, 相手のパッチ生成過程を, 相手のパッチの最適化として扱う。
逆行訓練を採用することにより,動的に最適化されたアンサンブルモデルを構築する。
我々は6つの比較実験を行い、本アルゴリズムを5つの主流物体検出モデルで検証した。
論文 参考訳(メタデータ) (2023-12-28T08:58:13Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - FROD: Robust Object Detection for Free [1.8139771201780368]
最先端の物体検出器は、小さな敵の摂動に影響を受けやすい。
対象検出における頑健性を高めるために,分類に基づくバックボーンの変更を提案する。
論文 参考訳(メタデータ) (2023-08-03T17:31:22Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Resolving Class Imbalance in Object Detection with Weighted Cross
Entropy Losses [0.0]
物体検出はコンピュータビジョンにおいて重要なタスクであり、自律運転、監視、ロボット工学といった現実世界の多くのアプリケーションに役立っている。
不均一なオブジェクトクラス分布を持つ特別なデータセットに関しては、検出器のパフォーマンスにはまだ制限がある。
クロスエントロピー損失の重み付き変種を適用して,そのような問題を探索し,克服することを提案する。
論文 参考訳(メタデータ) (2020-06-02T06:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。