論文の概要: Enhancing Adversarial Robustness for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2203.01439v1
- Date: Wed, 2 Mar 2022 22:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 15:20:51.995556
- Title: Enhancing Adversarial Robustness for Deep Metric Learning
- Title(参考訳): 深層学習における対人ロバスト性向上
- Authors: Mo Zhou, Vishal M. Patel
- Abstract要約: 深層学習モデルの対角的堅牢性を改善する必要がある。
過度にハードな例によるモデル崩壊を避けるため、既存の守備隊はmin-max対逆訓練を中止した。
本研究では, 対人訓練において, 一定の硬度までトレーニング三重奏を効率よく摂動させる硬度操作を提案する。
- 参考スコア(独自算出の注目度): 77.75152218980605
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Owing to security implications of adversarial vulnerability, adversarial
robustness of deep metric learning models has to be improved. In order to avoid
model collapse due to excessively hard examples, the existing defenses dismiss
the min-max adversarial training, but instead learn from a weak adversary
inefficiently. Conversely, we propose Hardness Manipulation to efficiently
perturb the training triplet till a specified level of hardness for adversarial
training, according to a harder benign triplet or a pseudo-hardness function.
It is flexible since regular training and min-max adversarial training are its
boundary cases. Besides, Gradual Adversary, a family of pseudo-hardness
functions is proposed to gradually increase the specified hardness level during
training for a better balance between performance and robustness. Additionally,
an Intra-Class Structure loss term among benign and adversarial examples
further improves model robustness and efficiency. Comprehensive experimental
results suggest that the proposed method, although simple in its form,
overwhelmingly outperforms the state-of-the-art defenses in terms of
robustness, training efficiency, as well as performance on benign examples.
- Abstract(参考訳): 敵対的脆弱性のセキュリティ上の影響により、深層メトリック学習モデルの敵対的堅牢性が改善される必要がある。
過度に厳しい例によるモデル崩壊を避けるために、既存の防衛隊は、min-max敵訓練を却下するが、代わりに弱い敵から非効率に学ぶ。
逆に,厳しい良性三重項や擬似硬度関数に従って,特定の硬度レベルまでトレーニング三重項を効率よく摂動させる硬度操作を提案する。
通常の訓練とmin-maxの対向訓練が境界となるため、柔軟である。
また, 学習中のハードネスレベルを緩やかに増やし, パフォーマンスとロバスト性とのバランスを改善するために, 擬似ハードネス関数の族が提案されている。
さらに、良性および逆性例間のクラス内構造損失項は、モデル堅牢性と効率をさらに改善する。
包括的実験の結果,提案手法は単純ではあるが,ロバスト性,トレーニング効率,良質な実例のパフォーマンスにおいて,最先端の防御を圧倒的に上回っていることが示唆された。
関連論文リスト
- Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Strength-Adaptive Adversarial Training [103.28849734224235]
対戦訓練(AT)は、敵データに対するネットワークの堅牢性を確実に改善することが証明されている。
所定の摂動予算を持つ現在のATは、堅牢なネットワークの学習に制限がある。
本稿では,これらの制限を克服するために,emphStrength-Adaptive Adversarial Training (SAAT)を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:22:37Z) - Towards the Desirable Decision Boundary by Moderate-Margin Adversarial
Training [8.904046529174867]
本研究では,頑健さと自然な精度のトレードオフを改善するために,新たな対人訓練手法を提案する。
MMATは、クロスオーバー問題を緩和するために、よりきめ細かい逆例を生成する。
例えばSVHNでは、最先端の堅牢性と自然な精度が達成される。
論文 参考訳(メタデータ) (2022-07-16T00:57:23Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Adversarial Fine-tune with Dynamically Regulated Adversary [27.034257769448914]
健康診断や自律手術ロボットなどの現実世界の多くの応用において、このような極めて悪意のある攻撃に対するモデルロバスト性よりも、標準的な性能が重視されている。
本研究は, モデル標準性能に対する対向サンプルの負の効果を阻害する, 単純かつ効果的な移動学習に基づく対向学習戦略を提案する。
さらに,トレーニングの複雑さを伴わずに,敵の強靭性を向上する訓練フレンドリーな敵攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-04-28T00:07:15Z) - On the Convergence and Robustness of Adversarial Training [134.25999006326916]
Project Gradient Decent (PGD) によるアドリアリトレーニングが最も効果的である。
生成した逆数例の収束性を向上させるためのテクトダイナミックトレーニング戦略を提案する。
その結果,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2021-12-15T17:54:08Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Towards Understanding Fast Adversarial Training [91.8060431517248]
高速対人訓練の振る舞いを理解するために実験を行う。
その成功の鍵は、過度な適合から弱い攻撃への回復能力である。
論文 参考訳(メタデータ) (2020-06-04T18:19:43Z) - Improving the affordability of robustness training for DNNs [11.971637253035107]
逆行訓練の初期段階は冗長であり、計算効率を大幅に向上させる自然な訓練に置き換えることができることを示す。
提案手法は, 各種敵攻撃の強みに対するモデルテスト精度と一般化により, 最大2.5倍の訓練時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-02-11T07:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。