論文の概要: Nearest Neighbor Projection Removal Adversarial Training
- arxiv url: http://arxiv.org/abs/2509.07673v1
- Date: Tue, 09 Sep 2025 12:38:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.30865
- Title: Nearest Neighbor Projection Removal Adversarial Training
- Title(参考訳): 近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近
- Authors: Himanshu Singh, A. V. Subramanyam, Shivank Rajput, Mohan Kankanhalli,
- Abstract要約: 本稿では, クラス間の依存関係を, クラス間およびクリーンなサンプルから投影することで, クラス間近接を積極的に緩和する新しい学習フレームワークを提案する。
提案手法はまず,各対向サンプルに対して最も近いクラス間隣人を特定し,続いてこれらの隣人への投影を取り除き,より強力な特徴分離性を実現する。
- 参考スコア(独自算出の注目度): 5.146355145217634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have exhibited impressive performance in image classification tasks but remain vulnerable to adversarial examples. Standard adversarial training enhances robustness but typically fails to explicitly address inter-class feature overlap, a significant contributor to adversarial susceptibility. In this work, we introduce a novel adversarial training framework that actively mitigates inter-class proximity by projecting out inter-class dependencies from adversarial and clean samples in the feature space. Specifically, our approach first identifies the nearest inter-class neighbors for each adversarial sample and subsequently removes projections onto these neighbors to enforce stronger feature separability. Theoretically, we demonstrate that our proposed logits correction reduces the Lipschitz constant of neural networks, thereby lowering the Rademacher complexity, which directly contributes to improved generalization and robustness. Extensive experiments across standard benchmarks including CIFAR-10, CIFAR-100, and SVHN show that our method demonstrates strong performance that is competitive with leading adversarial training techniques, highlighting significant achievements in both robust and clean accuracy. Our findings reveal the importance of addressing inter-class feature proximity explicitly to bolster adversarial robustness in DNNs.
- Abstract(参考訳): ディープニューラルネットワークは、画像分類タスクにおいて印象的なパフォーマンスを示したが、敵の例には弱いままである。
標準的な敵対的訓練は堅牢性を高めるが、通常、クラス間の機能の重複に明示的に対処することができない。
本研究では,クラス間依存関係を,特徴空間内のクラス間およびクリーンなサンプルから投射することで,クラス間近接を積極的に緩和する,新しい対人訓練フレームワークを提案する。
具体的には,まず,各対向サンプルに対して最も近いクラス間隣人を特定し,続いてこれらの隣人への投影を取り除き,より強力な特徴分離性を実現する。
理論的には,提案したロジット補正によりニューラルネットワークのリプシッツ定数が減少し,ラデマッハの複雑性が低下し,一般化とロバスト性の向上に直接寄与することを示した。
CIFAR-10, CIFAR-100, SVHN などの標準ベンチマークによる大規模な実験により, 本手法は, 先進的な対人訓練技術と競合する強い性能を示し, 頑健かつクリーンな精度の両面で重要な成果を浮き彫りにしている。
以上の結果から,DNNの対向的堅牢性を高めるために,クラス間特徴に明示的に対応することの重要性が示唆された。
関連論文リスト
- Deep Positive-Negative Prototypes for Adversarially Robust Discriminative Prototypical Learning [0.24999074238880484]
本稿では,Adv-DPNP(Adversarially Training Deep Positive-Negative Prototypes)という新しいフレームワークを提案する。
Adv-DPNPは、差別的プロトタイプベースの学習と敵対訓練を統合している。
以上の結果から,Adv-DPNPは重大度および汚職種別の平均精度が最も高いことを示す。
論文 参考訳(メタデータ) (2025-04-03T15:42:58Z) - Towards Adversarial Robustness via Debiased High-Confidence Logit Alignment [24.577363665112706]
逆敵攻撃下では、高信頼出力は偏りのある特徴アクティベーションに影響される。
この急激な相関バイアスは、敵の訓練中に無関係な背景特徴を過度に適合させる。
本稿では, 障害のある高信頼度ロジットと障害のある高信頼度ロジットを整合させる新しいアプローチとして, 障害のある高信頼度ロジット訓練(DHAT)を提案する。
論文 参考訳(メタデータ) (2024-08-12T11:56:06Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。