論文の概要: D2R: dual regularization loss with collaborative adversarial generation for model robustness
- arxiv url: http://arxiv.org/abs/2506.07056v1
- Date: Sun, 08 Jun 2025 09:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.653944
- Title: D2R: dual regularization loss with collaborative adversarial generation for model robustness
- Title(参考訳): D2R: モデルロバストネスのための協調対向生成による二重正則化損失
- Authors: Zhenyu Liu, Huizhi Liang, Rajiv Ranjan, Zhanxing Zhu, Vaclav Snasel, Varun Ojha,
- Abstract要約: ディープニューラルネットワークモデルの堅牢性は、敵の攻撃からモデルを守るために不可欠である。
本稿では,二重正則化損失(D2R損失)法と協調的対向生成(CAG)法を提案する。
以上の結果から,CAGによるD2R損失は極めて頑健なモデルであることがわかった。
- 参考スコア(独自算出の注目度): 23.712462151414726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The robustness of Deep Neural Network models is crucial for defending models against adversarial attacks. Recent defense methods have employed collaborative learning frameworks to enhance model robustness. Two key limitations of existing methods are (i) insufficient guidance of the target model via loss functions and (ii) non-collaborative adversarial generation. We, therefore, propose a dual regularization loss (D2R Loss) method and a collaborative adversarial generation (CAG) strategy for adversarial training. D2R loss includes two optimization steps. The adversarial distribution and clean distribution optimizations enhance the target model's robustness by leveraging the strengths of different loss functions obtained via a suitable function space exploration to focus more precisely on the target model's distribution. CAG generates adversarial samples using a gradient-based collaboration between guidance and target models. We conducted extensive experiments on three benchmark databases, including CIFAR-10, CIFAR-100, Tiny ImageNet, and two popular target models, WideResNet34-10 and PreActResNet18. Our results show that D2R loss with CAG produces highly robust models.
- Abstract(参考訳): ディープニューラルネットワークモデルの堅牢性は、敵の攻撃からモデルを守るために不可欠である。
近年の防衛手法では、モデルの堅牢性を高めるために協調学習フレームワークが採用されている。
既存の方法の2つの重要な制限は
一 損失関数及び損失関数による対象モデルの十分なガイダンス
(二)非協力的反対世代
そこで本研究では,二重正則化損失(D2R損失)法と協調的対向生成(CAG)法を提案する。
D2R損失には2つの最適化ステップが含まれる。
逆分布とクリーン分布最適化は、適切な関数空間探索により得られる異なる損失関数の強度を利用して、ターゲットモデルの分布により正確に焦点を合わせることにより、ターゲットモデルのロバスト性を高める。
CAGは、ガイダンスと対象モデル間の勾配に基づく協調を用いて、逆サンプルを生成する。
我々は,CIFAR-10,CIFAR-100,Tiny ImageNet,およびWideResNet34-10とPreActResNet18という2つの人気のあるターゲットモデルを含む3つのベンチマークデータベースについて広範囲に実験を行った。
以上の結果から,CAGによるD2R損失は極めて頑健なモデルであることがわかった。
関連論文リスト
- Adversarial Robustness in Two-Stage Learning-to-Defer: Algorithms and Guarantees [3.6787328174619254]
2段階のL2D(Learning-to-Defer)は、各入力を固定されたメインモデルまたは複数のオフライン専門家のいずれかに割り当てることで、最適なタスクデリゲートを可能にする。
既存のL2Dフレームワークはクリーンな入力を前提としており、クエリ割り当てを操作できる敵の摂動に弱い。
2段階L2Dシステムにおける対向ロバスト性の最初の包括的研究について述べる。
論文 参考訳(メタデータ) (2025-02-03T03:44:35Z) - Weak-to-Strong Diffusion with Reflection [56.39451539396458]
Weak-to-Strong Diffusion (W2SD)を提案する。
W2SDは実データ分布の領域へのサンプリング軌道に沿って潜伏変数を操る。
広範囲な実験により、W2SDは人間の嗜好、美的品質、即効性を改善することが示されている。
論文 参考訳(メタデータ) (2025-02-01T16:00:08Z) - Towards Adversarially Robust Deep Metric Learning [0.8702432681310401]
ディープニューラルネットワークは敵の攻撃を受けやすいため、敵の例によって簡単に騙される可能性がある。
既存の作業は、DMLモデルの堅牢性を徹底的に検査することができない。
我々は,アンサンブル学習と対人訓練を利用する新しい防衛法である「アンサンブル・アディバーショナル・トレーニング(EAT)」を提案する。
論文 参考訳(メタデータ) (2025-01-02T03:15:25Z) - Dynamic Label Adversarial Training for Deep Learning Robustness Against Adversarial Attacks [11.389689242531327]
対人訓練は、モデルの堅牢性を高める最も効果的な方法の1つである。
従来のアプローチでは、主に敵の訓練に静的接地真理を用いるが、しばしば強固なオーバーフィッティングを引き起こす。
本稿では,動的ラベル対逆トレーニング(DYNAT)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-23T14:25:12Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - A Model Stealing Attack Against Multi-Exit Networks [13.971211573064739]
モデルユーティリティと出力戦略の両方を抽出するために,マルチエグジットネットワークに対する最初の盗難攻撃を提案する。
複数のマルチエグジットネットワークとベンチマークデータセットにわたる実験において、本手法は被害者モデルに最も近い精度と効率を常に達成する。
論文 参考訳(メタデータ) (2023-05-23T01:24:39Z) - Language as a Latent Sequence: deep latent variable models for
semi-supervised paraphrase generation [47.33223015862104]
本稿では,観測されたテキストから遅延シーケンス推論を行うVSARという新しい教師なしモデルを提案する。
また、テキストペアからの情報を活用するために、提案したVSARモデルと統合するために設計されたDDLと呼ばれる新しい教師付きモデルを導入する。
実験により, このモデルを組み合わせることで, 完全データに基づく最先端の教師付きベースラインに対して, 競争性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-01-05T19:35:30Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。