論文の概要: Parameter Interpolation Adversarial Training for Robust Image Classification
- arxiv url: http://arxiv.org/abs/2511.00836v1
- Date: Sun, 02 Nov 2025 07:37:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.958625
- Title: Parameter Interpolation Adversarial Training for Robust Image Classification
- Title(参考訳): ロバスト画像分類のためのパラメータ補間反転学習
- Authors: Xin Liu, Yichen Yang, Kun He, John E. Hopcroft,
- Abstract要約: 補間補助訓練(PIAT)と呼ばれる新しい枠組みを提案する。
PIATは、前のエポックと現在のエポックのパラメータを補間することで、各エポック間のモデルパラメータをチューニングする。
モデル変更の決定境界をより穏健なものにし、過度に適合する問題を緩和します。
- 参考スコア(独自算出の注目度): 14.913267679379308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though deep neural networks exhibit superior performance on various tasks, they are still plagued by adversarial examples. Adversarial training has been demonstrated to be the most effective method to defend against adversarial attacks. However, existing adversarial training methods show that the model robustness has apparent oscillations and overfitting issues in the training process, degrading the defense efficacy. To address these issues, we propose a novel framework called Parameter Interpolation Adversarial Training (PIAT). PIAT tunes the model parameters between each epoch by interpolating the parameters of the previous and current epochs. It makes the decision boundary of model change more moderate and alleviates the overfitting issue, helping the model converge better and achieving higher model robustness. In addition, we suggest using the Normalized Mean Square Error (NMSE) to further improve the robustness by aligning the relative magnitude of logits between clean and adversarial examples rather than the absolute magnitude. Extensive experiments conducted on several benchmark datasets demonstrate that our framework could prominently improve the robustness of both Convolutional Neural Networks (CNNs) and Vision Transformers (ViTs).
- Abstract(参考訳): ディープニューラルネットワークは様々なタスクにおいて優れたパフォーマンスを示すが、それでも敵の例に悩まされている。
敵の攻撃を防御する最も効果的な方法として、敵の訓練が実証されている。
しかし, 既存の対人訓練法では, モデルロバスト性は明らかに振動し, 過度に適合し, 防御効果は低下している。
これらの課題に対処するため,パラメータ補間適応トレーニング(PIAT)と呼ばれる新しいフレームワークを提案する。
PIATは、前のエポックと現在のエポックのパラメータを補間することで、各エポック間のモデルパラメータをチューニングする。
モデル変更の決定境界をより適度なものにし、過度に適合する問題を緩和し、モデルをよりよく収束させ、より高いモデルロバスト性を達成するのに役立つ。
さらに,正規化平均正方形誤差(NMSE)を用いて,絶対等級ではなく,清潔な例と敵対的な例の相対等級を整列させることにより,ロバスト性の向上を図ることを提案する。
いくつかのベンチマークデータセットで実施された大規模な実験は、我々のフレームワークが畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の両方の堅牢性を大幅に改善できることを示した。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、小さな敵の摂動に対して脆弱である。
トレーニング中のロバストな特徴学習は、ロバスト性を大幅に向上させることができることを示す。
自然的特徴と敵対的特徴を整合させる多目的的手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [68.90574788107442]
敵の例は未知のディープニューラルネットワーク(DNN)への攻撃を可能にする
本稿では,ベイズ式をモデルパラメータとモデル入力の両方に組み込むことで,逆例の転送性を向上させる。
実験により,本手法がトランスファーベース攻撃における新たな最先端技術を実現することを示す。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - PIAT: Parameter Interpolation based Adversarial Training for Image
Classification [19.276850361815953]
補間ベース・アドバイザリアル・トレーニング(PIAT)と呼ばれる新しいフレームワークを提案し,トレーニング中に過去の情報をフル活用する。
我々のフレームワークは汎用的であり、他の敵の訓練手法と組み合わせることで、より堅牢な精度を高めることができる。
論文 参考訳(メタデータ) (2023-03-24T12:22:34Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。