論文の概要: Adversarial Feature Stacking for Accurate and Robust Predictions
- arxiv url: http://arxiv.org/abs/2103.13124v1
- Date: Wed, 24 Mar 2021 12:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:58:24.534124
- Title: Adversarial Feature Stacking for Accurate and Robust Predictions
- Title(参考訳): 精度・ロバスト予測のための逆特徴重み付け
- Authors: Faqiang Liu, Rong Zhao, Luping Shi
- Abstract要約: Adversarial Feature Stacking (AFS)モデルは、さまざまなレベルの堅牢性と精度を持つ機能を共同で活用することができる。
CIFAR-10およびCIFAR-100データセット上でのAFSモデルの評価を行った。
- 参考スコア(独自算出の注目度): 4.208059346198116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have achieved remarkable performance on a variety
of applications but are extremely vulnerable to adversarial perturbation. To
address this issue, various defense methods have been proposed to enhance model
robustness. Unfortunately, the most representative and promising methods, such
as adversarial training and its variants, usually degrade model accuracy on
benign samples, limiting practical utility. This indicates that it is difficult
to extract both robust and accurate features using a single network under
certain conditions, such as limited training data, resulting in a trade-off
between accuracy and robustness. To tackle this problem, we propose an
Adversarial Feature Stacking (AFS) model that can jointly take advantage of
features with varied levels of robustness and accuracy, thus significantly
alleviating the aforementioned trade-off. Specifically, we adopt multiple
networks adversarially trained with different perturbation budgets to extract
either more robust features or more accurate features. These features are then
fused by a learnable merger to give final predictions. We evaluate the AFS
model on CIFAR-10 and CIFAR-100 datasets with strong adaptive attack methods,
which significantly advances the state-of-the-art in terms of the trade-off.
Without extra training data, the AFS model achieves a benign accuracy
improvement of 6% on CIFAR-10 and 9% on CIFAR-100 with comparable or even
stronger robustness than the state-of-the-art adversarial training methods.
This work demonstrates the feasibility to obtain both accurate and robust
models under the circumstances of limited training data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、様々なアプリケーションで顕著な性能を達成したが、敵の摂動に対して非常に脆弱である。
この問題に対処するため,モデルロバスト性を高めるために,様々な防御手法が提案されている。
残念なことに、最も代表的で有望な方法、例えば敵対的なトレーニングやその変種は、通常、実効性を制限し、良質なサンプルのモデルの精度を低下させる。
これは、限られたトレーニングデータなど、特定の条件下で単一のネットワークを使用してロバストかつ正確な特徴を抽出することが困難であり、その結果、正確性とロバスト性の間のトレードオフが生じることを示している。
この問題に対処するため,我々は,ロバスト性と精度のレベルが異なる特徴を協調的に活用し,上記のトレードオフを大幅に緩和できるadversarial feature stacking (afs)モデルを提案する。
具体的には、異なる摂動予算で敵対的に訓練された複数のネットワークを採用し、より堅牢な特徴やより正確な特徴を抽出する。
これらの特徴は、最終的な予測をするために学習可能な合併によって融合される。
我々は,CIFAR-10およびCIFAR-100データセットのAFSモデルに対して,強い適応攻撃手法を用いて評価を行い,トレードオフの観点から最先端の手法を著しく向上させる。
余分なトレーニングデータがないと、afsモデルはcifar-10では6%、cifar-100では9%の精度向上を達成でき、最先端の対向訓練法と同等あるいはそれ以上の堅牢性が得られる。
本研究は,限られたトレーニングデータを用いて,正確かつ堅牢なモデルを得ることが可能であることを示す。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - Adversarial Feature Alignment: Balancing Robustness and Accuracy in Deep
Learning via Adversarial Training [10.099179580467737]
敵の攻撃に対する堅牢性を高めることによりこの問題を軽減するために、敵の訓練が使用される。
このアプローチは典型的には、クリーンで非敵対的なサンプルに対するモデルの標準精度を低下させる。
本稿では,これらの問題に対処するために,AFA (Adversarial Feature Alignment) と呼ばれる新たな対人訓練手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T14:51:20Z) - MixedNUTS: Training-Free Accuracy-Robustness Balance via Nonlinearly Mixed Classifiers [41.56951365163419]
MixedNUTSは、ロバストな分類器の出力ロジットを3つのパラメータしか持たない非線形変換で処理する訓練不要の手法である。
MixedNUTSは変換されたロジットを確率に変換し、それらを全体の出力として混合する。
CIFAR-10、CIFAR-100、ImageNetデータセットでは、MixedNUTSの精度とほぼSOTAの堅牢性を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-03T21:12:36Z) - Reducing Adversarial Training Cost with Gradient Approximation [0.3916094706589679]
そこで本研究では,厳密なモデル構築に要するコストを削減するために,GAAT(グラディエント近似)を用いた対戦訓練法を提案する。
提案手法は,データセット上でのモデルテスト精度に比較して,トレーニング時間の最大60%を節約する。
論文 参考訳(メタデータ) (2023-09-18T03:55:41Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Mutual Adversarial Training: Learning together is better than going
alone [82.78852509965547]
モデル間の相互作用が知識蒸留による堅牢性に与える影響について検討する。
本稿では,複数のモデルを同時に訓練する相互対人訓練(MAT)を提案する。
MATは、ホワイトボックス攻撃下で、モデル堅牢性と最先端メソッドを効果的に改善することができる。
論文 参考訳(メタデータ) (2021-12-09T15:59:42Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial Training with Rectified Rejection [114.83821848791206]
本稿では,信頼度(T-Con)を確実性オラクルとして利用し,信頼度を補正してT-Conを予測することを提案する。
軽度の条件下では、正当性(R-Con)拒絶器と信頼性(R-Con)拒絶器を結合して、不正に分類された入力と正しく分類された入力を区別できることを示す。
論文 参考訳(メタデータ) (2021-05-31T08:24:53Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - To be Robust or to be Fair: Towards Fairness in Adversarial Training [83.42241071662897]
逆行訓練アルゴリズムは、異なるデータ群間の精度と堅牢性に深刻な違いをもたらす傾向がある。
本稿では、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T02:21:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。