論文の概要: Adaptive Weight Decay: On The Fly Weight Decay Tuning for Improving
Robustness
- arxiv url: http://arxiv.org/abs/2210.00094v1
- Date: Fri, 30 Sep 2022 21:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:04:08.779038
- Title: Adaptive Weight Decay: On The Fly Weight Decay Tuning for Improving
Robustness
- Title(参考訳): 適応的重量減衰:ロバスト性向上のためのフライ重量減衰チューニングについて
- Authors: Amin Ghiasi, Ali Shafahi, Reza Ardekani
- Abstract要約: 適応的な重み減衰を導入し,各トレーニング中の重み劣化に対するハイパーパラメータ反復を自動調整する。
この単純な修正は、余分なデータを必要とすることなく、ロバスト性に大きな改善をもたらす可能性があることを示す。
- 参考スコア(独自算出の注目度): 11.025054100323585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce adaptive weight decay, which automatically tunes the
hyper-parameter for weight decay during each training iteration. For
classification problems, we propose changing the value of the weight decay
hyper-parameter on the fly based on the strength of updates from the
classification loss (i.e., gradient of cross-entropy), and the regularization
loss (i.e., $\ell_2$-norm of the weights). We show that this simple
modification can result in large improvements in adversarial robustness -- an
area which suffers from robust overfitting -- without requiring extra data.
Specifically, our reformulation results in 20% relative robustness improvement
for CIFAR-100, and 10% relative robustness improvement on CIFAR-10 comparing to
traditional weight decay. In addition, this method has other desirable
properties, such as less sensitivity to learning rate, and smaller weight
norms, which the latter contributes to robustness to overfitting to label
noise, and pruning.
- Abstract(参考訳): 適応的な重み減衰を導入し、トレーニングイテレーション毎にハイパーパラメーターを自動的に調整する。
分類問題については,分類損失(クロスエントロピーの勾配)と正規化損失(重量の$\ell_2$-norm)からの更新の強さに基づいて,フライ上の重み崩壊ハイパーパラメータの値を変更することを提案する。
この単純な修正は、余分なデータを必要とすることなく、敵の堅牢性、すなわち頑強なオーバーフィッティングに苦しむ領域を大きく改善する可能性があることを示す。
具体的には,CIFAR-100では20%の相対ロバスト性改善,CIFAR-10では10%の相対ロバスト性改善が達成された。
また, 学習速度に対する感度の低下, 重量ノルムの低下など, ラベルノイズへの過度な適応, プルーニングなど, その他の望ましい特性も備えている。
関連論文リスト
- A Generalized Framework with Adaptive Weighted Soft-Margin for
Imbalanced SVM Classification [11.783263199297075]
ソフトマージン重み付きSVM(AW-WSVM)に対する適応重み関数を用いた新しい一般化フレームワークを提案する。
未拘束ソフトマージン支持ベクトルマシンに重量係数を導入し、各トレーニング前にサンプル重量を更新する。
実験結果から,提案手法は精度,基準値,G平均値において優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-13T09:43:14Z) - Optimizing for ROC Curves on Class-Imbalanced Data by Training over a
Family of Loss Functions [3.34836339238119]
条件付き損失訓練は、厳しい階級不均衡の下で信頼性の高い分類器を訓練するために使用することができる。
不均衡な分類問題に条件付き損失訓練を適用する方法を開発した。
論文 参考訳(メタデータ) (2024-02-08T04:31:21Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Improving Generalization of Adversarial Training via Robust Critical
Fine-Tuning [19.91117174405902]
ディープニューラルネットワークは敵の例に影響を受けやすく、重要なアプリケーションにおいて重大なセキュリティリスクを生じさせる。
本稿では,対向的強靭性を損なうことなく一般化を促進する新しい手法であるロバストネスクリティカルファインタニング(RiFT)を提案する。
論文 参考訳(メタデータ) (2023-08-01T09:02:34Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Data Augmentation Can Improve Robustness [21.485435979018256]
アドリアルトレーニングは、トレーニング中に堅牢なテスト精度が低下し始める現象である、堅牢なオーバーフィッティングに苦しむ。
モデルウェイト平均化と組み合わせることで、データの増大がロバストな精度を大幅に向上させることを示した。
特に、$ell_infty$ 標準束縛されたサイズ $epsilon = 8/255$ の摂動に対して、我々のモデルは外部データを使わずに60.07%の堅牢な精度に達する。
論文 参考訳(メタデータ) (2021-11-09T18:57:00Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robust Value Iteration for Continuous Control Tasks [99.00362538261972]
シミュレーションから物理システムへ制御ポリシを転送する場合、そのポリシは、動作の変動に対して堅牢でなければならない。
本稿では、動的プログラミングを用いて、コンパクトな状態領域上での最適値関数を計算するRobust Fitted Value Iterationを提案する。
より深い強化学習アルゴリズムや非ロバストなアルゴリズムと比較して、ロバストな値の方が頑健であることを示す。
論文 参考訳(メタデータ) (2021-05-25T19:48:35Z) - FixNorm: Dissecting Weight Decay for Training Deep Neural Networks [7.820667552233989]
本研究では,2つのメカニズムを直接制御するFixNormという新しいトレーニング手法を提案する。
ImageNet分類タスクでは、FixNormによるEfficientNet-B0のトレーニングは77.7%を達成し、元のベースラインを明確なマージンで上回る。
論文 参考訳(メタデータ) (2021-03-29T05:41:56Z) - Dynamic R-CNN: Towards High Quality Object Detection via Dynamic
Training [70.2914594796002]
ラベル割り当て基準と回帰損失関数の形状を調整するための動的R-CNNを提案する。
我々はResNet-50-FPNベースラインを1.9%のAPと5.5%のAP$_90$で改善し、余分なオーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-04-13T15:20:25Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。