論文の概要: From Snow to Rain: Evaluating Robustness, Calibration, and Complexity of Model-Based Robust Training
- arxiv url: http://arxiv.org/abs/2601.09153v1
- Date: Wed, 14 Jan 2026 04:49:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.268665
- Title: From Snow to Rain: Evaluating Robustness, Calibration, and Complexity of Model-Based Robust Training
- Title(参考訳): 雪から雨へ:モデルベースロバストトレーニングにおけるロバスト性・校正・複雑度の評価
- Authors: Josué Martínez-Martínez, Olivia Brown, Giselle Zeno, Pooya Khorrami, Rajmonda Caceres,
- Abstract要約: 本研究では,学習したニュアンス変動モデルを利用して現実的な汚職を発生させるモデルに基づく学習手法のファミリーについて検討する。
未知空間におけるランダムなカバレッジと逆方向の洗練を組み合わせた新しいハイブリッド戦略について検討した。
- 参考スコア(独自算出の注目度): 5.284812806199192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness to natural corruptions remains a critical challenge for reliable deep learning, particularly in safety-sensitive domains. We study a family of model-based training approaches that leverage a learned nuisance variation model to generate realistic corruptions, as well as new hybrid strategies that combine random coverage with adversarial refinement in nuisance space. Using the Challenging Unreal and Real Environments for Traffic Sign Recognition dataset (CURE-TSR), with Snow and Rain corruptions, we evaluate accuracy, calibration, and training complexity across corruption severities. Our results show that model-based methods consistently outperform baselines Vanilla, Adversarial Training, and AugMix baselines, with model-based adversarial training providing the strongest robustness under across all corruptions but at the expense of higher computation and model-based data augmentation achieving comparable robustness with $T$ less computational complexity without incurring a statistically significant drop in performance. These findings highlight the importance of learned nuisance models for capturing natural variability, and suggest a promising path toward more resilient and calibrated models under challenging conditions.
- Abstract(参考訳): 自然の腐敗に対するロバスト性は、信頼性の高いディープラーニング、特に安全に敏感なドメインにとって重要な課題である。
学習したニュアンス変動モデルを利用して現実的な汚職を発生させるモデルベースのトレーニング手法のファミリーと、ランダムなカバレッジとニュアンス空間の敵の洗練を組み合わせた新たなハイブリッド戦略について検討する。
The Challenging Unreal and Real Environments for Traffic Sign Recognition dataset (CURE-TSR) with Snow and Rain corruptions, we evaluate accuracy, calibration and training complexity across corruption severities。
以上の結果から,モデルベース手法はバニラ,アディバーショナルトレーニング,アウグミクスのベースラインを一貫して上回り,全ての汚職に対して強力な強靭性を提供するモデルベース逆行訓練を行うが,高い計算とモデルベースデータ拡張を犠牲にして,統計的に有意な性能低下を生じさせることなく,同等の堅牢性を実現する。
これらの知見は、自然変動を捉えるための学習ニュアンスモデルの重要性を強調し、挑戦的な条件下でより弾力性と校正されたモデルへの有望な道のりを示唆している。
関連論文リスト
- Learning to be Reproducible: Custom Loss Design for Robust Neural Networks [4.3094059981414405]
予測精度とトレーニング安定性のバランスをとるカスタムロス関数(CLF)を提案する。
CLFは予測性能を犠牲にすることなくトレーニングを大幅に改善する。
これらの結果は、より安定的で信頼性があり、信頼できるニューラルネットワークを開発するための効率的かつ効率的な戦略として、CLFを確立している。
論文 参考訳(メタデータ) (2026-01-02T05:31:08Z) - A Validation Strategy for Deep Learning Models: Evaluating and Enhancing Robustness [0.8532585403388676]
そこで本研究では,学習データセットから直接,局所解析によって"弱頑な"サンプルを抽出する検証手法を提案する。
これらのサンプルは摂動に最も敏感なものであり、モデルの脆弱性の早期かつ敏感な指標として機能する。
CIFAR-10, CIFAR-100, ImageNetで学習したモデルに対して, 本手法の有効性を示す。
論文 参考訳(メタデータ) (2025-09-23T16:14:14Z) - Benchmarking the Spatial Robustness of DNNs via Natural and Adversarial Localized Corruptions [49.546479320670464]
本稿では,セグメンテーションモデルの空間的ロバスト性を評価するための特別な指標を紹介する。
本稿では,モデルロバスト性をより深く理解する手法として,地域対応型マルチアタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック分析を提案する。
その結果、モデルがこれらの2種類の脅威に異なる反応を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-04-02T11:37:39Z) - On the Diminishing Returns of Complex Robust RAG Training in the Era of Powerful LLMs [85.688901949146]
複雑な堅牢なトレーニング手法の利点は、言語モデルがより強力になるにつれて減少するのだろうか?
モデルキャパシティが増大するにつれて、高度なトレーニング戦略の限界ロバスト性利益は大幅に減少する。
さらなる調査により、より強力なモデルは、単純な訓練体制下であっても、より優れた信頼性キャリブレーション、クロスデータセットの一般化能力、より効果的な注意パターンを自然に示すことが示される。
論文 参考訳(メタデータ) (2025-02-17T03:34:31Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - Learning Sample Reweighting for Accuracy and Adversarial Robustness [15.591611864928659]
本稿では,クラス条件付きマージンの概念に基づいて,個々のトレーニングサンプルによる損失の軽減を学習する,新たな逆トレーニングフレームワークを提案する。
我々の手法は、関連する手法や最先端のベースラインと比較して、クリーンかつ堅牢な精度を一貫して改善する。
論文 参考訳(メタデータ) (2022-10-20T18:25:11Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Precise Tradeoffs in Adversarial Training for Linear Regression [55.764306209771405]
本稿では,ガウス的特徴を伴う線形回帰の文脈における対人訓練の役割を,正確かつ包括的に理解する。
我々は,同時代のミニマックス対逆訓練手法によって達成された標準/ロバスト精度とそれに対応するトレードオフを正確に特徴づける。
逆行訓練アルゴリズムの理論は、様々な要因(トレーニングデータのサイズや品質、モデルの過度化など)がこれらの2つの競合するアキュラシー間のトレードオフにどのように影響するかを厳密に研究する上で役立ちます。
論文 参考訳(メタデータ) (2020-02-24T19:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。