論文の概要: Gradient Rectification for Robust Calibration under Distribution Shift
- arxiv url: http://arxiv.org/abs/2508.19830v1
- Date: Wed, 27 Aug 2025 12:28:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.624627
- Title: Gradient Rectification for Robust Calibration under Distribution Shift
- Title(参考訳): 分布シフト下におけるロバスト校正のためのグラディエント整流
- Authors: Yilin Zhang, Cai Xu, You Wu, Ziyu Guan, Wei Zhao,
- Abstract要約: ディープニューラルネットワークは、しばしば過信な予測を生成し、安全クリティカルなアプリケーションにおける信頼性を損なう。
対象とするドメイン情報にアクセスせずに動作する新しいキャリブレーションフレームワークを提案する。
本手法は, 配電時の校正性能を向上するとともに, 配電時の校正性能を向上する。
- 参考スコア(独自算出の注目度): 28.962407770230882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks often produce overconfident predictions, undermining their reliability in safety-critical applications. This miscalibration is further exacerbated under distribution shift, where test data deviates from the training distribution due to environmental or acquisition changes. While existing approaches improve calibration through training-time regularization or post-hoc adjustment, their reliance on access to or simulation of target domains limits their practicality in real-world scenarios. In this paper, we propose a novel calibration framework that operates without access to target domain information. From a frequency-domain perspective, we identify that distribution shifts often distort high-frequency visual cues exploited by deep models, and introduce a low-frequency filtering strategy to encourage reliance on domain-invariant features. However, such information loss may degrade In-Distribution (ID) calibration performance. Therefore, we further propose a gradient-based rectification mechanism that enforces ID calibration as a hard constraint during optimization. Experiments on synthetic and real-world shifted datasets, including CIFAR-10/100-C and WILDS, demonstrate that our method significantly improves calibration under distribution shift while maintaining strong in-distribution performance.
- Abstract(参考訳): ディープニューラルネットワークは、しばしば過信な予測を生成し、安全クリティカルなアプリケーションにおける信頼性を損なう。
この誤校正は、テストデータが環境や取得の変化によるトレーニング分布から逸脱する分散シフトによってさらに悪化する。
既存のアプローチでは、トレーニング時正規化やポストホック調整によって校正を改善するが、ターゲットドメインへのアクセスやシミュレーションに依存しているため、現実のシナリオでは実用性が制限される。
本稿では,対象ドメイン情報にアクセスせずに動作可能な新しいキャリブレーションフレームワークを提案する。
周波数領域の観点からは、分布シフトが深部モデルによって悪用される高周波視覚的手がかりを歪ませることがしばしばあり、ドメイン不変性への依存を促すために低周波フィルタリング戦略を導入する。
しかし、そのような情報損失は、In-Distribution (ID)キャリブレーション性能を低下させる可能性がある。
そこで本研究では,最適化時にIDキャリブレーションをハード制約として適用する勾配補正機構を提案する。
CIFAR-10/100-C や WILDS など,合成および実世界のシフトデータセットを用いた実験により,分散シフト下でのキャリブレーションが向上し,配電性能が向上することを示した。
関連論文リスト
- Sample Margin-Aware Recalibration of Temperature Scaling [20.87493013833571]
近年のディープラーニングの進歩は予測精度を大幅に改善した。
現代のニューラルネットワークは体系的に過信され、安全クリティカルなシナリオに展開するリスクを生じさせる。
本稿では,上位2つのロジット間のマージンに基づいて,ロジットを正確にスケールする軽量でデータ効率の高いリカバリ手法を提案する。
論文 参考訳(メタデータ) (2025-06-30T03:35:05Z) - Generalized Incremental Learning under Concept Drift across Evolving Data Streams [32.62505920071586]
実世界のデータストリームは、概念の漂流を特徴とする固有の非定常性を示し、適応学習システムにとって重要な課題となっている。
我々は,GILCD (Generalized Incremental Learning under Concept Drift) を定式化し,オープン環境ストリーミング環境における分布空間とラベル空間の連成進化を特徴付ける。
本稿では,新しいプロトタイプをベース表現と融合させ,新しいクラス識別を安定的に実現するCalibrated Source-Free Adaptation (CSFA)を提案する。
論文 参考訳(メタデータ) (2025-06-06T04:36:24Z) - Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Robust Calibration with Multi-domain Temperature Scaling [86.07299013396059]
我々は,複数の領域からのデータを活用することで,分散シフトを処理するシステムキャリブレーションモデルを開発した。
提案手法は,分布シフト時のキャリブレーションを改善するために,領域内のロバスト性を利用する。
論文 参考訳(メタデータ) (2022-06-06T17:32:12Z) - Simple Calibration via Geodesic Kernels [9.999034479498889]
決定の森やディープニューラルネットワークのような深い差別的アプローチは、最近、多くの重要な現実世界のシナリオで応用を見出した。
しかし、これらの学習アルゴリズムを安全クリティカルなアプリケーションにデプロイすることは、特に分布内領域と分布外領域の両方のキャリブレーションを確保することに懸念を生じさせる。
論文 参考訳(メタデータ) (2022-01-31T05:07:16Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。