論文の概要: Consistency-Guided Temperature Scaling Using Style and Content
Information for Out-of-Domain Calibration
- arxiv url: http://arxiv.org/abs/2402.15019v1
- Date: Thu, 22 Feb 2024 23:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 16:10:24.519292
- Title: Consistency-Guided Temperature Scaling Using Style and Content
Information for Out-of-Domain Calibration
- Title(参考訳): 領域外校正のためのスタイル情報とコンテンツ情報を用いた一貫性誘導型温度スケーリング
- Authors: Wonjeong Choi, Jungwuk Park, Dong-Jun Han, Younghyun Park, Jaekyun
Moon
- Abstract要約: 領域外キャリブレーション性能を向上させるために,整合性誘導温度スケーリング(CTS)を提案する。
私たちは、複数のドメイン設定でデータサンプルを適切に表現できる重要なコンポーネントであるスタイルとコンテントという2つの異なる側面を考慮に入れています。
これは、精度を損なうことなくソースドメインのみを使用することで実現でき、我々のスキームは様々な信頼できるAIシステムに直接適用できる。
- 参考スコア(独自算出の注目度): 24.89907794192497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research interests in the robustness of deep neural networks against domain
shifts have been rapidly increasing in recent years. Most existing works,
however, focus on improving the accuracy of the model, not the calibration
performance which is another important requirement for trustworthy AI systems.
Temperature scaling (TS), an accuracy-preserving post-hoc calibration method,
has been proven to be effective in in-domain settings, but not in out-of-domain
(OOD) due to the difficulty in obtaining a validation set for the unseen domain
beforehand. In this paper, we propose consistency-guided temperature scaling
(CTS), a new temperature scaling strategy that can significantly enhance the
OOD calibration performance by providing mutual supervision among data samples
in the source domains. Motivated by our observation that over-confidence
stemming from inconsistent sample predictions is the main obstacle to OOD
calibration, we propose to guide the scaling process by taking consistencies
into account in terms of two different aspects -- style and content -- which
are the key components that can well-represent data samples in multi-domain
settings. Experimental results demonstrate that our proposed strategy
outperforms existing works, achieving superior OOD calibration performance on
various datasets. This can be accomplished by employing only the source domains
without compromising accuracy, making our scheme directly applicable to various
trustworthy AI systems.
- Abstract(参考訳): 近年,ドメインシフトに対するディープニューラルネットワークの堅牢性に対する研究の関心が高まっている。
しかし、既存の作品の多くはモデルの精度の向上に焦点を合わせており、これは信頼できるaiシステムにとって重要な要件であるキャリブレーション性能ではない。
温度スケール法 (TS) はドメイン内設定において有効であるが, 未確認領域の検証セットを事前に取得することが困難であるため, ドメイン外設定では有効であることが証明されている。
本稿では,ソース領域のデータサンプル間の相互監視を提供することにより,oodキャリブレーション性能を著しく向上させる新たな温度スケーリング戦略である,一貫性誘導型温度スケーリング(cts)を提案する。
一貫性のないサンプル予測による過信がoodキャリブレーションの主な障害であるという観測に動機づけられ、複数のドメインの設定でデータサンプルを適切に表現できる重要なコンポーネントであるスタイルとコンテンツという2つの異なる側面の観点から構成を考慮に入れて、スケーリングプロセスを導くことを提案します。
実験の結果,提案手法は既存の手法よりも優れており,各種データセット上でのOOD校正性能に優れていた。
これは、精度を損なうことなくソースドメインのみを使用することで実現でき、我々のスキームは様々な信頼できるAIシステムに直接適用できる。
関連論文リスト
- Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - PseudoCal: A Source-Free Approach to Unsupervised Uncertainty
Calibration in Domain Adaptation [87.69789891809562]
非教師なしドメイン適応(UDA)は、未ラベルのターゲットドメインのモデルの精度を向上する顕著な進歩を目撃している。
UDAモデルの安全な配置の重要な側面であるターゲット領域における予測不確実性の校正は、あまり注目されていない。
PseudoCalは、ラベルのないターゲットデータにのみ依存するソースフリーキャリブレーション手法である。
論文 参考訳(メタデータ) (2023-07-14T17:21:41Z) - Expectation consistency for calibration of neural networks [24.073221004661427]
期待整合性(EC)という新しいキャリブレーション手法を導入する。
ECは、平均検証の信頼性が正しいラベルの平均比率と一致することを強制する。
我々は,ECが温度スケーリングを著しく上回る事例について論じる。
論文 参考訳(メタデータ) (2023-03-05T11:21:03Z) - Beyond In-Domain Scenarios: Robust Density-Aware Calibration [48.00374886504513]
ディープラーニングモデルをキャリブレーションして不確実性を認識した予測を生成することは、ディープニューラルネットワークが安全クリティカルなアプリケーションにますますデプロイされるため、非常に重要です。
k-nearest-neighbors(KNN)に基づく精度保存と密度認識手法であるDACを提案する。
DACはドメインシフトやOODのキャリブレーション性能の堅牢性を高めつつ,ドメイン内予測の不確実性評価に優れることを示す。
論文 参考訳(メタデータ) (2023-02-10T08:48:32Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。