論文の概要: Class Adaptive Conformal Training
- arxiv url: http://arxiv.org/abs/2601.09522v1
- Date: Wed, 14 Jan 2026 14:41:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.43184
- Title: Class Adaptive Conformal Training
- Title(参考訳): クラス適応型コンフォーマルトレーニング
- Authors: Badr-Eddine Marani, Julio Silva-Rodriguez, Ismail Ben Ayed, Maria Vakalopoulou, Stergios Christodoulidis, Jose Dolz,
- Abstract要約: コンフォーマル予測は不確実性定量化のための原則化された枠組みを提供する。
クラス適応型コンフォーマルトレーニング(CaCT)は,分布仮説を作らずに,クラス条件で予測セットを形作ることを学習する。
CaCTは、コンフォーマルなトレーニング方法よりも一貫して優れています。
- 参考スコア(独自算出の注目度): 32.3021967024497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have achieved remarkable success across a variety of tasks, yet they often suffer from unreliable probability estimates. As a result, they can be overconfident in their predictions. Conformal Prediction (CP) offers a principled framework for uncertainty quantification, yielding prediction sets with rigorous coverage guarantees. Existing conformal training methods optimize for overall set size, but shaping the prediction sets in a class-conditional manner is not straightforward and typically requires prior knowledge of the data distribution. In this work, we introduce Class Adaptive Conformal Training (CaCT), which formulates conformal training as an augmented Lagrangian optimization problem that adaptively learns to shape prediction sets class-conditionally without making any distributional assumptions. Experiments on multiple benchmark datasets, including standard and long-tailed image recognition as well as text classification, demonstrate that CaCT consistently outperforms prior conformal training methods, producing significantly smaller and more informative prediction sets while maintaining the desired coverage guarantees.
- Abstract(参考訳): ディープニューラルネットワークは様々なタスクで顕著な成功を収めてきたが、しばしば信頼できない確率推定に悩まされている。
結果として、彼らは予測を過信することができる。
Conformal Prediction (CP) は不確実性定量化のための原則的なフレームワークを提供し、厳密なカバレッジ保証を備えた予測セットを提供する。
既存のコンフォメーショントレーニング手法は全体の設定サイズを最適化するが、クラス条件で予測セットを形作るのは簡単ではなく、典型的にはデータ分布の事前知識を必要とする。
本研究では, 適応型適応型コンフォーマルトレーニング(CaCT)を導入し, コンフォーマルトレーニングをラグランジアン最適化問題として定式化し, 正規分布を仮定することなく, クラス条件で予測セットを形作ることを適応的に学習する。
標準的な画像認識や長い尾の画像分類を含む複数のベンチマークデータセットの実験では、CaCTは従来よりずっと優れており、望まれるカバレッジ保証を維持しながら、より小さく、より有意義な予測セットを生成する。
関連論文リスト
- The Coverage Principle: How Pre-Training Enables Post-Training [70.25788947586297]
予備学習が最終モデルの成功をどう形作るかを検討する。
下流の性能予測におけるカバレッジのパワーを説明するメカニズムを明らかにする。
論文 参考訳(メタデータ) (2025-10-16T17:53:50Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - C-Adapter: Adapting Deep Classifiers for Efficient Conformal Prediction Sets [19.318945675529456]
精度を犠牲にすることなく共形予測器の効率を向上させるためにtextbfConformal Adapter (C-Adapter) を導入する。
特に、命令保存関数のクラスとしてアダプタを実装し、提案した損失に合わせて調整する。
C-Adapterを使用すると、このモデルは間違ったラベルに対して非常に高い非整合性スコアを生成する傾向にある。
論文 参考訳(メタデータ) (2024-10-12T07:28:54Z) - Trustworthy Classification through Rank-Based Conformal Prediction Sets [9.559062601251464]
本稿では,分類モデルに適したランクベーススコア関数を用いた新しいコンフォメーション予測手法を提案する。
提案手法は,そのサイズを管理しながら,所望のカバレッジ率を達成する予測セットを構築する。
コントリビューションには、新しい共形予測法、理論的解析、経験的評価が含まれる。
論文 参考訳(メタデータ) (2024-07-05T10:43:41Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Learning Optimal Conformal Classifiers [32.68483191509137]
コンフォーマル予測(CP)は、真のクラスを含む信頼セットをユーザが特定した確率で予測するために用いられる。
本稿では, CP を用いた学習において, コンフォーマルラッパーをエンド・ツー・エンドとしたトレーニングモデルを用いて, CP による差別化戦略について検討する。
コンフォメーショントレーニング(ConfTr)は、平均信頼度セットのサイズを小さくすることで、最先端のCP手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-18T11:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。