論文の概要: Calibration without Ground Truth
- arxiv url: http://arxiv.org/abs/2601.19862v1
- Date: Tue, 27 Jan 2026 18:18:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.431915
- Title: Calibration without Ground Truth
- Title(参考訳): 地中真実のない校正
- Authors: Yuqing Kong, Mingyu Song, Yizhou Wang, Yifan Wu,
- Abstract要約: より弱いがより良い校正基準を用いて、強いが誤校正されたモデルを改善するラベルフリーな後処理フレームワークを提案する。
私たちのフレームワークは、適切な損失を受けることなく、厳格なパフォーマンス改善を保証します。
- 参考スコア(独自算出の注目度): 13.47915629610472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Villalobos et al. [2024] predict that publicly available human text will be exhausted within the next decade. Thus, improving models without access to ground-truth labels becomes increasingly important. We propose a label-free post-processing framework that improves a strong but miscalibrated model using a weaker yet better-calibrated reference. Our framework guarantees a strict performance improvement under any proper loss. Our approach is based on a characterization of when strict improvement is possible: when the strong and reference models are not mutually calibrated. We formalize this condition, connect it to arbitrage and no-trade results from economics, and develop an efficient Bregman projection algorithm that guarantees worst-case loss reduction without labels. Experiments on representative LLMs across varying scales demonstrate that our label-free method significantly reduces proper losses and calibration errors, achieving performance competitive with supervised baselines.
- Abstract(参考訳): Villalobos et al[2024]は、今後10年以内に一般公開された人間のテキストが枯渇すると予想している。
そのため, 地道ラベルを使わずにモデルを改善することがますます重要となる。
より弱いがより良い校正基準を用いて、強いが誤校正されたモデルを改善するラベルフリーな後処理フレームワークを提案する。
私たちのフレームワークは、適切な損失を受けることなく、厳格なパフォーマンス改善を保証します。
我々のアプローチは、強いモデルと参照モデルが相互に校正されていない場合の厳密な改善が可能かの特徴に基づいている。
我々は、この条件を定式化し、経済学の仲裁と非貿易結果に接続し、ラベルなしで最悪の損失を低減できる効率的なブレグマン予測アルゴリズムを開発する。
ラベルフリー手法は, 適切な損失と校正誤差を著しく低減し, 教師付きベースラインと性能的に競合することを示す。
関連論文リスト
- Calibrated Language Models and How to Find Them with Label Smoothing [12.584298923765688]
大規模言語モデル(LLM)は、命令追従能力を改善することで、より強力な対話型エージェントとして振る舞うことができる。
自然言語処理(NLP)の最近の進歩は、命令追従能力の向上を通じて、より強力な対話的エージェントとして振る舞うための微調整された大規模言語モデル(LLM)を実現する機会を拡大している。
信頼性の高いモデル出力の 信頼性校正にどう影響するか 完全には研究されていない
論文 参考訳(メタデータ) (2025-08-01T02:12:20Z) - Practical estimation of the optimal classification error with soft labels and calibration [47.001801756596926]
我々は,ベイズ誤差,最適誤差率を推定するために,ソフトラベルを用いた以前の研究を拡張した。
我々は、破損したソフトラベルによる推定という、より困難な問題に取り組みます。
私たちのメソッドはインスタンスフリーです。つまり、入力インスタンスへのアクセスを前提としません。
論文 参考訳(メタデータ) (2025-05-27T06:04:57Z) - Enhancing Zero-Shot Vision Models by Label-Free Prompt Distribution Learning and Bias Correcting [55.361337202198925]
CLIPのようなヴィジュアル言語モデルは、適切なテキスト記述を使用する際に、顕著な一般化能力を示している。
本稿では,ラベル付きデータを必要としないゼロショット性能を向上する,**Frolic**と呼ばれるラベルフリーな分布学習とバイアス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-25T04:00:45Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Improved Adaptive Algorithm for Scalable Active Learning with Weak
Labeler [89.27610526884496]
Weak Labeler Active Cover (WL-AC)は、要求される精度を維持しながら、クエリの複雑さを低減するために、低品質の弱いラベルを堅牢に活用することができる。
受動学習と同一の精度を維持しつつラベル数を著しく削減し, 劣化したMNISTデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2022-11-04T02:52:54Z) - The Devil is in the Margin: Margin-based Label Smoothing for Network
Calibration [21.63888208442176]
ディープニューラルネットワークの優位な性能にもかかわらず、最近の研究では、それらが十分に校正されていないことが示されている。
現状のキャリブレーション損失に対する統一的制約最適化の視点を提供する。
我々は不等式制約に基づく単純で柔軟な一般化を提案し、ロジット距離に制御可能なマージンを課す。
論文 参考訳(メタデータ) (2021-11-30T14:21:47Z) - Lower-bounded proper losses for weakly supervised classification [73.974163801142]
本稿では,弱いラベルが与えられた分類の弱い教師付き学習の問題について議論する。
サベージ表現を双対化する教師付き学習における適切な損失を表す表現定理を導出する。
提案手法の有効性を,不適切な損失や非有界損失と比較して実験的に実証した。
論文 参考訳(メタデータ) (2021-03-04T08:47:07Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。