論文の概要: How Global Calibration Strengthens Multiaccuracy
- arxiv url: http://arxiv.org/abs/2504.15206v1
- Date: Mon, 21 Apr 2025 16:22:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 14:38:14.15793
- Title: How Global Calibration Strengthens Multiaccuracy
- Title(参考訳): グローバルキャリブレーションがマルチ精度をいかに強化するか
- Authors: Sílvia Casacuberta, Parikshit Gopalan, Varun Kanade, Omer Reingold,
- Abstract要約: マルチ精度自体はかなり弱いが、グローバルキャリブレーションの追加は、そのパワーを大幅に向上させる。
また、クラス内のいくつかの概念がラベルと1/2ドル以上の相関を持つ必要があるような、弱い無知学習の制限形式が得られることも示している。
- 参考スコア(独自算出の注目度): 13.849487128339792
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiaccuracy and multicalibration are multigroup fairness notions for prediction that have found numerous applications in learning and computational complexity. They can be achieved from a single learning primitive: weak agnostic learning. Here we investigate the power of multiaccuracy as a learning primitive, both with and without the additional assumption of calibration. We find that multiaccuracy in itself is rather weak, but that the addition of global calibration (this notion is called calibrated multiaccuracy) boosts its power substantially, enough to recover implications that were previously known only assuming the stronger notion of multicalibration. We give evidence that multiaccuracy might not be as powerful as standard weak agnostic learning, by showing that there is no way to post-process a multiaccurate predictor to get a weak learner, even assuming the best hypothesis has correlation $1/2$. Rather, we show that it yields a restricted form of weak agnostic learning, which requires some concept in the class to have correlation greater than $1/2$ with the labels. However, by also requiring the predictor to be calibrated, we recover not just weak, but strong agnostic learning. A similar picture emerges when we consider the derivation of hardcore measures from predictors satisfying multigroup fairness notions. On the one hand, while multiaccuracy only yields hardcore measures of density half the optimal, we show that (a weighted version of) calibrated multiaccuracy achieves optimal density. Our results yield new insights into the complementary roles played by multiaccuracy and calibration in each setting. They shed light on why multiaccuracy and global calibration, although not particularly powerful by themselves, together yield considerably stronger notions.
- Abstract(参考訳): 多重精度と多重校正は、学習と計算の複雑さに多くの応用を見出した予測に対する多群公正の概念である。
それらは単一の学習プリミティブ(弱い無知の学習)から達成できる。
ここでは,キャリブレーションの仮定を加味することなく,学習プリミティブとしてのマルチ精度のパワーについて検討する。
マルチキャリブレーション自体はかなり弱いが、大域的なキャリブレーション(この概念はキャリブレーションされたマルチキャリブレーションと呼ばれる)の追加は、それまではマルチキャリブレーションというより強い概念を前提としてのみ知られていた含意を回復するのに十分なパワーを増大させる。
最良仮説が1/2$の相関を持つと仮定しても、マルチ精度予測器を後処理して弱い学習者を得る方法がないことを示すことによって、マルチ精度が標準弱無知学習ほど強力でないことを示す。
むしろ、クラス内のいくつかの概念はラベルと1/2ドル以上の相関を持つ必要がある。
しかし、予測器の校正も必要とすることで、弱いだけでなく、強い不可知学習を回復する。
同様の図は、多群フェアネスの概念を満たす予測器からハードコア測度の導出を考えると現れる。
一方、マルチ精度は、半分の密度のハードコア測度しか得られないが、(重み付きバージョンの)キャリブレーションされたマルチ精度が最適な密度を達成することを示す。
以上の結果から, マルチ精度とキャリブレーションによる相補的役割に対する新たな洞察が得られた。
彼らはなぜ多精度で大域的な校正を行うのかを明かしたが、それ自体は特に強力ではないが、共により強力な概念を生み出した。
関連論文リスト
- Rethinking Early Stopping: Refine, Then Calibrate [49.966899634962374]
校正誤差と校正誤差は,訓練中に同時に最小化されないことを示す。
我々は,早期停止とハイパーパラメータチューニングのための新しい指標を導入し,トレーニング中の改善誤差を最小限に抑える。
本手法は,任意のアーキテクチャとシームレスに統合し,多様な分類タスクにおける性能を継続的に向上する。
論文 参考訳(メタデータ) (2025-01-31T15:03:54Z) - When is Multicalibration Post-Processing Necessary? [12.628103786954487]
多重校正は有意義な不確実性推定を保証する予測器の特性である。
本研究は,マルチキャリブレーション後処理の有用性を評価するための総合的研究である。
我々は,マルチキャリブレーション後処理の実用的,効果的な応用に有用な,多くの独立した観測結果を蒸留する。
論文 参考訳(メタデータ) (2024-06-10T17:26:39Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - On Computationally Efficient Multi-Class Calibration [9.032290717007065]
プロジェクトのキャリブレーションは、下流の意思決定者全員に強い保証を与えます。
これは、ラベルに割り当てられた確率を$T$にまとめることで予測される確率が、完全に校正されたバイナリ予測器に近いことを保証している。
論文 参考訳(メタデータ) (2024-02-12T17:25:23Z) - Calibrated Uncertainty Quantification for Operator Learning via
Conformal Prediction [95.75771195913046]
本稿では, リスク制御型量子ニューラル演算子, 分布のない有限サンプル機能キャリブレーション等式予測法を提案する。
関数領域上の点の期待値として定義されるカバレッジ率に関する理論的キャリブレーションを保証する。
2次元ダーシー流と3次元自動車表面圧力予測タスクに関する実験結果から,我々の理論的結果が検証された。
論文 参考訳(メタデータ) (2024-02-02T23:43:28Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Low-Degree Multicalibration [16.99099840073075]
低Degree Multicalibration は、ますます強力なマルチグループフェアネスの概念の階層を定義する。
低次マルチキャリブレーションは完全マルチキャリブレーションよりもはるかに効率的であることを示す。
我々の研究は、低次多重校正がスイートスポット、ペアリング計算とサンプル効率を強い公正性と精度保証で表しているという説得力のある証拠を提示する。
論文 参考訳(メタデータ) (2022-03-02T17:24:55Z) - Sample Complexity of Uniform Convergence for Multicalibration [43.10452387619829]
多重校正誤差に対処し、予測誤差から分離する。
我々の研究は、多重校正誤差の統一収束保証のためのサンプル複雑性境界を与える。
論文 参考訳(メタデータ) (2020-05-04T18:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。