論文の概要: The Scope of Multicalibration: Characterizing Multicalibration via
Property Elicitation
- arxiv url: http://arxiv.org/abs/2302.08507v1
- Date: Thu, 16 Feb 2023 18:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 12:55:22.363188
- Title: The Scope of Multicalibration: Characterizing Multicalibration via
Property Elicitation
- Title(参考訳): マルチキャリブレーションのスコープ:プロパティ・エミュレーションによるマルチキャリブレーションの特徴付け
- Authors: Georgy Noarov, Aaron Roth
- Abstract要約: 連続スカラー分布特性に対して$Gamma$ と $Gamma$ が選択可能である場合に限り、多重校正予測器を作成可能であることを示す。
負の面から、非楕円性連続特性に対して、真の分布予測器でさえ校正されない単純なデータ分布が存在することを示す。
- 参考スコア(独自算出の注目度): 12.197909808303411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We make a connection between multicalibration and property elicitation and
show that (under mild technical conditions) it is possible to produce a
multicalibrated predictor for a continuous scalar distributional property
$\Gamma$ if and only if $\Gamma$ is elicitable.
On the negative side, we show that for non-elicitable continuous properties
there exist simple data distributions on which even the true distributional
predictor is not calibrated. On the positive side, for elicitable $\Gamma$, we
give simple canonical algorithms for the batch and the online adversarial
setting, that learn a $\Gamma$-multicalibrated predictor. This generalizes past
work on multicalibrated means and quantiles, and in fact strengthens existing
online quantile multicalibration results.
To further counter-weigh our negative result, we show that if a property
$\Gamma^1$ is not elicitable by itself, but is elicitable conditionally on
another elicitable property $\Gamma^0$, then there is a canonical algorithm
that jointly multicalibrates $\Gamma^1$ and $\Gamma^0$; this generalizes past
work on mean-moment multicalibration.
Finally, as applications of our theory, we provide novel algorithmic and
impossibility results for fair (multicalibrated) risk assessment.
- Abstract(参考訳): マルチキャリブレーションとプロパティのエリシテーションを結びつけ、(穏やかな技術的条件の下で)連続的なスカラー分布性である$\gamma$ と$\gamma$ がエリシブルである場合に限り、マルチキャリブド予測器を作成可能であることを示す。
負の面では、非エリーシブルな連続的性質に対して、真の分布予測子さえ校正されない単純なデータ分布が存在することを示す。
好ましくは、$\gamma$ を得られるために、バッチとオンラインの敵設定のための単純な正準アルゴリズムを与え、$\gamma$-multicalibrated predictor を学習します。
これは、多重校正手段と量子化に関する過去の研究を一般化し、実際、既存のオンライン量子化結果を強化する。
さらに、負の結果を和らげるために、もし$\gamma^1$ がそれ自体で導出可能ではなく、別の導出可能なプロパティ $\gamma^0$ 上で条件付きで導出可能であれば、$\gamma^1$ と $\gamma^0$ を共同で多重化する正準アルゴリズムが存在することを示します。
最後に,本理論の応用として,公平なリスクアセスメントのための新しいアルゴリズムおよび予測不可能性結果を提供する。
関連論文リスト
- Variance-Dependent Regret Bounds for Non-stationary Linear Bandits [52.872628573907434]
報酬分布の分散と$B_K$の分散を利用するアルゴリズムを提案する。
Restarted Weighted$textOFUL+$とRestarted$textSAVE+$の2つの新しいアルゴリズムを紹介します。
特に、V_K$が$K$よりはるかに小さい場合、我々のアルゴリズムは、異なる設定下での非定常線形バンドレットの最先端結果よりも優れている。
論文 参考訳(メタデータ) (2024-03-15T23:36:55Z) - On Computationally Efficient Multi-Class Calibration [9.032290717007065]
プロジェクトのキャリブレーションは、下流の意思決定者全員に強い保証を与えます。
これは、ラベルに割り当てられた確率を$T$にまとめることで予測される確率が、完全に校正されたバイナリ予測器に近いことを保証している。
論文 参考訳(メタデータ) (2024-02-12T17:25:23Z) - Distributed Extra-gradient with Optimal Complexity and Communication
Guarantees [60.571030754252824]
複数のプロセッサ/ワーカー/クライアントがローカルなデュアルベクトルにアクセス可能なマルチGPU設定において、モノトン変分不等式(VI)問題を考察する。
モノトーンVI問題に対するデファクトアルゴリズムであるExtra-gradientは、通信効率が良くないように設計されている。
そこで本稿では,VI の解法に適した非バイアスで適応的な圧縮手法である量子化一般化外部勾配 (Q-GenX) を提案する。
論文 参考訳(メタデータ) (2023-08-17T21:15:04Z) - Improved Bound for Mixing Time of Parallel Tempering [4.68299658663016]
パラレルテンパリングのための新しい下限を、$log L$を除く全てのパラメータにマルチモーダル依存を持つスペクトルギャップ上で提示する。
これにより、モードの数に指数関数的に依存する最良の既存の境界が改善される。
スペクトルギャップ上の仮定上界は$log L$に指数関数依存しており、ある意味では我々の境界は密であることを示す。
論文 参考訳(メタデータ) (2023-04-03T19:03:22Z) - HappyMap: A Generalized Multi-calibration Method [23.086009024383024]
マルチキャリブレーション(英: Multi-calibration)はアルゴリズムフェアネスの分野を起源とする、強力で進化した概念である。
この研究では、$(f(x)-y)$ という用語を1つの特定の写像とみなし、豊かなクラスの写像のパワーを探求する。
マルチキャリブレーションを一般化したtextitHappyMap を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:05:01Z) - Distributional Hardness Against Preconditioned Lasso via Erasure-Robust
Designs [22.41443027099101]
標準スパースランダム設計は, 逆測定消去に対して高い確率で頑健であることを示す。
消去下での任意のスパース信号の部分的回復性が圧縮センシングで研究されたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-03-05T22:16:05Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Convergence Rates of Stochastic Gradient Descent under Infinite Noise
Variance [14.06947898164194]
ヘビーテールは様々なシナリオで勾配降下 (sgd) で現れる。
SGDの収束保証は、潜在的に無限のばらつきを持つ状態依存性および重尾ノイズ下で提供します。
その結果,SGDは無限に分散した重尾雑音下であっても,地球最適値に収束できることが示された。
論文 参考訳(メタデータ) (2021-02-20T13:45:11Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。