論文の概要: Characterizing notions of omniprediction via multicalibration
- arxiv url: http://arxiv.org/abs/2302.06726v1
- Date: Mon, 13 Feb 2023 22:25:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 16:55:52.317524
- Title: Characterizing notions of omniprediction via multicalibration
- Title(参考訳): マルチキャリブレーションによる全述語概念の特徴付け
- Authors: Parikshit Gopalan and Michael P. Kim and Omer Reingold
- Abstract要約: 多重群フェアネスの概念は、驚くほど強い全単数述語の概念を暗示している。
我々の研究は、多群公正性と損失最小化と結果の不一致との間の関係の理解を深める。
- 参考スコア(独自算出の注目度): 9.066817876491053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent line of work shows that notions of multigroup fairness imply
surprisingly strong notions of omniprediction: loss minimization guarantees
that apply not just for a specific loss function, but for any loss belonging to
a large family of losses. While prior work has derived various notions of
omniprediction from multigroup fairness guarantees of varying strength, it was
unknown whether the connection goes in both directions.
In this work, we answer this question in the affirmative, establishing
equivalences between notions of multicalibration and omniprediction. The new
definitions that hold the key to this equivalence are new notions of swap
omniprediction, which are inspired by swap regret in online learning. We show
that these can be characterized exactly by a strengthening of multicalibration
that we refer to as swap multicalibration. One can go from standard to swap
multicalibration by a simple discretization; moreover all known algorithms for
standard multicalibration in fact give swap multicalibration. In the context of
omniprediction though, introducing the notion of swapping results in provably
stronger notions, which require a predictor to minimize expected loss at least
as well as an adaptive adversary who can choose both the loss function and
hypothesis based on the value predicted by the predictor.
Building on these characterizations, we paint a complete picture of the
relationship between the various omniprediction notions in the literature by
establishing implications and separations between them. Our work deepens our
understanding of the connections between multigroup fairness, loss minimization
and outcome indistinguishability and establishes new connections to classic
notions in online learning.
- Abstract(参考訳): 損失最小化は、特定の損失関数だけでなく、大きな損失の族に属する損失に対しても適用される。
先行研究は、様々な強度の多群フェアネス保証から全方位の様々な概念を導出したが、接続が両方の方向に進むかどうかは不明である。
本研究では、この問いに肯定的に答え、多分法の概念と全述法の間の同値性を確立する。
この等価性の鍵を握る新しい定義は、オンライン学習におけるスワップ後悔から着想を得た、スワップ・オムニプレディクションという新しい概念である。
これらをスワップ多重化と呼ぶ多重化の強化によって正確に特徴づけることができることを示す。
さらに、標準多重化のための既知のすべてのアルゴリズムは、実際には、スワップ多重化を与える。
しかし、全推定の文脈において、スワップの結果の概念を導入することは、予測者が少なくとも期待損失を最小限に抑えること、そして、予測者が予測した値に基づいて損失関数と仮説の両方を選択できる適応的逆者を必要とする、確実に強い概念をもたらす。
これらの特徴に基づいて,文献における様々な全述語概念との関係を,それらの間の意味と分離の確立によって完全な図式化する。
本研究は,マルチグループフェアネス,損失最小化,結果の不明瞭性の相互関係の理解を深め,オンライン学習における古典的概念への新たなつながりを確立する。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Omnipredicting Single-Index Models with Multi-Index Models [9.794426212144453]
単調なリプシッツリンク関数によって引き起こされる任意の損失に対して、$varepsilon$-competitive であるオムニプレクタを出力する学習者を与える。
我々のアルゴリズムでは,$approx varepsilon-4$サンプルをほぼ線形時間で実行し,リンク関数がbi-Lipschitzであれば$approx varepsilon-2$に改善する。
論文 参考訳(メタデータ) (2024-11-20T07:20:49Z) - Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Bandit-Feedback Online Multiclass Classification: Variants and Tradeoffs [32.29254118429081]
我々は,帯域幅フィードバックの下での最適誤りが,全情報ケースの最適誤りよりも少なくとも$O(k)$倍高いことを示す。
また、ランダム化学習者と決定論的学習者の間のギャップに対して、$tildeTheta(k)$のほぼ最適な境界を示す。
論文 参考訳(メタデータ) (2024-02-12T07:20:05Z) - Loss Minimization through the Lens of Outcome Indistinguishability [11.709566373491619]
我々は凸損失と最近のOmnipredictionの概念について新しい視点を提示する。
設計上、Los OIは直感的かつ直感的に全滅を意味する。
一般化モデルから生じる損失の重要な集合に対する損失 OI は、完全な多重校正を必要としないことを示す。
論文 参考訳(メタデータ) (2022-10-16T22:25:27Z) - Omnipredictors for Constrained Optimization [5.969079530101132]
本稿では,制約付き最適化問題に対するオムニプレクタの獲得方法を示す。
また、使用する制約がいわゆる群フェアネスの概念である場合に、この概念がもたらす意味についても検討する。
論文 参考訳(メタデータ) (2022-09-15T17:04:49Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - A Variational Inequality Approach to Bayesian Regression Games [90.79402153164587]
我々は凸類の一意性の存在を証明し、それを滑らかなコスト関数に一般化する。
必然的に強い収束で解くための2つの簡単なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-03-24T22:33:11Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - A Weaker Faithfulness Assumption based on Triple Interactions [89.59955143854556]
より弱い仮定として, 2$-adjacency faithfulness を提案します。
より弱い仮定の下で適用可能な因果発見のための音方向規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T13:04:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。