論文の概要: Swap Agnostic Learning, or Characterizing Omniprediction via
Multicalibration
- arxiv url: http://arxiv.org/abs/2302.06726v2
- Date: Sun, 21 Jan 2024 13:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 22:14:36.677963
- Title: Swap Agnostic Learning, or Characterizing Omniprediction via
Multicalibration
- Title(参考訳): マルチキャリブレーションによるSwap Agnostic Learning, or characterizing Omniprediction by Multicalibration
- Authors: Parikshit Gopalan and Michael P. Kim and Omer Reingold
- Abstract要約: 我々は,Swap Agnostic Learningを導入し,研究する。
敵の強みにも拘わらず,あらゆる凸損失に対するスワップ・アグノスティック・ラーニングの実現可能性を示す。
- 参考スコア(独自算出の注目度): 6.91367883100748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce and study Swap Agnostic Learning. The problem can be phrased as
a game between a predictor and an adversary: first, the predictor selects a
hypothesis $h$; then, the adversary plays in response, and for each level set
of the predictor $\{x \in \mathcal{X} : h(x) = v\}$ selects a (different)
loss-minimizing hypothesis $c_v \in \mathcal{C}$; the predictor wins if $h$
competes with the adaptive adversary's loss. Despite the strength of the
adversary, we demonstrate the feasibility Swap Agnostic Learning for any convex
loss.
Somewhat surprisingly, the result follows through an investigation into the
connections between Omniprediction and Multicalibration. Omniprediction is a
new notion of optimality for predictors that strengthtens classical notions
such as agnostic learning. It asks for loss minimization guarantees (relative
to a hypothesis class) that apply not just for a specific loss function, but
for any loss belonging to a rich family of losses. A recent line of work shows
that omniprediction is implied by multicalibration and related multi-group
fairness notions. This unexpected connection raises the question: is
multi-group fairness necessary for omniprediction?
Our work gives the first affirmative answer to this question. We establish an
equivalence between swap variants of omniprediction and multicalibration and
swap agnostic learning. Further, swap multicalibration is essentially
equivalent to the standard notion of multicalibration, so existing learning
algorithms can be used to achieve any of the three notions. Building on this
characterization, we paint a complete picture of the relationship between
different variants of multi-group fairness, omniprediction, and Outcome
Indistinguishability. This inquiry reveals a unified notion of OI that captures
all existing notions of omniprediction and multicalibration.
- Abstract(参考訳): 我々は,Swap Agnostic Learningを紹介し,研究する。
この問題は、予測者と逆者の間のゲームとして表現することができる: まず、予測者は仮説 $h$ を選択し、その後、逆者が反応してプレイし、予測者の各レベル集合に対して$\{x \in \mathcal{x} : h(x) = v\}$ は(異なる)損失最小化仮説 $c_v \in \mathcal{c}$; 予測者は$h$ が適応逆者の損失と競合した場合に勝つ。
敵の強みにも拘わらず,あらゆる凸損失に対するSwap Agnostic Learningの実現可能性を示す。
意外なことに、結果はOmnipredictionとMulticalibrationの関連性の調査に続いた。
オムニプレディクション(Omniprediction)は、無知学習のような古典的な概念を補強する予測器の最適性の新しい概念である。
損失最小化は、特定の損失関数だけでなく、豊富な損失ファミリーに属する損失に対しても適用される(仮説クラスに関連する)。
最近の研究の行は、多元化と関連する多群フェアネス概念が全量化を暗示していることを示している。
この予期せぬ結びつきが疑問を提起する: 雑食に多群公正性は必要か?
私たちの仕事は、この質問に対する最初の肯定的な答えを与えます。
我々は,全述語スワップ変種とマルチカリブレーション,スワップ非依存学習の等価性を確立する。
さらに、スワップマルチキャリブレーションは基本的にはマルチキャリブレーションの標準概念と等価であるため、既存の学習アルゴリズムはこれらの3つの概念のいずれかを達成するために利用できる。
この特徴に基づいて、多群フェアネス、全方位法、およびアウトカム不識別性の異なる変種間の関係の完全な図面を描く。
この調査は、全述語と多重化のすべての既存の概念を捉えたoiの統一概念を明らかにする。
関連論文リスト
- Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Bandit-Feedback Online Multiclass Classification: Variants and Tradeoffs [32.29254118429081]
我々は,帯域幅フィードバックの下での最適誤りが,全情報ケースの最適誤りよりも少なくとも$O(k)$倍高いことを示す。
また、ランダム化学習者と決定論的学習者の間のギャップに対して、$tildeTheta(k)$のほぼ最適な境界を示す。
論文 参考訳(メタデータ) (2024-02-12T07:20:05Z) - Agnostically Learning Single-Index Models using Omnipredictors [15.36798336447733]
任意のモノトーンとリプシッツのアクティベーションを持つSIM(Single-Index Models)を不可知的に学習する最初の結果を与える。
また、GLMtronのような標準アルゴリズムと非依存設定におけるロジスティック回帰の新しい保証も提供する。
論文 参考訳(メタデータ) (2023-06-18T18:40:07Z) - Loss Minimization through the Lens of Outcome Indistinguishability [11.709566373491619]
我々は凸損失と最近のOmnipredictionの概念について新しい視点を提示する。
設計上、Los OIは直感的かつ直感的に全滅を意味する。
一般化モデルから生じる損失の重要な集合に対する損失 OI は、完全な多重校正を必要としないことを示す。
論文 参考訳(メタデータ) (2022-10-16T22:25:27Z) - Omnipredictors for Constrained Optimization [5.969079530101132]
本稿では,制約付き最適化問題に対するオムニプレクタの獲得方法を示す。
また、使用する制約がいわゆる群フェアネスの概念である場合に、この概念がもたらす意味についても検討する。
論文 参考訳(メタデータ) (2022-09-15T17:04:49Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - A Variational Inequality Approach to Bayesian Regression Games [90.79402153164587]
我々は凸類の一意性の存在を証明し、それを滑らかなコスト関数に一般化する。
必然的に強い収束で解くための2つの簡単なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-03-24T22:33:11Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - A Weaker Faithfulness Assumption based on Triple Interactions [89.59955143854556]
より弱い仮定として, 2$-adjacency faithfulness を提案します。
より弱い仮定の下で適用可能な因果発見のための音方向規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T13:04:08Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。