論文の概要: Swap Agnostic Learning, or Characterizing Omniprediction via
Multicalibration
- arxiv url: http://arxiv.org/abs/2302.06726v2
- Date: Sun, 21 Jan 2024 13:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 22:14:36.677963
- Title: Swap Agnostic Learning, or Characterizing Omniprediction via
Multicalibration
- Title(参考訳): マルチキャリブレーションによるSwap Agnostic Learning, or characterizing Omniprediction by Multicalibration
- Authors: Parikshit Gopalan and Michael P. Kim and Omer Reingold
- Abstract要約: 我々は,Swap Agnostic Learningを導入し,研究する。
敵の強みにも拘わらず,あらゆる凸損失に対するスワップ・アグノスティック・ラーニングの実現可能性を示す。
- 参考スコア(独自算出の注目度): 6.91367883100748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce and study Swap Agnostic Learning. The problem can be phrased as
a game between a predictor and an adversary: first, the predictor selects a
hypothesis $h$; then, the adversary plays in response, and for each level set
of the predictor $\{x \in \mathcal{X} : h(x) = v\}$ selects a (different)
loss-minimizing hypothesis $c_v \in \mathcal{C}$; the predictor wins if $h$
competes with the adaptive adversary's loss. Despite the strength of the
adversary, we demonstrate the feasibility Swap Agnostic Learning for any convex
loss.
Somewhat surprisingly, the result follows through an investigation into the
connections between Omniprediction and Multicalibration. Omniprediction is a
new notion of optimality for predictors that strengthtens classical notions
such as agnostic learning. It asks for loss minimization guarantees (relative
to a hypothesis class) that apply not just for a specific loss function, but
for any loss belonging to a rich family of losses. A recent line of work shows
that omniprediction is implied by multicalibration and related multi-group
fairness notions. This unexpected connection raises the question: is
multi-group fairness necessary for omniprediction?
Our work gives the first affirmative answer to this question. We establish an
equivalence between swap variants of omniprediction and multicalibration and
swap agnostic learning. Further, swap multicalibration is essentially
equivalent to the standard notion of multicalibration, so existing learning
algorithms can be used to achieve any of the three notions. Building on this
characterization, we paint a complete picture of the relationship between
different variants of multi-group fairness, omniprediction, and Outcome
Indistinguishability. This inquiry reveals a unified notion of OI that captures
all existing notions of omniprediction and multicalibration.
- Abstract(参考訳): 我々は,Swap Agnostic Learningを紹介し,研究する。
この問題は、予測者と逆者の間のゲームとして表現することができる: まず、予測者は仮説 $h$ を選択し、その後、逆者が反応してプレイし、予測者の各レベル集合に対して$\{x \in \mathcal{x} : h(x) = v\}$ は(異なる)損失最小化仮説 $c_v \in \mathcal{c}$; 予測者は$h$ が適応逆者の損失と競合した場合に勝つ。
敵の強みにも拘わらず,あらゆる凸損失に対するSwap Agnostic Learningの実現可能性を示す。
意外なことに、結果はOmnipredictionとMulticalibrationの関連性の調査に続いた。
オムニプレディクション(Omniprediction)は、無知学習のような古典的な概念を補強する予測器の最適性の新しい概念である。
損失最小化は、特定の損失関数だけでなく、豊富な損失ファミリーに属する損失に対しても適用される(仮説クラスに関連する)。
最近の研究の行は、多元化と関連する多群フェアネス概念が全量化を暗示していることを示している。
この予期せぬ結びつきが疑問を提起する: 雑食に多群公正性は必要か?
私たちの仕事は、この質問に対する最初の肯定的な答えを与えます。
我々は,全述語スワップ変種とマルチカリブレーション,スワップ非依存学習の等価性を確立する。
さらに、スワップマルチキャリブレーションは基本的にはマルチキャリブレーションの標準概念と等価であるため、既存の学習アルゴリズムはこれらの3つの概念のいずれかを達成するために利用できる。
この特徴に基づいて、多群フェアネス、全方位法、およびアウトカム不識別性の異なる変種間の関係の完全な図面を描く。
この調査は、全述語と多重化のすべての既存の概念を捉えたoiの統一概念を明らかにする。
関連論文リスト
- Of Dice and Games: A Theory of Generalized Boosting [61.752303337418475]
我々は、コスト感受性と多目的損失の両方を組み込むために、ブースティングの有名な理論を拡張した。
我々は、コスト感受性と多目的強化の包括的理論を開発し、弱い学習保証の分類を提供する。
我々の特徴付けは、昇降の幾何学的解釈に依存しており、コスト感受性と多目的損失の間の驚くべき等価性を明らかにしている。
論文 参考訳(メタデータ) (2024-12-11T01:38:32Z) - Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Omnipredicting Single-Index Models with Multi-Index Models [9.794426212144453]
単調なリプシッツリンク関数によって引き起こされる任意の損失に対して、$varepsilon$-competitive であるオムニプレクタを出力する学習者を与える。
我々のアルゴリズムでは,$approx varepsilon-4$サンプルをほぼ線形時間で実行し,リンク関数がbi-Lipschitzであれば$approx varepsilon-2$に改善する。
論文 参考訳(メタデータ) (2024-11-20T07:20:49Z) - Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Bandit-Feedback Online Multiclass Classification: Variants and Tradeoffs [32.29254118429081]
我々は,帯域幅フィードバックの下での最適誤りが,全情報ケースの最適誤りよりも少なくとも$O(k)$倍高いことを示す。
また、ランダム化学習者と決定論的学習者の間のギャップに対して、$tildeTheta(k)$のほぼ最適な境界を示す。
論文 参考訳(メタデータ) (2024-02-12T07:20:05Z) - Loss Minimization through the Lens of Outcome Indistinguishability [11.709566373491619]
我々は凸損失と最近のOmnipredictionの概念について新しい視点を提示する。
設計上、Los OIは直感的かつ直感的に全滅を意味する。
一般化モデルから生じる損失の重要な集合に対する損失 OI は、完全な多重校正を必要としないことを示す。
論文 参考訳(メタデータ) (2022-10-16T22:25:27Z) - Omnipredictors for Constrained Optimization [5.969079530101132]
本稿では,制約付き最適化問題に対するオムニプレクタの獲得方法を示す。
また、使用する制約がいわゆる群フェアネスの概念である場合に、この概念がもたらす意味についても検討する。
論文 参考訳(メタデータ) (2022-09-15T17:04:49Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - A Weaker Faithfulness Assumption based on Triple Interactions [89.59955143854556]
より弱い仮定として, 2$-adjacency faithfulness を提案します。
より弱い仮定の下で適用可能な因果発見のための音方向規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T13:04:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。