論文の概要: HappyMap: A Generalized Multi-calibration Method
- arxiv url: http://arxiv.org/abs/2303.04379v1
- Date: Wed, 8 Mar 2023 05:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 14:59:37.917764
- Title: HappyMap: A Generalized Multi-calibration Method
- Title(参考訳): HappyMap: 一般化多重校正法
- Authors: Zhun Deng, Cynthia Dwork, Linjun Zhang
- Abstract要約: マルチキャリブレーション(英: Multi-calibration)はアルゴリズムフェアネスの分野を起源とする、強力で進化した概念である。
この研究では、$(f(x)-y)$ という用語を1つの特定の写像とみなし、豊かなクラスの写像のパワーを探求する。
マルチキャリブレーションを一般化したtextitHappyMap を提案する。
- 参考スコア(独自算出の注目度): 23.086009024383024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-calibration is a powerful and evolving concept originating in the field
of algorithmic fairness. For a predictor $f$ that estimates the outcome $y$
given covariates $x$, and for a function class $\mathcal{C}$, multi-calibration
requires that the predictor $f(x)$ and outcome $y$ are indistinguishable under
the class of auditors in $\mathcal{C}$. Fairness is captured by incorporating
demographic subgroups into the class of functions~$\mathcal{C}$. Recent work
has shown that, by enriching the class $\mathcal{C}$ to incorporate appropriate
propensity re-weighting functions, multi-calibration also yields
target-independent learning, wherein a model trained on a source domain
performs well on unseen, future, target domains(approximately) captured by the
re-weightings.
Formally, multi-calibration with respect to $\mathcal{C}$ bounds
$\big|\mathbb{E}_{(x,y)\sim \mathcal{D}}[c(f(x),x)\cdot(f(x)-y)]\big|$ for all
$c \in \mathcal{C}$. In this work, we view the term $(f(x)-y)$ as just one
specific mapping, and explore the power of an enriched class of mappings. We
propose \textit{HappyMap}, a generalization of multi-calibration, which yields
a wide range of new applications, including a new fairness notion for
uncertainty quantification (conformal prediction), a novel technique for
conformal prediction under covariate shift, and a different approach to
analyzing missing data, while also yielding a unified understanding of several
existing seemingly disparate algorithmic fairness notions and
target-independent learning approaches.
We give a single \textit{HappyMap} meta-algorithm that captures all these
results, together with a sufficiency condition for its success.
- Abstract(参考訳): マルチキャリブレーション(multi-calibration)は、アルゴリズムの公平性から生まれた、強力で進化した概念である。
covariates $x$ と関数クラス $\mathcal{c}$ を与えられた結果として推定する予測子 $f$ に対して、マルチキャリブレーションでは、予測子 $f(x)$ と結果 $y$ は、$\mathcal{c}$ の監査子のクラスで区別できない。
フェアネスは、階層的部分群を関数のクラス ~$\mathcal{c}$ に組み込むことで得られる。
近年の研究では、適切な確率再重み付け関数を組み込むために$\mathcal{C}$のクラスをリッチ化することにより、マルチキャリブレーションはターゲット非依存的な学習をもたらすことが示されている。
形式的には、$\mathcal{c}$バウンド$\big|\mathbb{e}_{(x,y)\sim \mathcal{d}}[c(f(x),x)\cdot(f(x)-y)]\big|$がすべての$c \in \mathcal{c}$に対して成立する。
この研究では、$(f(x)-y)$という用語をただ一つの特定のマッピングとして捉え、豊富なマッピングクラスのパワーを探求する。
本研究では,不確実性定量化のための新しいフェアネス概念(コンフォーマル予測),共変量シフト下でのコンフォメーション予測のための新しい手法,欠落データ解析のための異なるアプローチなど,幅広い新しい応用を導いてくれるマルチキャリブレーションの一般化である \textit{happymap} を提案する。
これらの結果をすべてキャプチャする単一 \textit{HappyMap} メタアルゴリズムと、その成功のための十分条件を提供します。
関連論文リスト
- One-Bit Quantization and Sparsification for Multiclass Linear
Classification via Regularized Regression [20.710343135282116]
最高の分類は、$f(cdot) = |cdot|2$ と $lambda to infty$ によって達成されることを示す。
f(cdot) = |cdot|_infty$ とほぼ同等に機能するスパースと1ビットの解を見つけることは、大きめの $lambda$ regime においてしばしば可能である。
論文 参考訳(メタデータ) (2024-02-16T06:39:40Z) - Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - How Many and Which Training Points Would Need to be Removed to Flip this
Prediction? [34.9118528281516]
トレーニングデータの最小サブセットを$mathcalS_t$で識別する問題を考える。
トレーニング前に $mathcalS_t$ を含むインスタンスが削除された場合、所定のテストポイント $x_t$ の分類が異なるだろう。
影響関数に基づいて$mathcalS_t$を求めるため,比較的高速な近似法を提案する。
論文 参考訳(メタデータ) (2023-02-04T13:55:12Z) - LegendreTron: Uprising Proper Multiclass Loss Learning [22.567234503869845]
損失関数は教師付き学習の基盤として機能し、しばしばモデル開発の前に選択される。
最近の研究は、損失とモデルを共同で引き起こそうとしている。
sc LegendreTron は,多クラス問題に対するアンフォプロペラの正準損失と確率を共同で学習する,新規かつ実用的な方法である。
論文 参考訳(メタデータ) (2023-01-27T13:10:45Z) - Randomized Block-Coordinate Optimistic Gradient Algorithms for
Root-Finding Problems [8.0153031008486]
大規模設定における非線形方程式の解を近似する2つの新しいアルゴリズムを開発した。
我々は,機械学習における顕著な応用を網羅する大規模有限サム包含のクラスに,本手法を適用した。
論文 参考訳(メタデータ) (2023-01-08T21:46:27Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。