論文の概要: Metric-Fair Classifier Derandomization
- arxiv url: http://arxiv.org/abs/2206.07826v2
- Date: Fri, 17 Jun 2022 04:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 10:33:52.066326
- Title: Metric-Fair Classifier Derandomization
- Title(参考訳): Metric-Fair Classifier Derandomization
- Authors: Jimmy Wu, Yatong Chen, Yang Liu
- Abstract要約: 機械学習における分類器のデランドマイズ問題について検討する。
事前のデランドマイズ法は, ほぼ最大値の不等式であることを示す。
我々はこれらの2つの間の魅力的なトレードオフを提供するデランドマイズ手順を考案する。
- 参考スコア(独自算出の注目度): 6.269732593554894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of classifier derandomization in machine learning: given
a stochastic binary classifier $f: X \to [0,1]$, sample a deterministic
classifier $\hat{f}: X \to \{0,1\}$ that approximates the output of $f$ in
aggregate over any data distribution. Recent work revealed how to efficiently
derandomize a stochastic classifier with strong output approximation
guarantees, but at the cost of individual fairness -- that is, if $f$ treated
similar inputs similarly, $\hat{f}$ did not. In this paper, we initiate a
systematic study of classifier derandomization with metric fairness guarantees.
We show that the prior derandomization approach is almost maximally
metric-unfair, and that a simple ``random threshold'' derandomization achieves
optimal fairness preservation but with weaker output approximation. We then
devise a derandomization procedure that provides an appealing tradeoff between
these two: if $f$ is $\alpha$-metric fair according to a metric $d$ with a
locality-sensitive hash (LSH) family, then our derandomized $\hat{f}$ is, with
high probability, $O(\alpha)$-metric fair and a close approximation of $f$. We
also prove generic results applicable to all (fair and unfair) classifier
derandomization procedures, including a bias-variance decomposition and
reductions between various notions of metric fairness.
- Abstract(参考訳): 機械学習における分類器のデランドマイゼーションの問題を考察する: 確率的二項分類器$f: X \to [0,1]$, 決定論的分類器$\hat{f}: X \to \{0,1\}$, 任意のデータ分布に対して集約された$f$の出力を近似する。
最近の研究により、強い出力近似保証を持つ確率的分類器を効率的にデランダライズする方法が明らかになったが、個々のフェアネスのコストで -- つまり、$f$ が同様の入力を処理した場合、$\hat{f}$ は成立しなかった。
本稿では,計量公正性保証を伴う分類器のデランドマイゼーションの系統的研究を開始する。
従来のデランドマイズ手法は, ほぼ最大距離不等式であり, 単純な「ランダムしきい値」デランドマイズ法は, より弱い出力近似で最適公平性保存を実現する。
もし$f$ が$\alpha$-metric fair で、locality-sensitive hash (lsh) ファミリを持つメトリック $d$ に基づいて、我々の非ランダム化された$\hat{f}$ は、高い確率で$o(\alpha)$-metric fair であり、$f$ の近似値である。
また、バイアス分散分解や様々な距離的公平性の概念間の縮小を含むすべての(公平かつ不公平な)分類子非ランダム化手順に適用可能な汎用的な結果も証明する。
関連論文リスト
- Rényi divergence-based uniformity guarantees for $k$-universal hash functions [59.90381090395222]
普遍ハッシュ関数は、ソースの出力を有限アルファベット上のランダム文字列にマッピングする。
ミンエントロピーによって測定されるように、ほぼ均一なランダムビットを蒸留することが可能であることを示す。
論文 参考訳(メタデータ) (2024-10-21T19:37:35Z) - How to Shrink Confidence Sets for Many Equivalent Discrete Distributions? [17.52590726972374]
機械学習問題における置換等価性を利用する。
信頼集合のサイズは$O/sqrtn_k)$と$O/max_kin K n_k)$で縮小することを示す。
論文 参考訳(メタデータ) (2024-07-22T14:19:19Z) - SPLITZ: Certifiable Robustness via Split Lipschitz Randomized Smoothing [8.471466670802817]
敵の例に証明可能な堅牢性を提供するための2つのアプローチがある。
実用的で斬新なアプローチである textitSPLITZ を提案する。
textitSPLITZは、既存の最先端のアプローチを一貫して改善することを示す。
論文 参考訳(メタデータ) (2024-07-03T05:13:28Z) - Near-Optimal Mean Estimation with Unknown, Heteroskedastic Variances [15.990720051907864]
Subset-of-Signalsモデルはヘテロスケダティック平均推定のベンチマークとして機能する。
我々のアルゴリズムは、このオープンな問題を対数的要因に分解する。
たとえ$d=2$であっても、我々の手法は各サンプルのばらつきを知るのに匹敵するレートを可能にします。
論文 参考訳(メタデータ) (2023-12-05T01:13:10Z) - Replicable Clustering [57.19013971737493]
我々は,統計学的な$k$-medians,統計学的な$k$-means,統計学的な$k$-centers問題のアルゴリズムをブラックボックス方式で近似ルーチンを用いて提案する。
理論的結果を検証するブラックボックスとしてsklearnの$k$-means++実装を用いた2次元合成分布の実験も行っている。
論文 参考訳(メタデータ) (2023-02-20T23:29:43Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Random quantum circuits transform local noise into global white noise [118.18170052022323]
低忠実度状態におけるノイズランダム量子回路の測定結果の分布について検討する。
十分に弱くユニタリな局所雑音に対して、一般的なノイズ回路インスタンスの出力分布$p_textnoisy$間の相関(線形クロスエントロピーベンチマークで測定)は指数関数的に減少する。
ノイズが不整合であれば、出力分布は、正確に同じ速度で均一分布の$p_textunif$に近づく。
論文 参考訳(メタデータ) (2021-11-29T19:26:28Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - On the robustness of randomized classifiers to adversarial examples [11.359085303200981]
確率指標を用いて局所リプシッツ性を強制するランダム化分類器の堅牢性の新しい概念を紹介する。
本研究の結果は,温和な仮説下での幅広い機械学習モデルに適用可能であることを示す。
トレーニングしたすべての堅牢なモデルは、最新の精度を同時に達成できます。
論文 参考訳(メタデータ) (2021-02-22T10:16:58Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z) - Randomized Smoothing of All Shapes and Sizes [29.40896576138737]
最適」ノルムの適切な概念に対して、任意の「ニッチ」ノルムに対する最適な滑らか化はノルムの *Wulff Crystal* によって与えられるレベル集合を持つことを示す。
ここでは、*バナッハ空間コタイプ*の理論を通して、現在のランダム化平滑化技術に基本的な限界を示す。
論文 参考訳(メタデータ) (2020-02-19T11:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。