論文の概要: Multiaccurate Proxies for Downstream Fairness
- arxiv url: http://arxiv.org/abs/2107.04423v1
- Date: Fri, 9 Jul 2021 13:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:37:41.489164
- Title: Multiaccurate Proxies for Downstream Fairness
- Title(参考訳): 下流フェアネスのための多精度プロキシ
- Authors: Emily Diana, Wesley Gill, Michael Kearns, Krishnaram Kenthapadi, Aaron
Roth, and Saeed Sharifi-Malvajerdi
- Abstract要約: 本研究では,センシティブな特徴が訓練時に利用できない場合に,人口的公正な条件に従わなければならないモデルを訓練する際の課題について検討する。
センシティブな機能にアクセス可能な"上流"学習者は、他の属性からこれらの機能のプロキシモデルを学ぶことができる。
この目的のために、下流モデルクラスで十分であるようなマルチ精度の制約に従うことを示します。
- 参考スコア(独自算出の注目度): 20.36220509798361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of training a model that must obey demographic fairness
conditions when the sensitive features are not available at training time -- in
other words, how can we train a model to be fair by race when we don't have
data about race? We adopt a fairness pipeline perspective, in which an
"upstream" learner that does have access to the sensitive features will learn a
proxy model for these features from the other attributes. The goal of the proxy
is to allow a general "downstream" learner -- with minimal assumptions on their
prediction task -- to be able to use the proxy to train a model that is fair
with respect to the true sensitive features. We show that obeying multiaccuracy
constraints with respect to the downstream model class suffices for this
purpose, and provide sample- and oracle efficient-algorithms and generalization
bounds for learning such proxies. In general, multiaccuracy can be much easier
to satisfy than classification accuracy, and can be satisfied even when the
sensitive features are hard to predict.
- Abstract(参考訳): 私たちは、センシティブな機能がトレーニング時に利用できない場合に、人口統計学的公正条件に従わなければならないモデルをトレーニングする問題を調査します。
私たちはフェアネスパイプラインの観点を採用しており、センシティブな機能にアクセス可能な"上流"学習者は、他の属性からこれらの機能のプロキシモデルを学びます。
プロキシの目標は、一般的な"ダウンストリーム"学習者 -- 予測タスクを最小限の仮定で -- が、プロキシを使用して、真に敏感な機能に対して公平なモデルをトレーニングできるようにすることです。
我々は,この目的のために,下流モデルクラスに対する多精度制約に従うことを示し,サンプルおよびoracleの効率的なアルゴリズムと,そのようなプロキシを学ぶための一般化境界を提供する。
一般に、多重精度は分類の正確さよりもずっと容易に満足でき、感度の高い特徴が予測しにくい場合でも満足できる。
関連論文リスト
- Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Hyper-parameter Tuning for Fair Classification without Sensitive
Attribute Access [14.186572480390064]
トレーニングデータや検証データの機密属性にアクセスすることなく、公平な分類器を訓練するフレームワークを提案する。
我々は,これらのプロキシラベルが平均精度制約下での公平性を最大化するために利用できることを理論的,実証的に示す。
論文 参考訳(メタデータ) (2023-02-02T19:45:50Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - Identifying Wrongly Predicted Samples: A Method for Active Learning [6.976600214375139]
本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
論文 参考訳(メタデータ) (2020-10-14T09:00:42Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。