論文の概要: On Disentangled and Locally Fair Representations
- arxiv url: http://arxiv.org/abs/2205.02673v1
- Date: Thu, 5 May 2022 14:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 21:07:06.794290
- Title: On Disentangled and Locally Fair Representations
- Title(参考訳): 乱れと局所公正表現について
- Authors: Yaron Gurovich, Sagie Benaim, Lior Wolf
- Abstract要約: 人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
- 参考スコア(独自算出の注目度): 95.6635227371479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of performing classification in a manner that is fair
for sensitive groups, such as race and gender. This problem is tackled through
the lens of disentangled and locally fair representations. We learn a locally
fair representation, such that, under the learned representation, the
neighborhood of each sample is balanced in terms of the sensitive attribute.
For instance, when a decision is made to hire an individual, we ensure that the
$K$ most similar hired individuals are racially balanced. Crucially, we ensure
that similar individuals are found based on attributes not correlated to their
race. To this end, we disentangle the embedding space into two representations.
The first of which is correlated with the sensitive attribute while the second
is not. We apply our local fairness objective only to the second, uncorrelated,
representation. Through a set of experiments, we demonstrate the necessity of
both disentangled and local fairness for obtaining fair and accurate
representations. We evaluate our method on real-world settings such as
predicting income and re-incarceration rate and demonstrate the advantage of
our method.
- Abstract(参考訳): 人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
この問題は、アンタングルおよび局所フェア表現のレンズを通して取り組まれる。
局所的に公平な表現を学習し、学習された表現の下では、各サンプルの近傍が敏感な属性の観点でバランスをとる。
例えば、個人を雇う決定が下された場合、最も類似した雇用された個人が人種的にバランスをとることを保証します。
重要なことは、類似した個人が彼らの人種と相関しない属性に基づいて発見されることを保証する。
この目的のために、埋め込み空間を2つの表現に分解する。
第1は機密属性と相関するが、第2は関連しない。
局所フェアネスの目的を2番目の非相関表現にのみ適用する。
一連の実験を通じて,公平かつ正確な表現を得るためには,不連続と局所的公平の両方の必要性を実証する。
本手法は実世界において所得予測や再収容率などの評価を行い,その利点を実証する。
関連論文リスト
- Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Novel Approach to Fairness in Automated Decision-Making using
Affective Normalization [2.0178765779788495]
本研究では、感情的、社会的に偏りのある成分を測定する方法を提案し、その除去を可能にする。
つまり、意思決定のプロセスを考えると、これらの感情的測定は決定における感情的バイアスを排除し、メソッド自体によって定義されたカテゴリの集合を公平にする。
論文 参考訳(メタデータ) (2022-05-02T11:48:53Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Latent Space Smoothing for Individually Fair Representations [12.739528232133495]
本稿では,高次元データの個々人の公正性を証明するための最初の表現学習手法LASSIを紹介する。
我々の重要な洞察は、生成的モデリングの最近の進歩を活用して、生成的潜在空間における類似した個人の集合を捉えることである。
ランダムな平滑化を用いて、類似した個人を密にマッピングし、ダウンストリームアプリケーションの局所ロバスト性検証がエンドツーエンドの公正性認証をもたらすことを保証します。
論文 参考訳(メタデータ) (2021-11-26T18:22:42Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。