論文の概要: Impossibility results for fair representations
- arxiv url: http://arxiv.org/abs/2107.03483v1
- Date: Wed, 7 Jul 2021 21:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:47:35.188569
- Title: Impossibility results for fair representations
- Title(参考訳): 公正表現に対する不可能な結果
- Authors: Tosca Lechner, Shai Ben-David, Sushant Agarwal and Nivasini
Ananthakrishnan
- Abstract要約: 我々は、それを用いて訓練された異なるタスクに対して、分類器の公平性を保証できないことを論じる。
Odds Equalityのようなより洗練された公正の概念は、タスク固有のラベル付け規則を考慮していない表現によって保証されない。
- 参考スコア(独自算出の注目度): 12.483260526189447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing awareness to fairness in machine learning and the
realization of the central role that data representation has in data processing
tasks, there is an obvious interest in notions of fair data representations.
The goal of such representations is that a model trained on data under the
representation (e.g., a classifier) will be guaranteed to respect some fairness
constraints.
Such representations are useful when they can be fixed for training models on
various different tasks and also when they serve as data filtering between the
raw data (known to the representation designer) and potentially malicious
agents that use the data under the representation to learn predictive models
and make decisions.
A long list of recent research papers strive to provide tools for achieving
these goals.
However, we prove that this is basically a futile effort. Roughly stated, we
prove that no representation can guarantee the fairness of classifiers for
different tasks trained using it; even the basic goal of achieving
label-independent Demographic Parity fairness fails once the marginal data
distribution shifts. More refined notions of fairness, like Odds Equality,
cannot be guaranteed by a representation that does not take into account the
task specific labeling rule with respect to which such fairness will be
evaluated (even if the marginal data distribution is known a priory).
Furthermore, except for trivial cases, no representation can guarantee Odds
Equality fairness for any two different tasks, while allowing accurate label
predictions for both.
While some of our conclusions are intuitive, we formulate (and prove) crisp
statements of such impossibilities, often contrasting impressions conveyed by
many recent works on fair representations.
- Abstract(参考訳): 機械学習における公正意識の高まりと、データ表現がデータ処理タスクにおいて持つ中心的な役割の実現により、公正なデータ表現の概念に明らかな関心がある。
このような表現の目標は、表現の下でデータに基づいて訓練されたモデル(例えば、分類器)が、公正な制約を尊重することを保証することである。
このような表現は、さまざまなタスクにおけるモデルのトレーニングや、生のデータ(表現デザイナーとして知られる)と、その表現の下でデータを使用して予測モデルを学び、決定を下す可能性のある悪意のあるエージェントの間のデータフィルタリングとして機能する場合に有用である。
最近の研究論文の長いリストは、これらの目標を達成するためのツールの提供に取り組んでいる。
しかし、これは基本的に無駄な努力であることを証明します。
ラベルに依存しないDigital Parity Fairnessを達成するという基本的な目標でさえ、限界データ分布がシフトすると失敗する。
Odds Equality のようなより洗練された公正の概念は、その公正性を評価するタスク固有のラベル付け規則を考慮に入れない表現によって保証できない(たとえ限界データの分布が優先事項であるとしても)。
さらに、自明なケースを除いて、2つの異なるタスクに対するオッズ平等を保証できる表現は存在しない。
結論のいくつかは直感的であるが、そのような不合理性の明快な言明を定式化(そして証明)し、しばしば、公正表現に関する最近の多くの研究によって伝えられた印象と対比する。
関連論文リスト
- Learning Interpretable Fair Representations [5.660855954377282]
本稿では,表現学習過程において解釈可能な公正表現を学習するためのフレームワークを提案する。
我々の表現は解釈可能であることに加えて、下流分類タスクにおいてわずかに精度が高く、より公平な結果が得られる。
論文 参考訳(メタデータ) (2024-06-24T15:01:05Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Fair Representation: Guaranteeing Approximate Multiple Group Fairness
for Unknown Tasks [17.231251035416648]
本研究では,未知のタスクに対して公平性を保証し,複数のフェアネス概念を同時に活用できるかどうかを考察する。
公平な表現は全ての予測タスクに対して公平性を保証するわけではないが、重要なタスクのサブセットに対して公平性を保証する。
論文 参考訳(メタデータ) (2021-09-01T17:29:11Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z) - Learning Smooth and Fair Representations [24.305894478899948]
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
論文 参考訳(メタデータ) (2020-06-15T21:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。