論文の概要: Fair Group-Shared Representations with Normalizing Flows
- arxiv url: http://arxiv.org/abs/2201.06336v1
- Date: Mon, 17 Jan 2022 10:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 03:51:16.731524
- Title: Fair Group-Shared Representations with Normalizing Flows
- Title(参考訳): 正規化フローを持つフェアグループ共有表現
- Authors: Mattia Cerrato and Marius K\"oppel and Alexander Segner and Stefan
Kramer
- Abstract要約: 本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
- 参考スコア(独自算出の注目度): 68.29997072804537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The issue of fairness in machine learning stems from the fact that historical
data often displays biases against specific groups of people which have been
underprivileged in the recent past, or still are. In this context, one of the
possible approaches is to employ fair representation learning algorithms which
are able to remove biases from data, making groups statistically
indistinguishable. In this paper, we instead develop a fair representation
learning algorithm which is able to map individuals belonging to different
groups in a single group. This is made possible by training a pair of
Normalizing Flow models and constraining them to not remove information about
the ground truth by training a ranking or classification model on top of them.
The overall, ``chained'' model is invertible and has a tractable Jacobian,
which allows to relate together the probability densities for different groups
and ``translate'' individuals from one group to another. We show experimentally
that our methodology is competitive with other fair representation learning
algorithms. Furthermore, our algorithm achieves stronger invariance w.r.t. the
sensitive attribute.
- Abstract(参考訳): 機械学習における公平性の問題の原因は、過去のデータは、過去に未熟だったり、まだ存在する特定のグループに対する偏見をしばしば示しているという事実にある。
この文脈で考えられるアプローチの1つは、データからバイアスを取り除くことができ、グループを統計的に区別できない公正な表現学習アルゴリズムを採用することである。
そこで本研究では,異なるグループに属する個人を1つのグループにマッピング可能な,公平な表現学習アルゴリズムを開発した。
これは、一対の正規化フローモデルを訓練し、それらの上にランキングや分類モデルを訓練することで、基礎的真実に関する情報を取り除かないよう制約することで実現される。
全体として、'chained' モデルは可逆であり、抽出可能なヤコビアンを持ち、異なる群の確率密度と ``translate' の個人をあるグループから別のグループへ関連付けることができる。
本手法は他の公平表現学習アルゴリズムと競合することを実験的に示す。
さらに,本アルゴリズムは感度特性の強い不変性を実現する。
関連論文リスト
- Dataset Representativeness and Downstream Task Fairness [24.570493924073524]
そのデータセット上で訓練された分類器のデータセット代表性とグループフェアネスとの間に自然な緊張関係があることを実証する。
また、過度にサンプル化されていない群は、それらの群に偏りを示す分類器を生じる可能性があることも見出した。
論文 参考訳(メタデータ) (2024-06-28T18:11:16Z) - Bias Propagation in Federated Learning [22.954608704251118]
少数政党の少数派に対する偏見がネットワークを通じてネットワーク内のすべての当事者に伝播することを示す。
自然に分割された実世界のデータセット上でのフェデレーション学習におけるバイアス伝搬の分析と説明を行う。
論文 参考訳(メタデータ) (2023-09-05T11:55:03Z) - On The Impact of Machine Learning Randomness on Group Fairness [11.747264308336012]
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
論文 参考訳(メタデータ) (2023-07-09T09:36:31Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。