論文の概要: Fair Adversarial Networks
- arxiv url: http://arxiv.org/abs/2002.12144v1
- Date: Sun, 23 Feb 2020 16:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 09:29:35.774191
- Title: Fair Adversarial Networks
- Title(参考訳): 公正な敵ネットワーク
- Authors: George Cevora
- Abstract要約: 保護された特性(例えば人種)による偏見は、分析プロセスの出力を最適にするのではなく、違法にするため特に興味がある。
A) 公正さは普遍的に受け入れられる定義を欠いているので、分析結果の公正さを制約することによってバイアスを排除することは問題となる。
本稿では,データからバイアスを取り除くための汎用手法として,Fair Adversarial Networksを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The influence of human judgement is ubiquitous in datasets used across the
analytics industry, yet humans are known to be sub-optimal decision makers
prone to various biases. Analysing biased datasets then leads to biased
outcomes of the analysis. Bias by protected characteristics (e.g. race) is of
particular interest as it may not only make the output of analytical process
sub-optimal, but also illegal. Countering the bias by constraining the
analytical outcomes to be fair is problematic because A) fairness lacks a
universally accepted definition, while at the same time some definitions are
mutually exclusive, and B) the use of optimisation constraints ensuring
fairness is incompatible with most analytical pipelines. Both problems are
solved by methods which remove bias from the data and returning an altered
dataset. This approach aims to not only remove the actual bias variable (e.g.
race), but also alter all proxy variables (e.g. postcode) so the bias variable
is not detectable from the rest of the data. The advantage of using this
approach is that the definition of fairness as a lack of detectable bias in the
data (as opposed to the output of analysis) is universal and therefore solves
problem (A). Furthermore, as the data is altered to remove bias the problem (B)
disappears because the analytical pipelines can remain unchanged. This approach
has been adopted by several technical solutions. None of them, however, seems
to be satisfactory in terms of ability to remove multivariate, non-linear and
non-binary biases. Therefore, in this paper I propose the concept of Fair
Adversarial Networks as an easy-to-implement general method for removing bias
from data. This paper demonstrates that Fair Adversarial Networks achieve this
aim.
- Abstract(参考訳): 人間の判断の影響は、分析業界全体で使われるデータセットで広く見られるが、人間は様々なバイアスの傾向にある準最適意思決定者であることが知られている。
バイアス付きデータセットの解析は、分析のバイアス付き結果につながる。
保護された特性(例えば人種)によるバイアスは、分析プロセスの出力を最適にするのではなく、違法にするため特に興味がある。
A) 公正性は普遍的に受け入れられた定義を欠いているのに対して、いくつかの定義は相互排他的であり、B) 公正性を保証する最適化制約の使用は、ほとんどの分析パイプラインとは相容れない。
両方の問題は、データからバイアスを取り除き、変更したデータセットを返す方法によって解決される。
このアプローチは、実際のバイアス変数(例えばレース)を削除するだけでなく、すべてのプロキシ変数(例えばポストコード)を変更することで、バイアス変数が残りのデータから検出できないようにする。
このアプローチを用いることの利点は、(分析の出力とは対照的に)データの検出可能なバイアスの欠如として公正の定義が普遍的であり、したがって問題(A)を解決することである。
さらに、バイアスを取り除くためにデータが変更されると、分析パイプラインが変化しない可能性があるため、問題(B)は消える。
このアプローチはいくつかの技術的ソリューションで採用されている。
しかし、いずれも多変量、非線形、非双対バイアスを取り除く能力では満足できないようである。
そこで本稿では,データからバイアスを取り除くための実装が容易な汎用手法として,公正な逆ネットワークの概念を提案する。
本稿では,Fair Adversarial Networksがこの目的を達成することを実証する。
関連論文リスト
- Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Dataset Bias Mitigation in Multiple-Choice Visual Question Answering and
Beyond [93.96982273042296]
視覚言語(VL)理解タスクは、複数の質問を通じて複雑な視覚シーンのモデルによる理解を評価する。
我々は、モデルが様々なVLタスクを適切に理解することなく正しく解決するために、ショートカットとして活用できる2つのデータセットバイアスを特定した。
本稿では,ADS(Adversarial Data Synthesis)を用いて,合成学習データと偏り評価データを生成する。
次に、サンプル内微分に着目して、合成したトレーニングデータ、特に対物データを利用するモデルを支援するために、サンプル内対物訓練(ICT)を導入する。
論文 参考訳(メタデータ) (2023-10-23T08:09:42Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - SMoA: Sparse Mixture of Adapters to Mitigate Multiple Dataset Biases [27.56143777363971]
本稿では,複数のデータセットのバイアスを効果的かつ効率的に緩和できる分散混合適応器(SMOA)を提案する。
自然言語推論およびパラフレーズ識別タスクの実験は、SMoAがフルファインタニング、アダプタチューニングベースライン、および以前の強いデバイアス法よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-02-28T08:47:20Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - AutoDebias: Learning to Debias for Recommendation [43.84313723394282]
今回提案するtextitAotoDebiasは、他の(小さな)均一なデータセットを利用してデバイアスパラメータを最適化する。
我々は、AutoDebiasの一般化を導き、適切なデバイアス戦略を得る能力を証明する。
論文 参考訳(メタデータ) (2021-05-10T08:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。