論文の概要: Fair Adversarial Networks
- arxiv url: http://arxiv.org/abs/2002.12144v1
- Date: Sun, 23 Feb 2020 16:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 09:29:35.774191
- Title: Fair Adversarial Networks
- Title(参考訳): 公正な敵ネットワーク
- Authors: George Cevora
- Abstract要約: 保護された特性(例えば人種)による偏見は、分析プロセスの出力を最適にするのではなく、違法にするため特に興味がある。
A) 公正さは普遍的に受け入れられる定義を欠いているので、分析結果の公正さを制約することによってバイアスを排除することは問題となる。
本稿では,データからバイアスを取り除くための汎用手法として,Fair Adversarial Networksを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The influence of human judgement is ubiquitous in datasets used across the
analytics industry, yet humans are known to be sub-optimal decision makers
prone to various biases. Analysing biased datasets then leads to biased
outcomes of the analysis. Bias by protected characteristics (e.g. race) is of
particular interest as it may not only make the output of analytical process
sub-optimal, but also illegal. Countering the bias by constraining the
analytical outcomes to be fair is problematic because A) fairness lacks a
universally accepted definition, while at the same time some definitions are
mutually exclusive, and B) the use of optimisation constraints ensuring
fairness is incompatible with most analytical pipelines. Both problems are
solved by methods which remove bias from the data and returning an altered
dataset. This approach aims to not only remove the actual bias variable (e.g.
race), but also alter all proxy variables (e.g. postcode) so the bias variable
is not detectable from the rest of the data. The advantage of using this
approach is that the definition of fairness as a lack of detectable bias in the
data (as opposed to the output of analysis) is universal and therefore solves
problem (A). Furthermore, as the data is altered to remove bias the problem (B)
disappears because the analytical pipelines can remain unchanged. This approach
has been adopted by several technical solutions. None of them, however, seems
to be satisfactory in terms of ability to remove multivariate, non-linear and
non-binary biases. Therefore, in this paper I propose the concept of Fair
Adversarial Networks as an easy-to-implement general method for removing bias
from data. This paper demonstrates that Fair Adversarial Networks achieve this
aim.
- Abstract(参考訳): 人間の判断の影響は、分析業界全体で使われるデータセットで広く見られるが、人間は様々なバイアスの傾向にある準最適意思決定者であることが知られている。
バイアス付きデータセットの解析は、分析のバイアス付き結果につながる。
保護された特性(例えば人種)によるバイアスは、分析プロセスの出力を最適にするのではなく、違法にするため特に興味がある。
A) 公正性は普遍的に受け入れられた定義を欠いているのに対して、いくつかの定義は相互排他的であり、B) 公正性を保証する最適化制約の使用は、ほとんどの分析パイプラインとは相容れない。
両方の問題は、データからバイアスを取り除き、変更したデータセットを返す方法によって解決される。
このアプローチは、実際のバイアス変数(例えばレース)を削除するだけでなく、すべてのプロキシ変数(例えばポストコード)を変更することで、バイアス変数が残りのデータから検出できないようにする。
このアプローチを用いることの利点は、(分析の出力とは対照的に)データの検出可能なバイアスの欠如として公正の定義が普遍的であり、したがって問題(A)を解決することである。
さらに、バイアスを取り除くためにデータが変更されると、分析パイプラインが変化しない可能性があるため、問題(B)は消える。
このアプローチはいくつかの技術的ソリューションで採用されている。
しかし、いずれも多変量、非線形、非双対バイアスを取り除く能力では満足できないようである。
そこで本稿では,データからバイアスを取り除くための実装が容易な汎用手法として,公正な逆ネットワークの概念を提案する。
本稿では,Fair Adversarial Networksがこの目的を達成することを実証する。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - Is There a One-Model-Fits-All Approach to Information Extraction? Revisiting Task Definition Biases [62.806300074459116]
定義バイアスは、モデルを誤解させる可能性のある負の現象である。
IEでは、情報抽出データセット間のバイアスと、情報抽出データセットとインストラクションチューニングデータセット間のバイアスの2つの定義バイアスを識別する。
本稿では, 定義バイアス測定, バイアス対応微調整, タスク固有バイアス緩和からなる多段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-25T03:19:20Z) - Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - SMoA: Sparse Mixture of Adapters to Mitigate Multiple Dataset Biases [27.56143777363971]
本稿では,複数のデータセットのバイアスを効果的かつ効率的に緩和できる分散混合適応器(SMOA)を提案する。
自然言語推論およびパラフレーズ識別タスクの実験は、SMoAがフルファインタニング、アダプタチューニングベースライン、および以前の強いデバイアス法よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-02-28T08:47:20Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - AutoDebias: Learning to Debias for Recommendation [43.84313723394282]
今回提案するtextitAotoDebiasは、他の(小さな)均一なデータセットを利用してデバイアスパラメータを最適化する。
我々は、AutoDebiasの一般化を導き、適切なデバイアス戦略を得る能力を証明する。
論文 参考訳(メタデータ) (2021-05-10T08:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。