論文の概要: FAIR: Fair Adversarial Instance Re-weighting
- arxiv url: http://arxiv.org/abs/2011.07495v1
- Date: Sun, 15 Nov 2020 10:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:47:17.350727
- Title: FAIR: Fair Adversarial Instance Re-weighting
- Title(参考訳): FAIR: 敵インスタンスの再重み付け
- Authors: Andrija Petrovi\'c, Mladen Nikoli\'c, Sandro Radovanovi\'c, Boris
Deliba\v{s}i\'c, Milo\v{s} Jovanovi\'c
- Abstract要約: 本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
- 参考スコア(独自算出の注目度): 0.7829352305480285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With growing awareness of societal impact of artificial intelligence,
fairness has become an important aspect of machine learning algorithms. The
issue is that human biases towards certain groups of population, defined by
sensitive features like race and gender, are introduced to the training data
through data collection and labeling. Two important directions of fairness
ensuring research have focused on (i) instance weighting in order to decrease
the impact of more biased instances and (ii) adversarial training in order to
construct data representations informative of the target variable, but
uninformative of the sensitive attributes. In this paper we propose a Fair
Adversarial Instance Re-weighting (FAIR) method, which uses adversarial
training to learn instance weighting function that ensures fair predictions.
Merging the two paradigms, it inherits desirable properties from both --
interpretability of reweighting and end-to-end trainability of adversarial
training. We propose four different variants of the method and, among other
things, demonstrate how the method can be cast in a fully probabilistic
framework. Additionally, theoretical analysis of FAIR models' properties have
been studied extensively. We compare FAIR models to 7 other related and
state-of-the-art models and demonstrate that FAIR is able to achieve a better
trade-off between accuracy and unfairness. To the best of our knowledge, this
is the first model that merges reweighting and adversarial approaches by means
of a weighting function that can provide interpretable information about
fairness of individual instances.
- Abstract(参考訳): 人工知能の社会的影響に対する認識が高まり、公正さは機械学習アルゴリズムの重要な側面となっている。
問題は、人種や性別などのセンシティブな特徴によって定義される特定の集団に対する人間の偏見が、データ収集とラベル付けを通じてトレーニングデータに導入されたことだ。
公正性確保研究における2つの重要な方向性
(i)より偏りのあるインスタンスの影響を減らすために重み付けを行う。
(ii)対象変数に情報を与えるが、機密性の高い属性には役立たないデータ表現を構築するための敵対的トレーニング。
本稿では,公平な予測を保証するインスタンス重み付け関数を学習するために,逆訓練を用いたfair(fair)手法を提案する。
2つのパラダイムを組み合わせることで、再重み付けの解釈可能性と、逆行訓練のエンドツーエンドのトレーニング可能性の両方から望ましい特性を継承する。
本稿では,この手法の4つの異なる変種を提案するとともに,その手法を完全確率的枠組みでキャスティングする方法を実証する。
さらに、FAIRモデルの性質の理論解析が広く研究されている。
我々は、FAIRモデルを他の7つの関連する最先端モデルと比較し、FAIRが正確性と不公平性のトレードオフをより良く達成できることを示す。
我々の知る限りでは、これは個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと敵対的アプローチを統合する最初のモデルである。
関連論文リスト
- Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z) - Precise Tradeoffs in Adversarial Training for Linear Regression [55.764306209771405]
本稿では,ガウス的特徴を伴う線形回帰の文脈における対人訓練の役割を,正確かつ包括的に理解する。
我々は,同時代のミニマックス対逆訓練手法によって達成された標準/ロバスト精度とそれに対応するトレードオフを正確に特徴づける。
逆行訓練アルゴリズムの理論は、様々な要因(トレーニングデータのサイズや品質、モデルの過度化など)がこれらの2つの競合するアキュラシー間のトレードオフにどのように影響するかを厳密に研究する上で役立ちます。
論文 参考訳(メタデータ) (2020-02-24T19:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。