論文の概要: Latent Imitator: Generating Natural Individual Discriminatory Instances
for Black-Box Fairness Testing
- arxiv url: http://arxiv.org/abs/2305.11602v1
- Date: Fri, 19 May 2023 11:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:47:48.029488
- Title: Latent Imitator: Generating Natural Individual Discriminatory Instances
for Black-Box Fairness Testing
- Title(参考訳): 潜在イミッタ:ブラックボックスフェアネステストのための自然個人識別インスタンスの生成
- Authors: Yisong Xiao, Aishan Liu, Tianlin Li, and Xianglong Liu
- Abstract要約: 本稿では、より自然な個人識別インスタンスを生成するために、LIMI(Latent Imitator)というフレームワークを提案する。
まず、対象モデルの決定境界を近似するために、代理線形境界を導出する。
次に、1ステップの運動で代理境界にランダムな潜伏ベクトルを演算し、さらにベクトル計算を行い、2つの潜在的な識別候補を探索する。
- 参考スコア(独自算出の注目度): 45.183849487268496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) systems have achieved remarkable performance across a
wide area of applications. However, they frequently exhibit unfair behaviors in
sensitive application domains, raising severe fairness concerns. To evaluate
and test fairness, engineers often generate individual discriminatory instances
to expose unfair behaviors before model deployment. However, existing baselines
ignore the naturalness of generation and produce instances that deviate from
the real data distribution, which may fail to reveal the actual model fairness
since these unnatural discriminatory instances are unlikely to appear in
practice. To address the problem, this paper proposes a framework named Latent
Imitator (LIMI) to generate more natural individual discriminatory instances
with the help of a generative adversarial network (GAN), where we imitate the
decision boundary of the target model in the semantic latent space of GAN and
further samples latent instances on it. Specifically, we first derive a
surrogate linear boundary to coarsely approximate the decision boundary of the
target model, which reflects the nature of the original data distribution.
Subsequently, to obtain more natural instances, we manipulate random latent
vectors to the surrogate boundary with a one-step movement, and further conduct
vector calculation to probe two potential discriminatory candidates that may be
more closely located in the real decision boundary. Extensive experiments on
various datasets demonstrate that our LIMI outperforms other baselines largely
in effectiveness ($\times$9.42 instances), efficiency ($\times$8.71 speeds),
and naturalness (+19.65%) on average. In addition, we empirically demonstrate
that retraining on test samples generated by our approach can lead to
improvements in both individual fairness (45.67% on $IF_r$ and 32.81% on
$IF_o$) and group fairness (9.86% on $SPD$ and 28.38% on $AOD$}).
- Abstract(参考訳): 機械学習(ML)システムは、広範囲のアプリケーションで顕著なパフォーマンスを達成した。
しかし、センシティブなアプリケーションドメインでは不公平な振る舞いをしばしば示し、厳しい公平を懸念する。
公平性を評価しテストするために、エンジニアはモデル展開の前に不公平な行動を暴露するために、個別の差別インスタンスを生成することが多い。
しかし、既存のベースラインは生成の自然性を無視し、実際のデータ分布から逸脱したインスタンスを生成する。
そこで本稿では,gan(generative adversarial network)の助けを借りて,より自然な個人識別インスタンスを生成するために,ganの意味的潜在空間における目標モデルの決定境界を模倣し,さらに潜在インスタンスをサンプル化する,ultent imitator(limi)というフレームワークを提案する。
具体的には、まず、元のデータ分布の性質を反映したターゲットモデルの決定境界を粗く近似するために、代理線形境界を導出する。
その後、より自然な例を得るために、1ステップの運動で代理境界へのランダム潜在ベクトルを演算し、さらにベクトル計算を行い、実際の決定境界により近い2つの潜在的な識別候補を探索する。
さまざまなデータセットに関する広範囲な実験によって、私たちのlimiが他のベースラインよりも効率性($9.42インスタンス)、効率性($8.71スピード)、自然性(+19.65%)の面で優れていることが示されています。
さらに、我々のアプローチによって生成されたテストサンプルの再トレーニングは、個々のフェアネス(IF_r$が45.67%、IF_o$が32.81%)とグループフェアネス(SPD$が9.86%、AOD$が28.38%)の改善につながることを実証的に示しています。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes [15.525314212209564]
機械学習ソフトウェアは、特定の保護された社会グループに対して不適切な差別を行うモデルを生成することができる。
本稿では,モデルに基づく外挿法であるxFAIRを提案する。
論文 参考訳(メタデータ) (2021-10-03T22:10:14Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - ExGAN: Adversarial Generation of Extreme Samples [33.70161373245072]
極端なイベントから生じるリスクを緩和することは、多くのアプリケーションにとって基本的な目標である。
GAN(Generative Adversarial Networks)に基づく既存のアプローチは、現実的なサンプルを生成するのに優れている。
我々は,現実的で極端なサンプルを生成するためのGANベースのアプローチであるExGANを提案する。
論文 参考訳(メタデータ) (2020-09-17T17:59:36Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。