論文の概要: Causally Perturbed Fairness Testing
- arxiv url: http://arxiv.org/abs/2510.18719v1
- Date: Tue, 21 Oct 2025 15:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.821299
- Title: Causally Perturbed Fairness Testing
- Title(参考訳): Causally Perturbed Fairness Testing
- Authors: Chengwen Du, Tao Chen,
- Abstract要約: 本稿ではCausalFTと呼ばれる因果的摂動公正テストのための汎用フレームワークを提案する。
CaulFTは任意のベースジェネレータを大幅に改善し、実行時のオーバーヘッドが許容されるケースの93%に対して公平なバグを明らかにする。
- 参考スコア(独自算出の注目度): 4.208654120634349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To mitigate unfair and unethical discrimination over sensitive features (e.g., gender, age, or race), fairness testing plays an integral role in engineering systems that leverage AI models to handle tabular data. A key challenge therein is how to effectively reveal fairness bugs under an intractable sample size using perturbation. Much current work has been focusing on designing the test sample generators, ignoring the valuable knowledge about data characteristics that can help guide the perturbation and hence limiting their full potential. In this paper, we seek to bridge such a gap by proposing a generic framework of causally perturbed fairness testing, dubbed CausalFT. Through causal inference, the key idea of CausalFT is to extract the most directly and causally relevant non-sensitive feature to its sensitive counterpart, which can jointly influence the prediction of the label. Such a causal relationship is then seamlessly injected into the perturbation to guide a test sample generator. Unlike existing generator-level work, CausalFT serves as a higher-level framework that can be paired with diverse base generators. Extensive experiments on 1296 cases confirm that CausalFT can considerably improve arbitrary base generators in revealing fairness bugs over 93% of the cases with acceptable extra runtime overhead. Compared with a state-of-the-art approach that ranks the non-sensitive features solely based on correlation, CausalFT performs significantly better on 64% cases while being much more efficient. Further, CausalFT can better improve bias resilience in nearly all cases.
- Abstract(参考訳): センシティブな特徴(例えば、性別、年齢、人種)に対する不公平で非倫理的な差別を緩和するために、公正性テストは、表データを扱うAIモデルを活用するエンジニアリングシステムにおいて重要な役割を果たす。
そこで重要な課題は、摂動を用いて、難解なサンプルサイズの下で、公平なバグを効果的に明らかにする方法である。
現在の作業の多くは、データ特性に関する貴重な知識を無視して、テストサンプルジェネレータの設計に重点を置いている。
本稿では,CausalFTと呼ばれる因果的摂動公正性テストの一般的な枠組みを提案することによって,このようなギャップを埋めることを模索する。
因果推論を通じて、CausalFTのキーとなるアイデアは、ラベルの予測に共同で影響を及ぼすことのできる、最も直接的かつ因果的に関係のない特徴を、そのセンシティブな特徴に抽出することである。
このような因果関係は摂動にシームレスに注入され、テストサンプルジェネレータを誘導する。
既存のジェネレータレベルの作業とは異なり、CausalFTは多様なベースジェネレータと組み合わせられる高レベルのフレームワークとして機能する。
1296のケースに対する大規模な実験により、CausalFTは任意のベースジェネレータを大幅に改善できることを確認した。
CausalFTは、相関のみに基づいて非感度な特徴をランク付けする最先端のアプローチと比較して、64%のケースにおいて、はるかに効率が良い。
さらに、CausalFTは、ほとんどすべてのケースにおいてバイアスのレジリエンスを改善することができる。
関連論文リスト
- Causal Graph Learning via Distributional Invariance of Cause-Effect Relationship [54.575090553659074]
本研究では,観測変数数の2次複雑性と因果関係を効率的に発見するアルゴリズムを開発した。
大規模データセットの様々なベンチマークによる実験は、既存の研究よりも優れた、あるいは同等な性能を示している。
論文 参考訳(メタデータ) (2026-02-03T10:26:16Z) - CausalPre: Scalable and Effective Data Pre-processing for Causal Fairness [9.017721212703352]
CausalPreはスケーラブルで効果的な因果性誘導型データ前処理フレームワークである。
CausalPreは有効かつスケーラブルであり、因果フェアネスを達成するためには関係のカバレッジをトレードオフする必要があるという従来の信念に挑戦する。
論文 参考訳(メタデータ) (2025-09-18T17:54:01Z) - Data Fusion for Partial Identification of Causal Effects [62.56890808004615]
本稿では,研究者が重要な疑問に答えられるような,新しい部分的識別フレームワークを提案する。
因果効果は肯定的か否定的か?
本研究の枠組みをSTARプロジェクトに適用し,第3級の標準試験性能に対する教室規模の影響について検討する。
論文 参考訳(メタデータ) (2025-05-30T07:13:01Z) - CausalDiff: Causality-Inspired Disentanglement via Diffusion Model for Adversarial Defense [61.78357530675446]
人間は、本質的な要因のみに基づいて判断するので、微妙な操作によって騙されるのは難しい。
この観察に触発されて、本質的なラベル因果因子を用いたラベル生成をモデル化し、ラベル非因果因子を組み込んでデータ生成を支援する。
逆の例では、摂動を非因果因子として識別し、ラベル因果因子のみに基づいて予測することを目的としている。
論文 参考訳(メタデータ) (2024-10-30T15:06:44Z) - C-Disentanglement: Discovering Causally-Independent Generative Factors
under an Inductive Bias of Confounder [35.09708249850816]
我々は,共同設立者の帰納的バイアスを明示する最初のフレームワークである,C-Disentanglement(C-Disentanglement)というフレームワークを紹介した。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-26T11:44:42Z) - Self-Compatibility: Evaluating Causal Discovery without Ground Truth [28.72650348646176]
本研究では,基底真理が存在しない場合に因果発見アルゴリズムの出力をfalsificationする新しい手法を提案する。
我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。
本研究では,不整合性の検出が,仮定や誤差が有限なサンプル効果によって誤って因果関係を推定することを証明する。
論文 参考訳(メタデータ) (2023-07-18T18:59:42Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Transfer Random Forest: Combining Logged Data and Randomized
Experiments for Robust Prediction [8.736551469632758]
本稿では,既存のトレーニングデータとランダム化実験から得られた少量のデータを組み合わせてモデルを訓練するCTRFについて述べる。
我々は,Bing Adsプラットフォームにおける合成データ実験と実世界の実験の両方を用いてCTRFを評価する。
論文 参考訳(メタデータ) (2020-10-17T03:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。