論文の概要: Analyzing Fairness of Neural Network Prediction via Counterfactual Dataset Generation
- arxiv url: http://arxiv.org/abs/2602.10457v1
- Date: Wed, 11 Feb 2026 02:55:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.411768
- Title: Analyzing Fairness of Neural Network Prediction via Counterfactual Dataset Generation
- Title(参考訳): 対実データ生成によるニューラルネットワーク予測の公正性の解析
- Authors: Brian Hyeongseok Kim, Jacqueline L. Mitchell, Chao Wang,
- Abstract要約: 我々は、ラベルバイアスがトレーニングや推論に与える影響を調べるために、反事実データセットを使用する。
我々のアプローチは、与えられた予測がバイアスラベルに依存するかどうかを推測するものとして特徴づけられる。
我々は,広く使用されている7つのフェアネスデータセットから,1100以上のテストケースを対象としたフィードフォワードニューラルネットワークのアプローチを評価した。
- 参考スコア(独自算出の注目度): 2.834794874914264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpreting the inference-time behavior of deep neural networks remains a challenging problem. Existing approaches to counterfactual explanation typically ask: What is the closest alternative input that would alter the model's prediction in a desired way? In contrast, we explore counterfactual datasets. Rather than perturbing the input, our method efficiently finds the closest alternative training dataset, one that differs from the original dataset by changing a few labels. Training a new model on this altered dataset can then lead to a different prediction of a given test instance. This perspective provides a new way to assess fairness by directly analyzing the influence of label bias on training and inference. Our approach can be characterized as probing whether a given prediction depends on biased labels. Since exhaustively enumerating all possible alternate datasets is infeasible, we develop analysis techniques that trace how bias in the training data may propagate through the learning algorithm to the trained network. Our method heuristically ranks and modifies the labels of a bounded number of training examples to construct a counterfactual dataset, retrains the model, and checks whether its prediction on a chosen test case changes. We evaluate our approach on feedforward neural networks across over 1100 test cases from 7 widely-used fairness datasets. Results show that it modifies only a small subset of training labels, highlighting its ability to pinpoint the critical training examples that drive prediction changes. Finally, we demonstrate how our counterfactual datasets reveal connections between training examples and test cases, offering an interpretable way to probe dataset bias.
- Abstract(参考訳): ディープニューラルネットワークの推論時間の振る舞いを解釈することは、依然として難しい問題である。
モデルの予測を望ましい方法で変更する最も近い入力は何か?
対照的に、反事実的データセットを探索する。
提案手法は,入力を摂動する代わりに,複数のラベルを変更することで,元のデータセットと異なる,最も近い代替トレーニングデータセットを効率的に見つける。
この変更されたデータセットで新しいモデルをトレーニングすると、与えられたテストインスタンスの異なる予測につながる可能性がある。
この視点は、ラベルバイアスがトレーニングや推論に与える影響を直接分析することで、公平性を評価する新しい方法を提供する。
我々のアプローチは、与えられた予測がバイアスラベルに依存するかどうかを推測するものとして特徴づけられる。
全ての可能な代替データセットを網羅的に列挙することは不可能であるため、トレーニングデータのバイアスが学習アルゴリズムを介してトレーニングされたネットワークにどのように伝播するかを辿る分析手法を開発する。
提案手法は,有界な多数のトレーニングサンプルのラベルをヒューリスティックにランク付けし,そのラベルを修正して,逆ファクトデータセットを構築し,モデルを再トレーニングし,選択したテストケースの予測が変更されるかどうかを確認する。
我々は,広く使用されている7つのフェアネスデータセットから,1100以上のテストケースを対象としたフィードフォワードニューラルネットワークのアプローチを評価した。
結果は、トレーニングラベルの小さなサブセットだけを変更し、予測変更を駆動する重要なトレーニング例を特定できることを強調している。
最後に、私たちのカウンターファクトデータセットがトレーニング例とテストケースの関連を明らかにする方法を示し、データセットバイアスを調査するための解釈可能な方法を提供する。
関連論文リスト
- ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Sampling Bias Correction for Supervised Machine Learning: A Bayesian
Inference Approach with Practical Applications [0.0]
本稿では,データセットがラベルの不均衡などの意図的なサンプルバイアスを受ける可能性がある問題について議論する。
次に、この解をバイナリロジスティック回帰に適用し、データセットが意図的にサンプルバイアスを受けるシナリオについて議論する。
この手法は, 医療科学から画像認識, マーケティングに至るまで, ビッグデータの統計的推測に広く応用できる。
論文 参考訳(メタデータ) (2022-03-11T20:46:37Z) - Conformal Prediction Under Feedback Covariate Shift for Biomolecular Design [56.86533144730384]
本稿では,トレーニングデータとテストデータが統計的に依存した環境での予測不確実性を定量化する手法を提案する。
モチベーション・ユースケースとして,本手法が設計したタンパク質の適合性予測の不確かさを定量化する方法を実データで示す。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias [10.639605996067534]
コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、男性に有利なDNNの予測を偏見を与える可能性がある。
本研究では, 変動係数を用いたデータ修復アルゴリズムを導入し, 保護されたクラスに対して, 公平かつ文脈的にバランスの取れたデータをキュレートする。
論文 参考訳(メタデータ) (2021-10-20T06:00:03Z) - Dataset Bias Mitigation Through Analysis of CNN Training Scores [0.0]
本稿では,スコアベース再サンプリング(SBR)と呼ばれる,ドメインに依存しない新しい手法を提案する。
そこで本手法では, トレーニングを行った場合, 同一のCNNモデルを用いて, トレーニングサンプルを推定し, 予測値を求め, 予測点と接地点との距離に基づいて, 接地点から遠く離れた標本を同定する。
提案手法の有効性を検証し,提案手法の有効性を確認した。
論文 参考訳(メタデータ) (2021-06-28T16:07:49Z) - Double Perturbation: On the Robustness of Robustness and Counterfactual
Bias Evaluation [109.06060143938052]
テストデータセットを超えたモデル弱点を明らかにするための"ダブル摂動"フレームワークを提案する。
この枠組みを,モデルの頑健さと英語における反事実バイアスの分析に使用される2つの摂動に基づくアプローチに応用する。
論文 参考訳(メタデータ) (2021-04-12T06:57:36Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。