論文の概要: Fair Recourse for All: Ensuring Individual and Group Fairness in Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2601.20449v1
- Date: Wed, 28 Jan 2026 10:13:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.890792
- Title: Fair Recourse for All: Ensuring Individual and Group Fairness in Counterfactual Explanations
- Title(参考訳): 対人的説明における個人的・集団的公正の確保
- Authors: Fatima Ezzeddine, Obaida Ammar, Silvia Giordano, Omran Ayoub,
- Abstract要約: 個人レベルとグループレベルの公正性制約を満たすCFを生成するための,モデルに依存しない,強化学習に基づく新しいアプローチを提案する。
提案手法を3つのベンチマークデータセットで評価し,個人とグループの公平性を効果的に保証することを示した。
- 参考スコア(独自算出の注目度): 0.5249805590164901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is becoming increasingly essential for enhancing the transparency of machine learning (ML) models. Among the various XAI techniques, counterfactual explanations (CFs) hold a pivotal role due to their ability to illustrate how changes in input features can alter an ML model's decision, thereby offering actionable recourse to users. Ensuring that individuals with comparable attributes and those belonging to different protected groups (e.g., demographic) receive similar and actionable recourse options is essential for trustworthy and fair decision-making. In this work, we address this challenge directly by focusing on the generation of fair CFs. Specifically, we start by defining and formulating fairness at: 1) individual fairness, ensuring that similar individuals receive similar CFs, 2) group fairness, ensuring equitable CFs across different protected groups and 3) hybrid fairness, which accounts for both individual and broader group-level fairness. We formulate the problem as an optimization task and propose a novel model-agnostic, reinforcement learning based approach to generate CFs that satisfy fairness constraints at both the individual and group levels, two objectives that are usually treated as orthogonal. As fairness metrics, we extend existing metrics commonly used for auditing ML models, such as equal choice of recourse and equal effectiveness across individuals and groups. We evaluate our approach on three benchmark datasets, showing that it effectively ensures individual and group fairness while preserving the quality of the generated CFs in terms of proximity and plausibility, and quantify the cost of fairness in the different levels separately. Our work opens a broader discussion on hybrid fairness and its role and implications for XAI and beyond CFs.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習(ML)モデルの透明性を高めるためにますます不可欠になりつつある。
様々なXAI技術の中で、入力特徴の変化がMLモデルの判断をどう変えるかを説明する能力により、CFは重要な役割を担っている。
同等の属性を持つ個人と、異なる保護されたグループに属する個人(例えば、人口統計学)が、同様に行動可能なリコースオプションを受け取ることが、信頼できる公平な意思決定に不可欠である。
本稿では,公正なCFの生成に焦点をあてて,この問題に対処する。
具体的には フェアネスの定義と定式化から始めます
1) 類似の個人が同様のCFを受け取ることを保証する、個人の公正性。
2)グループフェアネス、異なる保護グループ間での公平なCFの確保、
3)ハイブリッドフェアネスは,グループレベルのフェアネスとグループレベルのフェアネスの両方を考慮に入れている。
最適化タスクとして問題を定式化し, 個人レベルとグループレベルの公正性制約を満たすCFを生成するための, モデルに依存しない, 強化学習に基づく新しいアプローチを提案する。
フェアネス指標として、談話の平等な選択や個人やグループ間での平等な有効性など、MLモデルの監査に一般的に使用される既存の指標を拡張します。
提案手法を3つのベンチマーク・データセットを用いて評価した結果, 生成したCFの品質を, 近接性, 可視性の観点から保ちながら, 個人およびグループフェアネスを効果的に保証し, 異なるレベルのフェアネスのコストを個別に定量化できることが示唆された。
我々の研究は、ハイブリッドフェアネスとそのXAIおよびCFに対する役割と意味に関するより広範な議論を開いています。
関連論文リスト
- FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [23.38141950440522]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - FACT: A Diagnostic for Group Fairness Trade-offs [23.358566041117083]
グループフェアネス(グループフェアネス、英: Group Fairness)とは、個人の異なる集団が保護された属性によってどのように異なる扱いを受けるかを測定するフェアネスの概念のクラスである。
グループフェアネスにおけるこれらのトレードオフを体系的に評価できる一般的な診断法を提案する。
論文 参考訳(メタデータ) (2020-04-07T14:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。