論文の概要: Fairness Aware Counterfactuals for Subgroups
- arxiv url: http://arxiv.org/abs/2306.14978v1
- Date: Mon, 26 Jun 2023 18:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 15:47:56.338196
- Title: Fairness Aware Counterfactuals for Subgroups
- Title(参考訳): サブグループの公正な対策
- Authors: Loukas Kavouras, Konstantinos Tsopelas, Giorgos Giannopoulos, Dimitris
Sacharidis, Eleni Psaroudaki, Nikolaos Theologitis, Dimitrios Rontogiannis,
Dimitris Fotakis, Ioannis Emiris
- Abstract要約: 本稿では,サブグループのフェアネスを監査するフレームワークであるFACTS(Fairness Aware Counterfactuals for Subgroups)を紹介する。
我々は、特定のサブグループにおける個人の困難さの異なる側面を定式化し、談話を達成することを目的としている。
我々は、言論を達成するためのコストに対して、完全に不可避ではないが頑健な部分群フェアネスの概念を導入する。
- 参考スコア(独自算出の注目度): 8.593488857185678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present Fairness Aware Counterfactuals for Subgroups
(FACTS), a framework for auditing subgroup fairness through counterfactual
explanations. We start with revisiting (and generalizing) existing notions and
introducing new, more refined notions of subgroup fairness. We aim to (a)
formulate different aspects of the difficulty of individuals in certain
subgroups to achieve recourse, i.e. receive the desired outcome, either at the
micro level, considering members of the subgroup individually, or at the macro
level, considering the subgroup as a whole, and (b) introduce notions of
subgroup fairness that are robust, if not totally oblivious, to the cost of
achieving recourse. We accompany these notions with an efficient,
model-agnostic, highly parameterizable, and explainable framework for
evaluating subgroup fairness. We demonstrate the advantages, the wide
applicability, and the efficiency of our approach through a thorough
experimental evaluation of different benchmark datasets.
- Abstract(参考訳): 本稿では,サブグループの公平性を検査するためのフレームワークであるサブグループ(facts)に対して,反事実的説明を通した公正を意識した反事実を提示する。
まず、既存の概念を再検討(そして一般化)し、より洗練された部分群フェアネスの概念を導入する。
私たちは
(a)特定のサブグループの個人が会話をすることの難しさの異なる側面を定式化し、すなわち、マイクロレベルで、サブグループのメンバを個別に、またはマクロレベルで、そのサブグループ全体を考慮して、望ましい結果を得る。
(b) 言説を達成するためのコストに対して、完全でなくても頑健な部分群フェアネスの概念を導入する。
我々はこれらの概念を, モデルに依存しない, パラメータ化可能な, 説明可能なフレームワークで, サブグループフェアネスを評価する。
我々は、異なるベンチマークデータセットの徹底的な実験評価を通じて、利点、広範囲な適用性、アプローチの効率性を実証する。
関連論文リスト
- FGCE: Feasible Group Counterfactual Explanations for Auditing Fairness [4.749824105387293]
本稿では,モデルフェアネスを監査するために,グループ対実的説明を生成する最初のグラフベースのフレームワークを提案する。
我々のフレームワークは、Fasible Group Counterfactual Explanations (FGCEs)と名付けられ、現実世界の現実性制約を捉え、類似の反事実を持つサブグループを構築する。
また、カウンターファクト・ジェネレーションにおける重要なトレードオフとして、カウンターファクト・ジェネレーションの件数、関連するコスト、達成された範囲の広さのバランスがあげられる。
論文 参考訳(メタデータ) (2024-10-29T23:10:01Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - On Learning Fairness and Accuracy on Multiple Subgroups [9.789933013990966]
両レベル対象として定式化することで,すべての部分群に対して公正な予測器を学習する原理的手法を提案する。
具体的には、サブグループ固有の予測器は、少量のデータと公正な予測器を通して下位層で学習される。
上位レベルでは、フェア予測器は全てのサブグループ固有の予測器に近接するように更新される。
論文 参考訳(メタデータ) (2022-10-19T18:59:56Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。