論文の概要: Who Pays for Fairness? Rethinking Recourse under Social Burden
- arxiv url: http://arxiv.org/abs/2509.04128v1
- Date: Thu, 04 Sep 2025 11:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.147738
- Title: Who Pays for Fairness? Rethinking Recourse under Social Burden
- Title(参考訳): フェアネスの代償は誰か? ソーシャル・バーデンの下でのリコースの再考
- Authors: Ainhize Barrainkua, Giovanni De Toni, Jose Antonio Lozano, Novi Quadrianto,
- Abstract要約: 本稿では,アルゴリズムにおける不公平性を理論的に評価する。
次に,実践的アルゴリズム(MISOB)とともに,社会的負担に基づく新たなフェアネスフレームワークを導入する。
- 参考スコア(独自算出の注目度): 3.1358838725251683
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning based predictions are increasingly used in sensitive decision-making applications that directly affect our lives. This has led to extensive research into ensuring the fairness of classifiers. Beyond just fair classification, emerging legislation now mandates that when a classifier delivers a negative decision, it must also offer actionable steps an individual can take to reverse that outcome. This concept is known as algorithmic recourse. Nevertheless, many researchers have expressed concerns about the fairness guarantees within the recourse process itself. In this work, we provide a holistic theoretical characterization of unfairness in algorithmic recourse, formally linking fairness guarantees in recourse and classification, and highlighting limitations of the standard equal cost paradigm. We then introduce a novel fairness framework based on social burden, along with a practical algorithm (MISOB), broadly applicable under real-world conditions. Empirical results on real-world datasets show that MISOB reduces the social burden across all groups without compromising overall classifier accuracy.
- Abstract(参考訳): 機械学習に基づく予測は、私たちの生活に直接影響を与えるセンシティブな意思決定アプリケーションにますます使われています。
このことが、分類器の公平性を確保するための広範な研究につながった。
公正な分類以外にも、新たな法律では、分類者が否定的な決定を下すとき、個人がその結果を覆すために実行可能なステップを提供するよう義務付けている。
この概念はアルゴリズム・リコースとして知られている。
それでも、多くの研究者は、リコースプロセス自体の公平性を保証することに懸念を表明している。
本研究は,アルゴリズム的言論における不公平性の包括的理論的特徴付け,言論と分類における公正性の保証を正式にリンクし,標準対等コストパラダイムの限界を強調するものである。
次に,現実の状況下で広く適用可能な実践的アルゴリズム(MISOB)とともに,社会的負担に基づく新しい公正度フレームワークを導入する。
実世界のデータセットにおける実証的な結果から、MISOBは全体分類器の精度を損なうことなく、すべてのグループの社会的負担を軽減することが示されている。
関連論文リスト
- Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free Guarantee [35.68504233140245]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。