論文の概要: Shortcomings of Counterfactual Fairness and a Proposed Modification
- arxiv url: http://arxiv.org/abs/2011.07312v1
- Date: Sat, 14 Nov 2020 14:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:11:33.108916
- Title: Shortcomings of Counterfactual Fairness and a Proposed Modification
- Title(参考訳): 対人フェアネスの欠点と修正の提案
- Authors: Fabian Beigang
- Abstract要約: 反事実的公正性は、アルゴリズムが公正であるために必要な条件ではないと私は主張する。
そして、この欠点を解決するために、どのように制約を修正できるかを提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, I argue that counterfactual fairness does not constitute a
necessary condition for an algorithm to be fair, and subsequently suggest how
the constraint can be modified in order to remedy this shortcoming. To this
end, I discuss a hypothetical scenario in which counterfactual fairness and an
intuitive judgment of fairness come apart. Then, I turn to the question how the
concept of discrimination can be explicated in order to examine the
shortcomings of counterfactual fairness as a necessary condition of algorithmic
fairness in more detail. I then incorporate the insights of this analysis into
a novel fairness constraint, causal relevance fairness, which is a modification
of the counterfactual fairness constraint that seems to circumvent its
shortcomings.
- Abstract(参考訳): 本稿では, アルゴリズムが公正であるために必要な条件として, 反実的公正性が欠かせないことを論じ, この欠点を解消するために, 制約をいかに修正できるかを示唆する。
この目的のために, 虚偽の公平さと直観的な公正判断が相違する仮説的シナリオについて論じる。
そこで, より詳細なアルゴリズムフェアネスの必要条件として, 対実フェアネスの欠点を検討するために, 差別の概念をいかに説明できるかを問う。
次に、この分析の知見を、その欠点を回避していると思われる対実的公正制約の修正である、新たな公正制約、因果的妥当性公正に取り入れる。
関連論文リスト
- Understanding Fairness Surrogate Functions in Algorithmic Fairness [23.12523783832091]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - The Unfairness of Fair Machine Learning: Levelling down and strict
egalitarianism by default [10.281644134255576]
本稿では,FairMLにおけるレベルダウンの原因と頻度について検討する。
本稿では,最小許容限のハーネス閾値の実施による設計によるフェアMLの実体的平等に向けた第一歩を提案する。
論文 参考訳(メタデータ) (2023-02-05T15:22:43Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - SLIDE: a surrogate fairness constraint to ensure fairness consistency [1.3649494534428745]
本稿では, SLIDE と呼ばれる新しい代用フェアネス制約を提案し, 高速収束率を実現する。
数値実験により、SLIDEは様々なベンチマークデータセットでうまく機能することを確認した。
論文 参考訳(メタデータ) (2022-02-07T13:50:21Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness [3.42658286826597]
アルゴリズムの公正性に対する支配的な「形式的」アプローチは、平等を追求する枠組みとして不十分である、と私は主張する。
社会階層に反するアルゴリズムフェアネスに対する「実質的」アプローチを提案する。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実証可能性」に対する応答によって実証される。
論文 参考訳(メタデータ) (2021-07-09T19:29:57Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。