論文の概要: Principal Fairness for Human and Algorithmic Decision-Making
- arxiv url: http://arxiv.org/abs/2005.10400v5
- Date: Thu, 24 Mar 2022 20:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:04:17.648306
- Title: Principal Fairness for Human and Algorithmic Decision-Making
- Title(参考訳): 人間とアルゴリズムによる意思決定の主要な公平性
- Authors: Kosuke Imai, Zhichao Jiang
- Abstract要約: 我々は、人間とアルゴリズムによる意思決定のために、主公正と呼ばれる新しい公正の概念を導入する。
既存の統計的公正の定義とは異なり、主公正性は個人が決定に影響を及ぼすことができるという事実をはっきりと説明している。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using the concept of principal stratification from the causal inference
literature, we introduce a new notion of fairness, called principal fairness,
for human and algorithmic decision-making. The key idea is that one should not
discriminate among individuals who would be similarly affected by the decision.
Unlike the existing statistical definitions of fairness, principal fairness
explicitly accounts for the fact that individuals can be impacted by the
decision. Furthermore, we explain how principal fairness differs from the
existing causality-based fairness criteria. In contrast to the counterfactual
fairness criteria, for example, principal fairness considers the effects of
decision in question rather than those of protected attributes of interest. We
briefly discuss how to approach empirical evaluation and policy learning
problems under the proposed principal fairness criterion.
- Abstract(参考訳): 因果推論文献から主階層化の概念を用いて,人間とアルゴリズムによる意思決定のための主公平性という新しい概念を導入する。
鍵となる考え方は、決定によって同様に影響を受ける個人を差別すべきではないということである。
既存の統計的公正の定義とは異なり、主公正性は個人が決定に影響を及ぼすことができるという事実を明確に説明している。
さらに, 因果関係に基づく正当性基準と主正当性がどう異なるかを説明する。
対実公正基準とは対照的に、例えば、主公正性は、関心の保護された属性よりも、問題における決定の効果を考える。
主観的公平性基準の下での実証的評価と政策学習の問題へのアプローチについて簡単に論じる。
関連論文リスト
- Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Causal Conceptions of Fairness and their Consequences [1.9006392177894293]
アルゴリズムフェアネスの因果的定義の2つのファミリーが、決定ポリシーを強く支配する結果をもたらすことを示す。
結果として得られた政策は、学術的資格やグループメンバーシップに関係なく、すべての学生に同じ確率で受け入れる必要があることを証明します。
論文 参考訳(メタデータ) (2022-07-12T04:26:26Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Promises and Challenges of Causality for Ethical Machine Learning [2.1946447418179664]
我々は「潜在的成果の枠組み」に基づく因果フェアネスの適切な適用条件を策定する。
我々は、因果的公平性文学においてしばしば無視される因果的推論の重要な側面を強調した。
このような介入の概念化は因果的仮定の妥当性を評価する上で重要であると我々は主張する。
論文 参考訳(メタデータ) (2022-01-26T00:04:10Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。