論文の概要: How Do Fair Decisions Fare in Long-term Qualification?
- arxiv url: http://arxiv.org/abs/2010.11300v1
- Date: Wed, 21 Oct 2020 20:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:53:01.249182
- Title: How Do Fair Decisions Fare in Long-term Qualification?
- Title(参考訳): 公正な判断は長期的資格化にどのような影響を及ぼすか?
- Authors: Xueru Zhang, Ruibo Tu, Yang Liu, Mingyan Liu, Hedvig Kjellstr\"om, Kun
Zhang, Cheng Zhang
- Abstract要約: 部分的に観察されたマルコフ決定問題設定の下で,集団資格とアルゴリズム決定のダイナミクスについて検討した。
このような力学の平衡を特徴付けることにより、静的フェアネス制約の長期的影響がグループウェルビーイングの平等性と改善に与える影響を解析する。
- 参考スコア(独自算出の注目度): 28.069400272075185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although many fairness criteria have been proposed for decision making, their
long-term impact on the well-being of a population remains unclear. In this
work, we study the dynamics of population qualification and algorithmic
decisions under a partially observed Markov decision problem setting. By
characterizing the equilibrium of such dynamics, we analyze the long-term
impact of static fairness constraints on the equality and improvement of group
well-being. Our results show that static fairness constraints can either
promote equality or exacerbate disparity depending on the driving factor of
qualification transitions and the effect of sensitive attributes on feature
distributions. We also consider possible interventions that can effectively
improve group qualification or promote equality of group qualification. Our
theoretical results and experiments on static real-world datasets with
simulated dynamics show that our framework can be used to facilitate social
science studies.
- Abstract(参考訳): 意思決定には多くの公正基準が提案されているが、その長期的影響はいまだ不明である。
本研究では,部分的に観察されたマルコフ決定問題設定の下で,人口資格とアルゴリズム決定のダイナミクスについて検討する。
このような力学の平衡を特徴付けることにより、静的フェアネス制約の長期的影響がグループウェルビーイングの平等性と改善に与える影響を解析する。
以上の結果から, 静的公正性制約は, 品質遷移の駆動要因や特性分布に対する感度特性の影響に応じて, 等値性を促進するか, 格差を悪化させる可能性があることが示唆された。
また、グループ資格を効果的に改善したり、グループ資格の平等を促進できるような介入も検討する。
シミュレーション力学を用いた静的実世界のデータセットに関する理論的結果と実験により,我々のフレームワークが社会科学研究に役立てられることを示す。
関連論文リスト
- Structural Interventions and the Dynamics of Inequality [0.0]
技術的ソリューションは、社会的変化を起こすために、外部のコンテキスト対応の介入と組み合わせなければならないことを示す。
この研究は、構造的不等式が、一見バイアスのない決定機構によって永続することができる方法を強調している。
論文 参考訳(メタデータ) (2024-06-03T13:44:38Z) - Flexible Fairness-Aware Learning via Inverse Conditional Permutation [0.0]
本稿では,逆数学習と新しい逆条件変分スキームを統合した,プロセス内フェアネス対応学習手法であるFairICPを紹介する。
FairICPは、複素および多次元の感度特性によって記述された公正な条件下での等化オッズを促進する理論的に正当化され、柔軟で効率的なスキームを提供する。
論文 参考訳(メタデータ) (2024-04-08T16:57:44Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Impact Remediation: Optimal Interventions to Reduce Inequality [10.806517393212491]
我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
論文 参考訳(メタデータ) (2021-07-01T16:35:12Z) - Addressing Fairness, Bias and Class Imbalance in Machine Learning: the
FBI-loss [11.291571222801027]
公正性・バイアス・不均衡に関する問題に対処する統合的損失補正(FBI-loss)を提案する。
提案手法の補正能力は実世界の3つのベンチマークで評価される。
論文 参考訳(メタデータ) (2021-05-13T15:01:14Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。