論文の概要: Remembering to Be Fair: Non-Markovian Fairness in Sequential Decision Making
- arxiv url: http://arxiv.org/abs/2312.04772v4
- Date: Wed, 19 Jun 2024 20:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 06:08:04.553593
- Title: Remembering to Be Fair: Non-Markovian Fairness in Sequential Decision Making
- Title(参考訳): 非マルコフ的フェアネスとシークエンシャル意思決定
- Authors: Parand A. Alamdari, Toryn Q. Klassen, Elliot Creager, Sheila A. McIlraith,
- Abstract要約: 我々は、連続的な意思決定の文脈における非マルコフ的公正の概念を探求する。
非マルコフ的フェアネスの性質を同定し、長期的、時空的、周期的、有界公正の概念を含む。
フェアポリシの合成において,サンプル効率を向上させるために,トレーニングデータを自動的に拡張するFairQCMアルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 15.289872878202399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair decision making has largely been studied with respect to a single decision. Here we investigate the notion of fairness in the context of sequential decision making where multiple stakeholders can be affected by the outcomes of decisions. We observe that fairness often depends on the history of the sequential decision-making process, and in this sense that it is inherently non-Markovian. We further observe that fairness often needs to be assessed at time points within the process, not just at the end of the process. To advance our understanding of this class of fairness problems, we explore the notion of non-Markovian fairness in the context of sequential decision making. We identify properties of non-Markovian fairness, including notions of long-term, anytime, periodic, and bounded fairness. We explore the interplay between non-Markovian fairness and memory and how memory can support construction of fair policies. Finally, we introduce the FairQCM algorithm, which can automatically augment its training data to improve sample efficiency in the synthesis of fair policies via reinforcement learning.
- Abstract(参考訳): 公正な意思決定は、主に単一の決定に関して研究されている。
本稿では、複数の利害関係者が意思決定の結果に影響を受け得る順序決定の文脈における公平性の概念について考察する。
公平性は、しばしばシーケンシャルな意思決定過程の歴史に依存し、この意味では本質的に非マルコフ的である。
さらに、プロセスの最後に限らず、プロセス内の時間ポイントで公平さを評価する必要があることも観察します。
このような公平性問題に対する理解を深めるために、連続的な意思決定の文脈における非マルコフ的公平性の概念を探求する。
非マルコフ的フェアネスの性質を同定し、長期的、時空的、周期的、有界公正の概念を含む。
我々は,非マルコフ的公正性と記憶の相互作用と,メモリが公正なポリシーの構築を支援する方法について検討する。
最後に、FairQCMアルゴリズムを導入し、トレーニングデータを自動的に拡張し、強化学習による公正なポリシーの合成におけるサンプル効率を向上させる。
関連論文リスト
- Temporal Fairness in Decision Making Problems [13.110642125062428]
我々は、過去の決定の歴史の公平さを考慮して、時間的視点から公平さを判断する方法に焦点をあてる。
本稿では,最適化問題として定式化された意思決定問題に時間的公正さを取り入れた3つのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-23T16:36:58Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - The Unfairness of $\varepsilon$-Fairness [0.0]
我々は、$varepsilon$-fairnessという概念が採用されれば、現実世界の文脈で最大に不公平な結果をもたらす可能性があることを示した。
本研究は,大学入学と信用リスク評価の2つの実例を用いて実施した。
論文 参考訳(メタデータ) (2024-05-15T14:13:35Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - On Learning and Testing of Counterfactual Fairness through Data
Preprocessing [27.674565351048077]
機械学習は実生活における意思決定においてますます重要になっているが、人々は不適切な使用によってもたらされる倫理的問題を懸念している。
最近の研究は、機械学習の公正性に関する議論を因果的枠組みに持ち込み、対実的公正性の概念を精査している。
偏りのあるトレーニングデータから対実的に公正な決定を学習するために,dAta前処理(FLAP)アルゴリズムを用いてフェアラーニングを開発する。
論文 参考訳(メタデータ) (2022-02-25T00:21:46Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。