論文の概要: Double Fairness Policy Learning: Integrating Action Fairness and Outcome Fairness in Decision-making
- arxiv url: http://arxiv.org/abs/2601.19186v1
- Date: Tue, 27 Jan 2026 04:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.174678
- Title: Double Fairness Policy Learning: Integrating Action Fairness and Outcome Fairness in Decision-making
- Title(参考訳): 二重公正政策学習 : 意思決定におけるアクションフェアネスとアウトカムフェアネスの統合
- Authors: Zeyu Bian, Lan Wang, Chengchun Shi, Zhengling Qi,
- Abstract要約: 政策学習は、アクションフェアネス(等価な行動課題)と結果フェアネス(等価な下流結果)の2つの異なるフェアネス目標を誘導する
本稿では,アクションフェアネス,結果フェアネス,信頼に値する価値という3つの目標のトレードオフを明示的に管理する,新しいダブルフェアネス学習(DFL)フレームワークを提案する。
運動型第三者責任保険データセットと起業訓練データセットに応用すると、DFLは行動と結果の公正性の両方を大幅に改善し、全体的な価値はわずかに低下する。
- 参考スコア(独自算出の注目度): 25.90320742385333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a central pillar of trustworthy machine learning, especially in domains where accuracy- or profit-driven optimization is insufficient. While most fairness research focuses on supervised learning, fairness in policy learning remains less explored. Because policy learning is interventional, it induces two distinct fairness targets: action fairness (equitable action assignments) and outcome fairness (equitable downstream consequences). Crucially, equalizing actions does not generally equalize outcomes when groups face different constraints or respond differently to the same action. We propose a novel double fairness learning (DFL) framework that explicitly manages the trade-off among three objectives: action fairness, outcome fairness, and value maximization. We integrate fairness directly into a multi-objective optimization problem for policy learning and employ a lexicographic weighted Tchebyshev method that recovers Pareto solutions beyond convex settings, with theoretical guarantees on the regret bounds. Our framework is flexible and accommodates various commonly used fairness notions. Extensive simulations demonstrate improved performance relative to competing methods. In applications to a motor third-party liability insurance dataset and an entrepreneurship training dataset, DFL substantially improves both action and outcome fairness while incurring only a modest reduction in overall value.
- Abstract(参考訳): フェアネスは、特に正確さや利益主導の最適化が不十分な領域において、信頼できる機械学習の中心的な柱である。
ほとんどの公正性研究は教師あり学習に焦点を当てているが、政策学習における公正性はいまだ研究されていない。
政策学習は介入的であるため、アクションフェアネス(等価な行動割り当て)と結果フェアネス(等価な下流結果)の2つの異なるフェアネス目標を誘導する。
決定的に、作用の等化は、集団が異なる制約に直面したり、同じ作用に対して異なる反応をしたときの結果を一般に等化しない。
本稿では,アクションフェアネス,結果フェアネス,価値最大化という3つの目標のトレードオフを明示的に管理する新しいダブルフェアネス学習(DFL)フレームワークを提案する。
我々は、ポリシー学習のための多目的最適化問題に直接公正性を統合するとともに、レキシグラフ重み付けされたチェビシェフ法を用いて、凸設定を超えたパレート解を理論的に保証する。
私たちのフレームワークは柔軟で、様々なよく使われる公正の概念に対応しています。
大規模なシミュレーションでは、競合する手法と比較して性能が向上した。
運動型第三者責任保険データセットと起業訓練データセットに応用すると、DFLは行動と結果の公正性の両方を大幅に改善し、全体的な価値はわずかに低下する。
関連論文リスト
- Procedural Fairness in Multi-Agent Bandits [6.6764415968019195]
我々は、すべてのエージェントに対して平等な意思決定力を提供する新しい公正目標、手続き的公正を導入する。
我々は、異なる公正の概念が根本的に異なる値と非互換な値を優先していることを示し、公正性は明示的な規範的選択を必要とすることを強調した。
論文 参考訳(メタデータ) (2026-01-15T17:11:51Z) - Adversarial Bias: Data Poisoning Attacks on Fairness [48.17618627431355]
AIシステムの公正性を意図的に侵害する研究は比較的少ない。
本研究は, 簡便な敵毒対策が, 最大不公平な行動を引き起こすのに十分であることを示す理論的解析である。
当社の攻撃は、複数のモデルやデータセットにわたる公正度メトリクスの劣化において、既存の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2025-11-11T15:09:53Z) - A General Incentives-Based Framework for Fairness in Multi-agent Resource Allocation [4.930376365020355]
GIFF(General Incentives-based Framework for Fairness)を紹介する。
GIFFは、標準値関数から公平な意思決定を推測する、公平なマルチエージェントリソース割り当てのための新しいアプローチである。
論文 参考訳(メタデータ) (2025-10-30T17:37:51Z) - Fairness-Aware Reinforcement Learning (FAReL): A Framework for Transparent and Balanced Sequential Decision-Making [41.53741129864172]
実世界のシーケンシャルな決定問題の等価性は、公平性を意識した方法で実施することができる。
複数のトレードオフを探索できるフレームワークを提案する。
フレームワークは複数のシナリオでより公平なポリシーを学習し、パフォーマンスの報酬をわずかに損なうだけであることを示す。
論文 参考訳(メタデータ) (2025-09-26T11:42:14Z) - A Causal Lens for Learning Long-term Fair Policies [3.2233767737586674]
本稿では,動的意思決定システムにおける長期公正性の検証の重要性を強調した。
本稿では,期待される平均資格獲得率の差によって,長期的公正度が測定される一般的な枠組みを提案する。
我々は、これらの構成要素と、利益公正という新たな公正概念との本質的な関係を解析する。
論文 参考訳(メタデータ) (2025-06-12T19:22:50Z) - Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Off-Policy Imitation Learning from Observations [78.30794935265425]
観察からの学習(lfo)は、多くのアプリケーションが利用できる実用的な強化学習シナリオである。
オフポリシ最適化を原則的に実現するサンプル効率の高いLfOアプローチを提案する。
我々のアプローチは、サンプル効率と性能の両面で最先端のロコモーションに匹敵する。
論文 参考訳(メタデータ) (2021-02-25T21:33:47Z) - Inherent Trade-offs in the Fair Allocation of Treatments [2.6143568807090696]
明示的で暗黙的な偏見は人間の判断を曇らせ、少数民族の差別的扱いに繋がる。
フェアネス制約を考慮したデータから最適な介入ポリシーを学習する因果的枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-30T17:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。