論文の概要: Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making
- arxiv url: http://arxiv.org/abs/2109.08792v1
- Date: Sat, 18 Sep 2021 00:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:06:43.114341
- Title: Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making
- Title(参考訳): 公正になるための学習: 等価意思決定への連続的アプローチ
- Authors: Alex Chohlas-Wood, Madison Coots, Emma Brunskill, Sharad Goel
- Abstract要約: アクションの結果を直接予測するフェアネスのための代替フレームワークを提案する。
例えば、貸し手はローンを返済する可能性が最も高い者に信用を拡大する一方、近隣諸国でも同様の貸付率を好むことがある。
本研究では,表現力のあるユーティリティ機能群を対象としたデータから,これらの最適ポリシーを効率的に学習する手法を開発し,記述する。
- 参考スコア(独自算出の注目度): 33.364797746786635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the dominant paradigm for designing equitable machine learning systems,
one works to ensure that model predictions satisfy various fairness criteria,
such as parity in error rates across race, gender, and other legally protected
traits. That approach, however, typically divorces predictions from the
downstream outcomes they ultimately affect, and, as a result, can induce
unexpected harms. Here we present an alternative framework for fairness that
directly anticipates the consequences of actions. Stakeholders first specify
preferences over the possible outcomes of an algorithmically informed
decision-making process. For example, lenders may prefer extending credit to
those most likely to repay a loan, while also preferring similar lending rates
across neighborhoods. One then searches the space of decision policies to
maximize the specified utility. We develop and describe a method for
efficiently learning these optimal policies from data for a large family of
expressive utility functions, facilitating a more holistic approach to
equitable decision-making.
- Abstract(参考訳): 公平な機械学習システムを設計するための支配的なパラダイムでは、モデル予測が人種、性別、その他の法的に保護された特性に対する誤り率のパリティなどの様々な公正性基準を満たすことを保証する。
しかし、このアプローチは一般的に、最終的に影響する下流の結果から予測を離し、その結果、予期せぬ危害を引き起こす可能性がある。
ここでは、アクションの結果を直接予測する公平性のための代替フレームワークを提案する。
利害関係者はまず、アルゴリズム的に情報を得た意思決定プロセスの結果よりも優先事項を指定する。
例えば、貸し手はローンを返済する可能性が最も高い者に信用を広げる一方、近隣諸国でも同様の貸付率を好む。
次に、指定されたユーティリティを最大化するために決定ポリシーの空間を検索する。
本研究では,表現力のあるユーティリティ関数の大規模なファミリーのデータから,これらの最適なポリシを効率的に学習する手法を開発し,提案する。
関連論文リスト
- Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Designing Equitable Algorithms [1.9006392177894293]
現在、予測アルゴリズムは、我々の社会の資源と制裁の大部分を分配するのに使われています。
これらのアルゴリズムは意思決定の効率と公平性を改善することができる。
しかし、彼らは特に人種、民族、性別のラインで格差を拡大し、悪化させる可能性がある。
論文 参考訳(メタデータ) (2023-02-17T22:00:44Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Efficient Algorithms for Planning with Participation Constraints [74.74967476995572]
我々は[Zhang et al., 2022]に導入された参加制約を伴う計画の問題を考える。
この問題では、プリンシパルが決定プロセスのアクションを選択し、プリンシパルとエージェントの別々のユーティリティが生成される。
有限ホライズン設定では,これまでは$varepsilon$-approximationという付加値しか知られていなかった。
論文 参考訳(メタデータ) (2022-05-16T15:47:41Z) - Fair Algorithm Design: Fair and Efficacious Machine Scheduling [0.0]
公正なアルゴリズムは低い社会福祉ソリューションをもたらすが、福祉最適化アルゴリズムは非常に不公平である。
本稿では,この二分法が,無視できる量のバイアスを許容すれば克服できることを実証する。
論文 参考訳(メタデータ) (2022-04-13T14:56:22Z) - Efficient and Optimal Algorithms for Contextual Dueling Bandits under
Realizability [59.81339109121384]
我々は,学習者が文脈情報を用いて2つの決定を下す連続的な決定設定であるK$コンテキストデュエルバンディット問題について検討するが,一方の判断が他方よりも優れていることを示唆する強調基準に基づくフィードバックのみを観察する。
提案手法は, 最善応答後悔という新たな概念に対して, 最善応答後悔に対する最適後悔率を実現するアルゴリズムである。
論文 参考訳(メタデータ) (2021-11-24T07:14:57Z) - Understanding the Effect of Stochasticity in Policy Optimization [86.7574122154668]
最適化手法の優位性は、正確な勾配が用いられるかどうかに大きく依存することを示す。
次に,政策最適化におけるコミット率の概念を紹介する。
第三に、外部のオラクル情報がない場合には、収束を加速するために幾何を利用することと、最適性をほぼ確実に達成することとの間に本質的にトレードオフがあることが示される。
論文 参考訳(メタデータ) (2021-10-29T06:35:44Z) - Algorithmic Challenges in Ensuring Fairness at the Time of Decision [6.228560624452748]
社会的文脈におけるアルゴリズムによる意思決定は、帯域幅フィードバックの下で最適化される。
最近の訴訟は、アルゴリズムによる価格設定の慣行を展開している企業を非難している。
凸最適化の文脈において、遠心自由というよく研究された公正性の概念を導入する。
論文 参考訳(メタデータ) (2021-03-16T19:06:28Z) - Fair Policy Targeting [0.6091702876917281]
社会福祉プログラムにおける個人に対する介入を標的とする主な関心事の1つは差別である。
本稿では,公平かつ効率的な処理割り当てルールの設計に関する課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T20:45:25Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。