論文の概要: Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making
- arxiv url: http://arxiv.org/abs/2109.08792v4
- Date: Mon, 12 Feb 2024 20:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 20:32:09.421129
- Title: Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making
- Title(参考訳): 公正になるための学習: 等価意思決定への連続的アプローチ
- Authors: Alex Chohlas-Wood, Madison Coots, Henry Zhu, Emma Brunskill, Sharad
Goel
- Abstract要約: 等価なアルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず第一に、決定の可能な空間よりも利害関係者の選好を導きます。
次に、決定ポリシーの空間を最適化し、提案されたユーティリティを最大化する方法でトレードオフを行います。
- 参考スコア(独自算出の注目度): 21.152377319502705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In an attempt to make algorithms fair, the machine learning literature has
largely focused on equalizing decisions, outcomes, or error rates across race
or gender groups. To illustrate, consider a hypothetical government rideshare
program that provides transportation assistance to low-income people with
upcoming court dates. Following this literature, one might allocate rides to
those with the highest estimated treatment effect per dollar, while
constraining spending to be equal across race groups. That approach, however,
ignores the downstream consequences of such constraints, and, as a result, can
induce unexpected harms. For instance, if one demographic group lives farther
from court, enforcing equal spending would necessarily mean fewer total rides
provided, and potentially more people penalized for missing court. Here we
present an alternative framework for designing equitable algorithms that
foregrounds the consequences of decisions. In our approach, one first elicits
stakeholder preferences over the space of possible decisions and the resulting
outcomes--such as preferences for balancing spending parity against court
appearance rates. We then optimize over the space of decision policies, making
trade-offs in a way that maximizes the elicited utility. To do so, we develop
an algorithm for efficiently learning these optimal policies from data for a
large family of expressive utility functions. In particular, we use a
contextual bandit algorithm to explore the space of policies while solving a
convex optimization problem at each step to estimate the best policy based on
the available information. This consequentialist paradigm facilitates a more
holistic approach to equitable decision-making.
- Abstract(参考訳): アルゴリズムを公平にするために、機械学習の文献は、人種や性別グループ間の決定、結果、エラー率の等化に重点を置いてきた。
今後、低所得者への交通支援を行う仮説的な政府ライドシェアプログラムについて説明する。
この文献に従えば、1ドル当たりの待遇効果が最も高い者への乗車を割り当てる一方、人種間での支出は等しく抑えることができる。
しかし、このアプローチはそのような制約の下流の結果を無視し、結果として予期せぬ害を引き起こす可能性がある。
例えば、ある人口集団が裁判所から遠く離れた場所に住んでいる場合、平等な支出を課すことは、提供された総乗車数を減らし、また、欠席した裁判所のために罰せられる人が増える可能性がある。
ここでは、決定結果の前提となる等式アルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず、裁判所の出廷率に対する支出比率のバランスをとることなど、決定の可能な空間と結果の結果として、利害関係者に優先権を与える。
次に、決定政策の領域を最適化し、引き離されたユーティリティを最大化する方法でトレードオフを行います。
そこで我々は,表現力のあるユーティリティ機能群を対象としたデータから,これらの最適ポリシーを効率的に学習するアルゴリズムを開発した。
特に,各ステップの凸最適化問題を解きながら,ポリシの空間を探索するためにコンテキストバンディットアルゴリズムを用い,利用可能な情報に基づいて最適なポリシを推定する。
この一連のパラダイムは、公平な意思決定に対するより包括的なアプローチを促進する。
関連論文リスト
- Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Designing Equitable Algorithms [1.9006392177894293]
現在、予測アルゴリズムは、我々の社会の資源と制裁の大部分を分配するのに使われています。
これらのアルゴリズムは意思決定の効率と公平性を改善することができる。
しかし、彼らは特に人種、民族、性別のラインで格差を拡大し、悪化させる可能性がある。
論文 参考訳(メタデータ) (2023-02-17T22:00:44Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Efficient Algorithms for Planning with Participation Constraints [74.74967476995572]
我々は[Zhang et al., 2022]に導入された参加制約を伴う計画の問題を考える。
この問題では、プリンシパルが決定プロセスのアクションを選択し、プリンシパルとエージェントの別々のユーティリティが生成される。
有限ホライズン設定では,これまでは$varepsilon$-approximationという付加値しか知られていなかった。
論文 参考訳(メタデータ) (2022-05-16T15:47:41Z) - Fair Algorithm Design: Fair and Efficacious Machine Scheduling [0.0]
公正なアルゴリズムは低い社会福祉ソリューションをもたらすが、福祉最適化アルゴリズムは非常に不公平である。
本稿では,この二分法が,無視できる量のバイアスを許容すれば克服できることを実証する。
論文 参考訳(メタデータ) (2022-04-13T14:56:22Z) - Efficient and Optimal Algorithms for Contextual Dueling Bandits under
Realizability [59.81339109121384]
我々は,学習者が文脈情報を用いて2つの決定を下す連続的な決定設定であるK$コンテキストデュエルバンディット問題について検討するが,一方の判断が他方よりも優れていることを示唆する強調基準に基づくフィードバックのみを観察する。
提案手法は, 最善応答後悔という新たな概念に対して, 最善応答後悔に対する最適後悔率を実現するアルゴリズムである。
論文 参考訳(メタデータ) (2021-11-24T07:14:57Z) - Understanding the Effect of Stochasticity in Policy Optimization [86.7574122154668]
最適化手法の優位性は、正確な勾配が用いられるかどうかに大きく依存することを示す。
次に,政策最適化におけるコミット率の概念を紹介する。
第三に、外部のオラクル情報がない場合には、収束を加速するために幾何を利用することと、最適性をほぼ確実に達成することとの間に本質的にトレードオフがあることが示される。
論文 参考訳(メタデータ) (2021-10-29T06:35:44Z) - Algorithmic Challenges in Ensuring Fairness at the Time of Decision [6.228560624452748]
社会的文脈におけるアルゴリズムによる意思決定は、帯域幅フィードバックの下で最適化される。
最近の訴訟は、アルゴリズムによる価格設定の慣行を展開している企業を非難している。
凸最適化の文脈において、遠心自由というよく研究された公正性の概念を導入する。
論文 参考訳(メタデータ) (2021-03-16T19:06:28Z) - Fair Policy Targeting [0.6091702876917281]
社会福祉プログラムにおける個人に対する介入を標的とする主な関心事の1つは差別である。
本稿では,公平かつ効率的な処理割り当てルールの設計に関する課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T20:45:25Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。