論文の概要: Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results
- arxiv url: http://arxiv.org/abs/2212.01725v1
- Date: Sun, 4 Dec 2022 02:30:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 19:04:39.640756
- Title: Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results
- Title(参考訳): 文脈資源配分システムの公正性:メトリクスと非互換性
- Authors: Nathanael Jo, Bill Tang, Kathryn Dullerud, Sina Aghaei, Eric Rice,
Phebe Vayanos
- Abstract要約: 本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.705334602362225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study critical systems that allocate scarce resources to satisfy basic
needs, such as homeless services that provide housing. These systems often
support communities disproportionately affected by systemic racial, gender, or
other injustices, so it is crucial to design these systems with fairness
considerations in mind. To address this problem, we propose a framework for
evaluating fairness in contextual resource allocation systems that is inspired
by fairness metrics in machine learning. This framework can be applied to
evaluate the fairness properties of a historical policy, as well as to impose
constraints in the design of new (counterfactual) allocation policies. Our work
culminates with a set of incompatibility results that investigate the interplay
between the different fairness metrics we propose. Notably, we demonstrate
that: 1) fairness in allocation and fairness in outcomes are usually
incompatible; 2) policies that prioritize based on a vulnerability score will
usually result in unequal outcomes across groups, even if the score is
perfectly calibrated; 3) policies using contextual information beyond what is
needed to characterize baseline risk and treatment effects can be fairer in
their outcomes than those using just baseline risk and treatment effects; and
4) policies using group status in addition to baseline risk and treatment
effects are as fair as possible given all available information. Our framework
can help guide the discussion among stakeholders in deciding which fairness
metrics to impose when allocating scarce resources.
- Abstract(参考訳): 本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすために不足資源を割り当てるクリティカルシステムについて研究する。
これらのシステムは、しばしば体系的な人種、性別、その他の不正によって不釣り合いに影響を受けるコミュニティをサポートするため、公平性を念頭に置いてこれらのシステムを設計することが不可欠である。
そこで本研究では,機械学習における公平度メトリクスに触発されたコンテキスト資源割当システムの公平性を評価するフレームワークを提案する。
この枠組みは、歴史政策の公正性の評価や、新しい(非現実的な)アロケーションポリシーの設計に制約を加えるために適用することができる。
我々の研究は、我々が提案する異なる公平度メトリクス間の相互作用を研究する一連の非互換性の結果で締めくくられる。
特に、私たちはこう示しています。
1) 配当の公平性及び結果の公正性は,通常,相容れない。
2 脆弱性スコアに基づいて優先するポリシーは、たとえスコアが完全に校正されているとしても、通常、グループ間で不平等な結果をもたらす。
3)基準リスクと治療効果を特徴付けるために必要となる以上の文脈情報を用いた政策は、基準リスクと治療効果のみを使用する政策よりも結果が公平である。
4) 基本リスク及び治療効果に加えて,グループステータスを使用するポリシーは,利用可能なすべての情報から可能な限り公平である。
私たちのフレームワークは、不足するリソースを割り当てるときに課すべき公平度メトリクスを決定する上で、ステークホルダ間の議論をガイドするのに役立ちます。
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
意外なことに、リスクの高い人に対する治療率の有意義な限界を計算できることが示されています。
現実の多くの環境では、リスクの偏りのない見積を導き出すために、アロケーションの前にデータを持っているという事実を使用します。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - The Role of Relevance in Fair Ranking [1.5469452301122177]
妥当性スコアは、公正な介入を導くために、望ましい基準のセットを満たすべきであると論じる。
次に、偏りのあるユーザクリックデータから推定される関連性のケーススタディにおいて、これらの基準がすべて満たされているわけではないことを実証的に示す。
分析と結果から,関連収集・生成への新たなアプローチの必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2023-05-09T16:58:23Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。