論文の概要: (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers
- arxiv url: http://arxiv.org/abs/2409.12677v1
- Date: Thu, 19 Sep 2024 11:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 13:56:59.009317
- Title: (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers
- Title(参考訳): (不確かさ:不公平な意思決定者の選好に基づく選好
- Authors: Manh Khoi Duong, Stefan Conrad,
- Abstract要約: 公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness metrics are used to assess discrimination and bias in decision-making processes across various domains, including machine learning models and human decision-makers in real-world applications. This involves calculating the disparities between probabilistic outcomes among social groups, such as acceptance rates between male and female applicants. However, traditional fairness metrics do not account for the uncertainty in these processes and lack of comparability when two decision-makers exhibit the same disparity. Using Bayesian statistics, we quantify the uncertainty of the disparity to enhance discrimination assessments. We represent each decision-maker, whether a machine learning model or a human, by its disparity and the corresponding uncertainty in that disparity. We define preferences over decision-makers and utilize brute-force to choose the optimal decision-maker according to a utility function that ranks decision-makers based on these preferences. The decision-maker with the highest utility score can be interpreted as the one for whom we are most certain that it is fair.
- Abstract(参考訳): 公正度メトリクスは、機械学習モデルや現実世界のアプリケーションにおける人間の意思決定者を含む、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
これは、男女間の受容率など、社会集団間の確率的結果の格差を計算することを含む。
しかし、伝統的な公正度指標は、これらのプロセスの不確実性や、2つの意思決定者が同じ格差を示す場合の互換性の欠如を考慮に入れていない。
ベイズ統計を用いて、格差の不確かさを定量化し、差別評価を強化する。
我々は、その格差とそれに対応する不確実性によって、機械学習モデルであれ人間であれ、それぞれの意思決定者を表現する。
我々は,意思決定者に対する選好を定義し,これらの選好に基づいて意思決定者をランク付けするユーティリティ機能に基づき,最適な意思決定者を選択するためにブルートフォースを利用する。
実用性スコアが最も高い意思決定者は、それが公正であるということを最も確実なものと解釈することができる。
関連論文リスト
- Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Measuring Classification Decision Certainty and Doubt [61.13511467941388]
複数分類決定機械学習問題における予測の品質と不確実性を評価し,比較するため,直感的なスコアを提案する。
論文 参考訳(メタデータ) (2023-03-25T21:31:41Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - Testing Relative Fairness in Human Decisions With Machine Learning [4.8518076650315045]
この研究は、人間の判断における相対的公正性をテストすることを目的としている。
公正な決定”を定義する代わりに、私たちは、別の決定に対して設定された相対的公正性をチェックします。
人間の判断に基づいてトレーニングされた機械学習モデルがバイアス/推論を継承可能であることを示す。
論文 参考訳(メタデータ) (2021-12-21T15:05:42Z) - On Fair Selection in the Presence of Implicit and Differential Variance [22.897402186120434]
本研究では, 意思決定者が各候補の品質のノイズの多い推定値を受け取り, その差が候補群に依存するモデルについて検討する。
どちらの基準決定要因も、反対方向にも差別をもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-10T16:04:13Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。