論文の概要: Testing Relative Fairness in Human Decisions With Machine Learning
- arxiv url: http://arxiv.org/abs/2112.11279v2
- Date: Sun, 17 Dec 2023 20:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:50:45.867718
- Title: Testing Relative Fairness in Human Decisions With Machine Learning
- Title(参考訳): 機械学習による人間の判断における相対的公正性テスト
- Authors: Zhe Yu, Xiaoyin Xi
- Abstract要約: この研究は、人間の判断における相対的公正性をテストすることを目的としている。
公正な決定”を定義する代わりに、私たちは、別の決定に対して設定された相対的公正性をチェックします。
人間の判断に基づいてトレーニングされた機械学習モデルがバイアス/推論を継承可能であることを示す。
- 参考スコア(独自算出の注目度): 4.8518076650315045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in decision-making has been a long-standing issue in our society.
Compared to algorithmic fairness, fairness in human decisions is even more
important since there are processes where humans make the final decisions and
that machine learning models inherit bias from the human decisions they were
trained on. However, the standard for fairness in human decisions are highly
subjective and contextual. This leads to the difficulty for testing "absolute"
fairness in human decisions. To bypass this issue, this work aims to test
relative fairness in human decisions. That is, instead of defining what are
"absolute" fair decisions, we check the relative fairness of one decision set
against another. An example outcome can be: Decision Set A favors female over
male more than Decision Set B. Such relative fairness has the following
benefits: (1) it avoids the ambiguous and contradictory definition of
"absolute" fair decisions; (2) it reveals the relative preference and bias
between different human decisions; (3) if a reference set of decisions is
provided, relative fairness of other decision sets against this reference set
can reflect whether those decision sets are fair by the standard of that
reference set. We define the relative fairness with statistical tests (null
hypothesis and effect size tests) of the decision differences across each
sensitive group. Furthermore, we show that a machine learning model trained on
the human decisions can inherit the bias/preference and therefore can be
utilized to estimate the relative fairness between two decision sets made on
different data.
- Abstract(参考訳): 意思決定の公平性は、我々の社会における長年の問題である。
アルゴリズムの公平性と比較して、人間が最終決定を下すプロセスや、トレーニングされた人間の決定から機械学習モデルがバイアスを継承するプロセスがあるため、人間の決定の公平性はさらに重要である。
しかし、人間の決定における公平さの基準は、非常に主観的かつ文脈的である。
これは、人間の決定において「絶対的」公平さをテストするのが困難になる。
この問題を回避するため、この研究は人間の決定における相対的公平性をテストすることを目的としている。
つまり、"絶対的な"公平な決定を定義する代わりに、ある決定セットの相対的公平性をチェックするのです。
An example outcome can be: Decision Set A favors female over male more than Decision Set B. Such relative fairness has the following benefits: (1) it avoids the ambiguous and contradictory definition of "absolute" fair decisions; (2) it reveals the relative preference and bias between different human decisions; (3) if a reference set of decisions is provided, relative fairness of other decision sets against this reference set can reflect whether those decision sets are fair by the standard of that reference set.
我々は,各センシティブグループにおける決定差の統計的テスト(ヌル仮説と効果サイズテスト)における相対的公平性を定義する。
さらに、人間の判断に基づいて訓練された機械学習モデルは、バイアス/プリファレンスを継承できるため、異なるデータに基づいてなされる2つの決定セット間の相対的公平さを推定できることを示した。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - On Fair Selection in the Presence of Implicit and Differential Variance [22.897402186120434]
本研究では, 意思決定者が各候補の品質のノイズの多い推定値を受け取り, その差が候補群に依存するモデルについて検討する。
どちらの基準決定要因も、反対方向にも差別をもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-10T16:04:13Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。