論文の概要: Testing Relative Fairness in Human Decisions With Machine Learning
- arxiv url: http://arxiv.org/abs/2112.11279v2
- Date: Sun, 17 Dec 2023 20:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:50:45.867718
- Title: Testing Relative Fairness in Human Decisions With Machine Learning
- Title(参考訳): 機械学習による人間の判断における相対的公正性テスト
- Authors: Zhe Yu, Xiaoyin Xi
- Abstract要約: この研究は、人間の判断における相対的公正性をテストすることを目的としている。
公正な決定”を定義する代わりに、私たちは、別の決定に対して設定された相対的公正性をチェックします。
人間の判断に基づいてトレーニングされた機械学習モデルがバイアス/推論を継承可能であることを示す。
- 参考スコア(独自算出の注目度): 4.8518076650315045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in decision-making has been a long-standing issue in our society.
Compared to algorithmic fairness, fairness in human decisions is even more
important since there are processes where humans make the final decisions and
that machine learning models inherit bias from the human decisions they were
trained on. However, the standard for fairness in human decisions are highly
subjective and contextual. This leads to the difficulty for testing "absolute"
fairness in human decisions. To bypass this issue, this work aims to test
relative fairness in human decisions. That is, instead of defining what are
"absolute" fair decisions, we check the relative fairness of one decision set
against another. An example outcome can be: Decision Set A favors female over
male more than Decision Set B. Such relative fairness has the following
benefits: (1) it avoids the ambiguous and contradictory definition of
"absolute" fair decisions; (2) it reveals the relative preference and bias
between different human decisions; (3) if a reference set of decisions is
provided, relative fairness of other decision sets against this reference set
can reflect whether those decision sets are fair by the standard of that
reference set. We define the relative fairness with statistical tests (null
hypothesis and effect size tests) of the decision differences across each
sensitive group. Furthermore, we show that a machine learning model trained on
the human decisions can inherit the bias/preference and therefore can be
utilized to estimate the relative fairness between two decision sets made on
different data.
- Abstract(参考訳): 意思決定の公平性は、我々の社会における長年の問題である。
アルゴリズムの公平性と比較して、人間が最終決定を下すプロセスや、トレーニングされた人間の決定から機械学習モデルがバイアスを継承するプロセスがあるため、人間の決定の公平性はさらに重要である。
しかし、人間の決定における公平さの基準は、非常に主観的かつ文脈的である。
これは、人間の決定において「絶対的」公平さをテストするのが困難になる。
この問題を回避するため、この研究は人間の決定における相対的公平性をテストすることを目的としている。
つまり、"絶対的な"公平な決定を定義する代わりに、ある決定セットの相対的公平性をチェックするのです。
An example outcome can be: Decision Set A favors female over male more than Decision Set B. Such relative fairness has the following benefits: (1) it avoids the ambiguous and contradictory definition of "absolute" fair decisions; (2) it reveals the relative preference and bias between different human decisions; (3) if a reference set of decisions is provided, relative fairness of other decision sets against this reference set can reflect whether those decision sets are fair by the standard of that reference set.
我々は,各センシティブグループにおける決定差の統計的テスト(ヌル仮説と効果サイズテスト)における相対的公平性を定義する。
さらに、人間の判断に基づいて訓練された機械学習モデルは、バイアス/プリファレンスを継承できるため、異なるデータに基づいてなされる2つの決定セット間の相対的公平さを推定できることを示した。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Learning the Preferences of Uncertain Humans with Inverse Decision
Theory [10.926992035470372]
我々は,不確実性の下で連続的でない二項決定を行う,人間を観察する枠組みである逆決定理論(IDT)の設定について検討する。
IDTでは、人間の好みは損失関数を通じて伝達され、異なるタイプの誤り間のトレードオフを表現する。
決定問題がより不確実な場合には、実際に好みを特定するのが簡単であることを示す。
論文 参考訳(メタデータ) (2021-06-19T00:11:13Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。