論文の概要: A Pilot Study on Detecting Unfairness in Human Decisions With Machine
Learning Algorithmic Bias Detection
- arxiv url: http://arxiv.org/abs/2112.11279v1
- Date: Tue, 21 Dec 2021 15:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:50:30.381165
- Title: A Pilot Study on Detecting Unfairness in Human Decisions With Machine
Learning Algorithmic Bias Detection
- Title(参考訳): 機械学習アルゴリズムバイアス検出による人間の判断の不公平検出に関する実験的検討
- Authors: Zhe Yu, Xiaoyin Xi
- Abstract要約: この研究は、不公平な人間の決定問題を解決するための最初のステップである、人間の決定の不公平さを検出することを目的としている。
この背景にある理論的根拠は、人間が不公平な判断を下すかどうかを直接検査することは困難であるが、機械学習の公正性に関する現在の研究は、機械学習モデルが不公平であるかどうかに関わらず、大規模なテストは容易である。
- 参考スコア(独自算出の注目度): 1.547743767987131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in decision-making has been a long-standing issue in our society.
Despite the increasing number of research activities on unfairness mitigation
in machine learning models, there is little research focusing on mitigating
unfairness in human decisions. Fairness in human decisions is as important as,
if not more important than, fairness in machine learning models since there are
processes where humans make the final decisions and machine learning models can
inherit bias from the human decisions they were trained on. As a result, this
work aims to detect unfairness in human decisions, the very first step of
solving the unfair human decision problem.
This paper proposes to utilize the existing machine learning fairness
detection mechanisms to detect unfairness in human decisions. The rationale
behind this is, while it is difficult to directly test whether a human makes
unfair decisions, with current research on machine learning fairness, it is now
easy to test, on a large scale at a low cost, whether a machine learning model
is unfair. By synthesizing unfair labels on four general machine learning
fairness datasets and one image processing dataset, this paper shows that the
proposed approach is able to detect (1) whether or not unfair labels exist in
the training data and (2) the degree and direction of the unfairness. We
believe that this work demonstrates the potential of utilizing machine learning
fairness to detect human decision fairness. Following this work, research can
be conducted on (1) preventing future unfair decisions, (2) fixing prior unfair
decisions, and (3) training a fairer machine learning model.
- Abstract(参考訳): 意思決定の公平性は、我々の社会における長年の問題である。
機械学習モデルにおける不公平さ緩和に関する研究活動が増えているが、人間の意思決定における不公平さの緩和に重点を置く研究は少ない。
人間の決定の公平性は、人間が最終決定をするプロセスがあり、機械学習モデルは訓練された人間の決定からバイアスを継承できるため、マシンラーニングモデルの公平性と同じくらい重要である。
その結果、この研究は、不公平な人間の意思決定問題を解決するための最初のステップである、人間の決定の不公平さを検出することを目的としている。
本稿では,既存の機械学習フェアネス検出機構を用いて,人間の判断の不公平さを検出することを提案する。
この背景にある理論的根拠は、人間が不公平な判断を下すかどうかを直接検査することは困難であるが、機械学習の公正性に関する現在の研究により、機械学習モデルが不公平であるかどうかに関わらず、大規模なテストは容易である。
本稿では,4つの機械学習フェアネスデータセットと1つの画像処理データセットに不公平なラベルを合成することにより,(1)トレーニングデータに不公平なラベルが存在するか否か,(2)不公平さの程度と方向性を検出することができることを示す。
この研究は、人間の意思決定の公平性を検出するために機械学習の公平性を活用する可能性を証明していると信じている。
本研究は,(1)将来の不公平な決定の防止,(2)事前の不公平な決定の修正,(3)より公平な機械学習モデルを訓練することを目的とした研究である。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Learning the Preferences of Uncertain Humans with Inverse Decision
Theory [10.926992035470372]
我々は,不確実性の下で連続的でない二項決定を行う,人間を観察する枠組みである逆決定理論(IDT)の設定について検討する。
IDTでは、人間の好みは損失関数を通じて伝達され、異なるタイプの誤り間のトレードオフを表現する。
決定問題がより不確実な場合には、実際に好みを特定するのが簡単であることを示す。
論文 参考訳(メタデータ) (2021-06-19T00:11:13Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。