論文の概要: Fighting Bias with Bias: A Machine Learning Approach to Assess Human Bias
- arxiv url: http://arxiv.org/abs/2411.18122v3
- Date: Mon, 02 Dec 2024 06:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 13:35:49.127310
- Title: Fighting Bias with Bias: A Machine Learning Approach to Assess Human Bias
- Title(参考訳): バイアスと戦う - バイアスを評価する機械学習アプローチ
- Authors: Wanxue Dong, Maria De-arteaga, Maytal Saar-Tsechansky,
- Abstract要約: 人為的意思決定におけるバイアスを評価するための機械学習ベースのフレームワークを提案する。
提案手法が既存の代替手段よりも優れていることを示す理論的保証と実証的証拠を提供する。
- 参考スコア(独自算出の注目度): 10.983607899068204
- License:
- Abstract: Biased human decisions have consequential impacts across various domains, yielding unfair treatment of individuals and resulting in suboptimal outcomes for organizations and society. In recognition of this fact, organizations regularly design and deploy interventions aimed at mitigating these biases. However, measuring human decision biases remains an important but elusive task. Organizations are frequently concerned with mistaken decisions disproportionately affecting one group. In practice, however, this is typically not possible to assess due to the scarcity of a gold standard: a label that indicates what the correct decision would have been. In this work, we propose a machine learning-based framework to assess bias in human-generated decisions when gold standard labels are scarce. We provide theoretical guarantees and empirical evidence demonstrating the superiority of our method over existing alternatives. This proposed methodology establishes a foundation for transparency in human decision-making, carrying substantial implications for managerial duties, and offering potential for alleviating algorithmic biases when human decisions are used as labels to train algorithms.
- Abstract(参考訳): バイアスされた人間の決定は、様々な領域に連続的に影響し、個人を不公平に扱い、組織や社会に最適な結果をもたらす。
この事実を認識して、組織はこれらのバイアスを軽減するための介入を定期的に設計し、展開します。
しかし、人間の判断バイアスを測定することは依然として重要な課題である。
組織は、しばしば、1つのグループに不均等に影響を及ぼす間違った決定に気を配る。
しかし実際には、金本位制が不足しているために、正しい決定がどのようなものであったかを示すラベルとして評価できないのが一般的である。
本研究では,金の標準ラベルが不足している場合に,人為的意思決定におけるバイアスを評価するための機械学習ベースのフレームワークを提案する。
提案手法が既存の方法よりも優れていることを示す理論的保証と実証的証拠を提供する。
提案手法は,人的意思決定における透明性の基盤を確立し,管理業務に多大な影響を与えるとともに,人的意思決定をラベルとして用いてアルゴリズムを訓練する際のアルゴリズムバイアスを軽減する可能性を提供する。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Decision Theoretic Foundations for Experiments Evaluating Human Decisions [18.27590643693167]
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが実用性を最大化する決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
実演として,AIによる意思決定に関する文献からの意思決定の評価が,これらの基準をどの程度達成したかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - A Ranking Approach to Fair Classification [11.35838396538348]
アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
多くのシナリオでは、ゼロ・トゥルース・ラベルは利用できなくなり、代わりに人間による決定の結果、不完全なラベルにしかアクセスできません。
本稿では,従来の分類アルゴリズムの代替として,公平なランク付けに基づく意思決定システムを提案する。
論文 参考訳(メタデータ) (2021-02-08T22:51:12Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。