論文の概要: A Machine Learning-based Framework towards Assessment of Decision-Makers' Biases
- arxiv url: http://arxiv.org/abs/2411.18122v1
- Date: Wed, 27 Nov 2024 08:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:25:56.469833
- Title: A Machine Learning-based Framework towards Assessment of Decision-Makers' Biases
- Title(参考訳): 意思決定者のバイアス評価のための機械学習ベースのフレームワーク
- Authors: Wanxue Dong, Maria De-arteaga, Maytal Saar-Tsechansky,
- Abstract要約: 人為的意思決定におけるバイアスを評価するための機械学習ベースのフレームワークを提案する。
提案手法が既存の代替手段よりも優れていることを示す理論的保証と実証的証拠を提供する。
- 参考スコア(独自算出の注目度): 10.983607899068204
- License:
- Abstract: Biased human decisions have consequential impacts across various domains, yielding unfair treatment of individuals and resulting in suboptimal outcomes for organizations and society. In recognition of this fact, organizations regularly design and deploy interventions aimed at mitigating these biases. However, measuring human decision biases remains an important but elusive task. Organizations are frequently concerned with mistaken decisions disproportionately affecting one group. In practice, however, this is typically not possible to assess due to the scarcity of a gold standard: a label that indicates what the correct decision would have been. In this work, we propose a machine learning-based framework to assess bias in human-generated decisions when gold standard labels are scarce. We provide theoretical guarantees and empirical evidence demonstrating the superiority of our method over existing alternatives. This proposed methodology establishes a foundation for transparency in human decision-making, carrying substantial implications for managerial duties, and offering potential for alleviating algorithmic biases when human decisions are used as labels to train algorithms.
- Abstract(参考訳): バイアスされた人間の決定は、様々な領域に連続的に影響し、個人を不公平に扱い、組織や社会に最適な結果をもたらす。
この事実を認識して、組織はこれらのバイアスを軽減するための介入を定期的に設計し、展開します。
しかし、人間の判断バイアスを測定することは依然として重要な課題である。
組織は、しばしば、1つのグループに不均等に影響を及ぼす間違った決定に気を配る。
しかし実際には、金本位制が不足しているために、正しい決定がどのようなものであったかを示すラベルとして評価できないのが一般的である。
本研究では,金の標準ラベルが不足している場合に,人為的意思決定におけるバイアスを評価するための機械学習ベースのフレームワークを提案する。
提案手法が既存の方法よりも優れていることを示す理論的保証と実証的証拠を提供する。
提案手法は,人的意思決定における透明性の基盤を確立し,管理業務に多大な影響を与えるとともに,人的意思決定をラベルとして用いてアルゴリズムを訓練する際のアルゴリズムバイアスを軽減する可能性を提供する。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Decision Theoretic Foundations for Experiments Evaluating Human Decisions [18.27590643693167]
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが実用性を最大化する決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
実演として,AIによる意思決定に関する文献からの意思決定の評価が,これらの基準をどの程度達成したかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - A Human-Centric Perspective on Fairness and Transparency in Algorithmic
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
非透明なシステムは、健全性の評価と校正が難しいため、不公平な結果をもたらす傾向にある。
私は博士論文を通じて以下の3つの主要な貢献をしたいと考えています。
論文 参考訳(メタデータ) (2022-04-29T18:31:04Z) - A Ranking Approach to Fair Classification [11.35838396538348]
アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
多くのシナリオでは、ゼロ・トゥルース・ラベルは利用できなくなり、代わりに人間による決定の結果、不完全なラベルにしかアクセスできません。
本稿では,従来の分類アルゴリズムの代替として,公平なランク付けに基づく意思決定システムを提案する。
論文 参考訳(メタデータ) (2021-02-08T22:51:12Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。