論文の概要: On the Fairness of Machine-Assisted Human Decisions
- arxiv url: http://arxiv.org/abs/2110.15310v2
- Date: Sun, 24 Sep 2023 02:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 05:22:12.478979
- Title: On the Fairness of Machine-Assisted Human Decisions
- Title(参考訳): 機械による人的決定の公正性について
- Authors: Talia Gillis, Bryce McLaughlin, Jann Spiess
- Abstract要約: 偏りのある人間の意思決定者を含めることで、アルゴリズムの構造と結果の判断の質との間の共通関係を逆転させることができることを示す。
実験室実験では,性別別情報による予測が,意思決定における平均的な性別格差を減少させることを示す。
- 参考スコア(独自算出の注目度): 3.4069627091757178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When machine-learning algorithms are used in high-stakes decisions, we want
to ensure that their deployment leads to fair and equitable outcomes. This
concern has motivated a fast-growing literature that focuses on diagnosing and
addressing disparities in machine predictions. However, many machine
predictions are deployed to assist in decisions where a human decision-maker
retains the ultimate decision authority. In this article, we therefore consider
in a formal model and in a lab experiment how properties of machine predictions
affect the resulting human decisions. In our formal model of statistical
decision-making, we show that the inclusion of a biased human decision-maker
can revert common relationships between the structure of the algorithm and the
qualities of resulting decisions. Specifically, we document that excluding
information about protected groups from the prediction may fail to reduce, and
may even increase, ultimate disparities. In the lab experiment, we demonstrate
how predictions informed by gender-specific information can reduce average
gender disparities in decisions. While our concrete theoretical results rely on
specific assumptions about the data, algorithm, and decision-maker, and the
experiment focuses on a particular prediction task, our findings show more
broadly that any study of critical properties of complex decision systems, such
as the fairness of machine-assisted human decisions, should go beyond focusing
on the underlying algorithmic predictions in isolation.
- Abstract(参考訳): 機械学習アルゴリズムが高精度な意思決定に使用される場合、そのデプロイメントが公平で公平な結果をもたらすようにしたいと思っています。
この懸念は、機械予測における格差の診断と対処に焦点を当てた、急速に成長する文献の動機となっている。
しかしながら、人間の意思決定者が最終的な決定権限を保持する決定を支援するために、多くの機械予測が展開される。
そこで本論文では,機械の予測特性が人間の判断にどう影響するかを,フォーマルなモデルと実験室で検討する。
統計的意思決定の形式的モデルでは、偏りのある人間の意思決定者を含めることで、アルゴリズムの構造と結果決定の質との間の共通関係を逆転させることができることを示す。
具体的には、予測から保護されたグループに関する情報を除くと、減少せず、究極的な格差が増大する可能性があることを文書化します。
実験室実験では,性別別情報による予測が,意思決定における平均性差を減少させることを示す。
具体的な理論結果は、データ、アルゴリズム、意思決定者に関する特定の仮定に依存し、実験は特定の予測タスクに焦点を当てているが、より広い範囲において、機械支援の人間の決定の公平性のような複雑な決定システムの重要な特性の研究は、孤立したアルゴリズム的な予測に焦点を合わせるべきである。
関連論文リスト
- Decision Theoretic Foundations for Experiments Evaluating Human
Decisions [20.5402873175161]
本稿では、統計的決定理論と情報経済学から合成された決定問題の広く適用可能な定義について述べる。
我々は、人間のパフォーマンスの損失をバイアスの形で評価するためには、合理的なエージェントが規範的決定を識別する必要があるという情報を参加者に提供する必要があると論じる。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Robust Design and Evaluation of Predictive Algorithms under Unobserved Confounding [2.8498944632323755]
選択的に観測されたデータにおける予測アルゴリズムの頑健な設計と評価のための統一的なフレームワークを提案する。
我々は、選択されていないユニットと選択されたユニットの間で、平均して結果がどの程度異なるかという一般的な仮定を課す。
我々は,大規模な予測性能推定値のクラスにおける境界値に対するバイアス付き機械学習推定器を開発する。
論文 参考訳(メタデータ) (2022-12-19T20:41:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Predicting and Understanding Human Action Decisions during Skillful
Joint-Action via Machine Learning and Explainable-AI [1.3381749415517021]
本研究では、教師付き機械学習と説明可能な人工知能を用いて、人間の意思決定をモデル化し、予測し、理解する。
長期記憶ネットワークは、専門家と初心者アクターのターゲット選択決定を予測するために訓練された。
論文 参考訳(メタデータ) (2022-06-06T16:54:43Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Counterfactual Predictions under Runtime Confounding [74.90756694584839]
本研究は, 過去のデータからすべての関連要因を抽出した環境で, 事実予測タスクについて検討する。
本稿では,この環境下での対実予測モデル学習のための2次ロバスト手法を提案する。
論文 参考訳(メタデータ) (2020-06-30T15:49:05Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。