論文の概要: Doubting AI Predictions: Influence-Driven Second Opinion Recommendation
- arxiv url: http://arxiv.org/abs/2205.00072v1
- Date: Fri, 29 Apr 2022 20:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 10:02:37.808545
- Title: Doubting AI Predictions: Influence-Driven Second Opinion Recommendation
- Title(参考訳): AI予測の倍増 - 影響駆動の第2のオピニオン推奨
- Authors: Maria De-Arteaga, Alexandra Chouldechova, Artur Dubrawski
- Abstract要約: 我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
- 参考スコア(独自算出の注目度): 92.30805227803688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective human-AI collaboration requires a system design that provides
humans with meaningful ways to make sense of and critically evaluate
algorithmic recommendations. In this paper, we propose a way to augment
human-AI collaboration by building on a common organizational practice:
identifying experts who are likely to provide complementary opinions. When
machine learning algorithms are trained to predict human-generated assessments,
experts' rich multitude of perspectives is frequently lost in monolithic
algorithmic recommendations. The proposed approach aims to leverage productive
disagreement by (1) identifying whether some experts are likely to disagree
with an algorithmic assessment and, if so, (2) recommend an expert to request a
second opinion from.
- Abstract(参考訳): 効果的な人間とAIのコラボレーションには、人間にアルゴリズムレコメンデーションを理解し、批判的に評価する意味のある方法を提供するシステム設計が必要である。
本稿では,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づく人間とAIのコラボレーションを強化する手法を提案する。
人間の生成した評価を予測するために機械学習アルゴリズムを訓練する場合、専門家の豊富な視点がモノリシックなアルゴリズムの推奨で失われることが多い。
提案手法は,(1)一部の専門家がアルゴリズム的評価に異を唱える可能性があり,(2)専門家に第2の意見を求めるよう勧めることによって,生産的不一致を活用することを目的としている。
関連論文リスト
- Distinguishing the Indistinguishable: Human Expertise in Algorithmic
Prediction [18.09965382119818]
アルゴリズムの予測に人間の専門知識を取り入れるための新しい枠組みを導入する。
我々のアプローチは、人間による判断を用いて、どんな予測アルゴリズムにも「同じように見える」入力を区別することに焦点を当てている。
論文 参考訳(メタデータ) (2024-02-01T17:23:54Z) - Learning to Make Adherence-Aware Advice [9.197904496216598]
本稿では,人間の従順性を考慮した逐次意思決定モデルを提案する。
最適なアドバイスポリシーを学習し、重要なタイムスタンプでのみアドバイスを行う学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-10-01T23:15:55Z) - Learning to Defer with Limited Expert Predictions [0.0]
本稿では,アルゴリズムを遅延させる学習訓練に必要な専門家予測数を3段階に短縮する手法を提案する。
実験の結果,この手法により,人間専門家の予測が最小限に抑えられたアルゴリズムを,様々な学習の訓練で遅延させることができることがわかった。
論文 参考訳(メタデータ) (2023-04-14T09:22:34Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Learning When to Advise Human Decision Makers [12.47847261193524]
本稿では,アルゴリズムがユーザと双方向に対話するAIシステムの設計を提案する。
大規模な実験の結果,私たちのアドバイスアプローチは,必要な時にアドバイスを提供することができることがわかった。
論文 参考訳(メタデータ) (2022-09-27T17:52:13Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。