論文の概要: Learning to Advise Humans in High-Stakes Settings
- arxiv url: http://arxiv.org/abs/2210.12849v3
- Date: Mon, 13 Feb 2023 16:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:00:40.043504
- Title: Learning to Advise Humans in High-Stakes Settings
- Title(参考訳): ハイstakes設定で人間にアドバイスする学習
- Authors: Nicholas Wolczynski, Maytal Saar-Tsechansky, Tong Wang
- Abstract要約: 高度なAI支援意思決定(AIaDM)設定の専門家意思決定者(DM)は、最終的な決定を行う前に、AIシステムからレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIaDMモデルを開発する上で鍵となる、これらの設定の異なる特性を特定します。
- 参考スコア(独自算出の注目度): 8.921629768446625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expert decision-makers (DMs) in high-stakes AI-assisted decision-making
(AIaDM) settings receive and reconcile recommendations from AI systems before
making their final decisions. We identify distinct properties of these settings
which are key to developing AIaDM models that effectively benefit team
performance. First, DMs incur reconciliation costs from exerting
decision-making resources (e.g., time and effort) when reconciling AI
recommendations that contradict their own judgment. Second, DMs in AIaDM
settings exhibit algorithm discretion behavior (ADB), i.e., an idiosyncratic
tendency to imperfectly accept or reject algorithmic recommendations for any
given decision task. The human's reconciliation costs and imperfect discretion
behavior introduce the need to develop AI systems which (1) provide
recommendations selectively, (2) leverage the human partner's ADB to maximize
the team's decision accuracy while regularizing for reconciliation costs, and
(3) are inherently interpretable. We refer to the task of developing AI to
advise humans in AIaDM settings as learning to advise and we address this task
by first introducing the AI-assisted Team (AIaT)-Learning Framework. We
instantiate our framework to develop TeamRules (TR): an algorithm that produces
rule-based models and recommendations for AIaDM settings. TR is optimized to
selectively advise a human and to trade-off reconciliation costs and team
accuracy for a given environment by leveraging the human partner's ADB.
Evaluations on synthetic and real-world benchmark datasets with a variety of
simulated human accuracy and discretion behaviors show that TR robustly
improves the team's objective across settings over interpretable, rule-based
alternatives.
- Abstract(参考訳): AI支援意思決定(AIaDM)設定のエキスパート意思決定者(DM)は、最終的な決定を行う前に、AIシステムからレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIaDMモデルを開発する上で重要な、これらの設定の異なる特性を特定します。
第一に、DMは、自身の判断に反するAIレコメンデーションを和解する際に、意思決定リソース(例えば、時間と労力)を行使することで和解コストを発生させる。
第二に、aiadm設定のdmはアルゴリズムの判断行動(adb)、すなわち、特定の決定タスクに対するアルゴリズムの推奨を不完全に受け入れ、拒否する傾向を示す。
人間の和解コストと不完全な意思決定行動は、(1)推奨事項を選択的に提供し、(2)人間のパートナーのADBを利用して、和解コストを正規化しながらチームの意思決定精度を最大化し、(3)本質的に解釈可能なAIシステムの開発の必要性をもたらす。
我々はAIaDM設定で人間に助言するAIを開発するタスクをアドバイスする学習として言及し、まずAI支援チーム(AIaT)学習フレームワークを導入することでこの問題に対処する。
ルールベースのモデルとAIaDM設定のレコメンデーションを生成するアルゴリズムであるTeamRules(TR)を開発するためのフレームワークをインスタンス化する。
TRは、人間のパートナーのADBを利用して、選択的に人間に助言し、特定の環境に対する和解コストとチームの正確性をトレードオフするように最適化されている。
様々なシミュレーションされた人間の正確性と裁量行動による合成および実世界のベンチマークデータセットの評価は、trが解釈可能なルールベースの代替案よりも、設定全体でチームの目標を堅牢に改善していることを示している。
関連論文リスト
- Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning [12.27907858317828]
人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
我々は、意思決定タスクにおける人間-AIの精度と、そのタスクに関する人間の学習の2つの目的でアプローチをインスタンス化する。
論文 参考訳(メタデータ) (2024-03-09T13:30:00Z) - A Framework for Effective AI Recommendations in Cyber-Physical-Human
Systems [3.066266438258146]
多くのサイバー物理人間システム(CPHS)は、人工知能(AI)プラットフォームからレコメンデーションを受けることができる人間の意思決定者を含んでいる。
このようなCPHSアプリケーションでは、人間の意思決定者は最適な推奨決定から離脱し、代わりに様々な理由で異なる決定を実装できる。
我々は、AIプラットフォームとは異なる方法でシステムの状態を知覚し、解釈することにより、人間がAIレコメンデーションから逸脱する可能性があると考えている。
論文 参考訳(メタデータ) (2024-03-08T23:02:20Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - On the Interdependence of Reliance Behavior and Accuracy in AI-Assisted
Decision-Making [0.0]
我々は,AIによる意思決定における信頼行動と精度の相互依存性を分析する。
この相互依存をより具体化するための視覚的枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。