論文の概要: Learning to Advise Humans By Leveraging Algorithm Discretion
- arxiv url: http://arxiv.org/abs/2210.12849v1
- Date: Sun, 23 Oct 2022 20:46:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:20:00.644431
- Title: Learning to Advise Humans By Leveraging Algorithm Discretion
- Title(参考訳): アルゴリズムの判断を生かして人間に助言する学習
- Authors: Nicholas Wolczynski, Maytal Saar-Tsechansky, Tong Wang
- Abstract要約: AI-advised(AIDeT)設定のエキスパート意思決定者(DM)は、最終的な決定を行う前に、AIシステムからのレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIDeTモデルを開発する上で重要な、これらの設定の異なる特性を特定します。
- 参考スコア(独自算出の注目度): 8.921629768446625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expert decision-makers (DMs) in high-stakes AI-advised (AIDeT) settings
receive and reconcile recommendations from AI systems before making their final
decisions. We identify distinct properties of these settings which are key to
developing AIDeT models that effectively benefit team performance. First, DMs
in AIDeT settings exhibit algorithm discretion behavior (ADB), i.e., an
idiosyncratic tendency to imperfectly accept or reject algorithmic
recommendations for any given decision task. Second, DMs incur contradiction
costs from exerting decision-making resources (e.g., time and effort) when
reconciling AI recommendations that contradict their own judgment. Third, the
human'simperfect discretion and reconciliation costs introduce the need for the
AI to offer advice selectively. We refer to the task of developing AI to advise
humans in AIDeT settings as learning to advise} and we address this task by
first introducing the AIDeT-Learning Framework. Additionally, we argue that
leveraging the human partner's ADB is key to maximizing the AIDeT's decision
accuracy while regularizing for contradiction costs. Finally, we instantiate
our framework to develop TeamRules (TR): an algorithm that produces rule-based
models and recommendations for AIDeT settings. TR is optimized to selectively
advise a human and to trade-off contradiction costs and team accuracy for a
given environment by leveraging the human partner's ADB. Evaluations on
synthetic and real-world benchmark datasets with a variety of simulated human
accuracy and discretion behaviors show that TR robustly improves the team's
objective across settings over interpretable, rule-based alternatives.
- Abstract(参考訳): AI-advised(AIDeT)設定のエキスパート意思決定者(DM)は、最終的な決定を行う前に、AIシステムからのレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIDeTモデルを開発する上で重要な、これらの設定の異なる特性を特定します。
第一に、aidet設定のdmはアルゴリズムの判断行動(adb)、すなわち、特定の決定タスクに対するアルゴリズムの推奨を不完全に受け入れ、拒否する傾向を示す。
第2に、DMは、自身の判断に矛盾するAIレコメンデーションを調整する際に、意思決定リソース(例えば、時間と労力)を実行することによって矛盾するコストを発生させる。
第三に、人間の「簡易な判断と和解のコストは、AIが選択的にアドバイスする必要性をもたらす。
我々はAIDeT設定で人間に助言するAIを開発するタスクを「アドバイスする学習」と呼び、まずAIDeT学習フレームワークを導入することでこの問題に対処する。
さらに、人間パートナーのADBを活用することが、矛盾コストを正規化しながらAIDeTの決定精度を最大化する鍵であると主張する。
最後に、ルールベースのモデルとAIDeT設定のレコメンデーションを生成するアルゴリズムであるTeamRules(TR)を開発するためのフレームワークをインスタンス化する。
TRは、人間のパートナーのADBを利用して、人間に選択的に助言し、所定の環境に対する矛盾コストとチームの正確性をトレードオフするように最適化されている。
様々なシミュレーションされた人間の正確性と裁量行動による合成および実世界のベンチマークデータセットの評価は、trが解釈可能なルールベースの代替案よりも、設定全体でチームの目標を堅牢に改善していることを示している。
関連論文リスト
- Towards Optimizing Human-Centric Objectives in AI-Assisted
Decision-Making With Offline Reinforcement Learning [12.27907858317828]
人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
我々は、意思決定タスクにおける人間-AIの精度と、そのタスクに関する人間の学習の2つの目的でアプローチをインスタンス化する。
論文 参考訳(メタデータ) (2024-03-09T13:30:00Z) - A Framework for Effective AI Recommendations in Cyber-Physical-Human
Systems [3.066266438258146]
多くのサイバー物理人間システム(CPHS)は、人工知能(AI)プラットフォームからレコメンデーションを受けることができる人間の意思決定者を含んでいる。
このようなCPHSアプリケーションでは、人間の意思決定者は最適な推奨決定から離脱し、代わりに様々な理由で異なる決定を実装できる。
我々は、AIプラットフォームとは異なる方法でシステムの状態を知覚し、解釈することにより、人間がAIレコメンデーションから逸脱する可能性があると考えている。
論文 参考訳(メタデータ) (2024-03-08T23:02:20Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - On the Interdependence of Reliance Behavior and Accuracy in AI-Assisted
Decision-Making [0.0]
我々は,AIによる意思決定における信頼行動と精度の相互依存性を分析する。
この相互依存をより具体化するための視覚的枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。