論文の概要: Learning to Advise Humans in High-Stakes Settings
- arxiv url: http://arxiv.org/abs/2210.12849v3
- Date: Mon, 13 Feb 2023 16:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:00:40.043504
- Title: Learning to Advise Humans in High-Stakes Settings
- Title(参考訳): ハイstakes設定で人間にアドバイスする学習
- Authors: Nicholas Wolczynski, Maytal Saar-Tsechansky, Tong Wang
- Abstract要約: 高度なAI支援意思決定(AIaDM)設定の専門家意思決定者(DM)は、最終的な決定を行う前に、AIシステムからレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIaDMモデルを開発する上で鍵となる、これらの設定の異なる特性を特定します。
- 参考スコア(独自算出の注目度): 8.921629768446625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expert decision-makers (DMs) in high-stakes AI-assisted decision-making
(AIaDM) settings receive and reconcile recommendations from AI systems before
making their final decisions. We identify distinct properties of these settings
which are key to developing AIaDM models that effectively benefit team
performance. First, DMs incur reconciliation costs from exerting
decision-making resources (e.g., time and effort) when reconciling AI
recommendations that contradict their own judgment. Second, DMs in AIaDM
settings exhibit algorithm discretion behavior (ADB), i.e., an idiosyncratic
tendency to imperfectly accept or reject algorithmic recommendations for any
given decision task. The human's reconciliation costs and imperfect discretion
behavior introduce the need to develop AI systems which (1) provide
recommendations selectively, (2) leverage the human partner's ADB to maximize
the team's decision accuracy while regularizing for reconciliation costs, and
(3) are inherently interpretable. We refer to the task of developing AI to
advise humans in AIaDM settings as learning to advise and we address this task
by first introducing the AI-assisted Team (AIaT)-Learning Framework. We
instantiate our framework to develop TeamRules (TR): an algorithm that produces
rule-based models and recommendations for AIaDM settings. TR is optimized to
selectively advise a human and to trade-off reconciliation costs and team
accuracy for a given environment by leveraging the human partner's ADB.
Evaluations on synthetic and real-world benchmark datasets with a variety of
simulated human accuracy and discretion behaviors show that TR robustly
improves the team's objective across settings over interpretable, rule-based
alternatives.
- Abstract(参考訳): AI支援意思決定(AIaDM)設定のエキスパート意思決定者(DM)は、最終的な決定を行う前に、AIシステムからレコメンデーションを受け取り、調整する。
チームのパフォーマンスを効果的に向上するAIaDMモデルを開発する上で重要な、これらの設定の異なる特性を特定します。
第一に、DMは、自身の判断に反するAIレコメンデーションを和解する際に、意思決定リソース(例えば、時間と労力)を行使することで和解コストを発生させる。
第二に、aiadm設定のdmはアルゴリズムの判断行動(adb)、すなわち、特定の決定タスクに対するアルゴリズムの推奨を不完全に受け入れ、拒否する傾向を示す。
人間の和解コストと不完全な意思決定行動は、(1)推奨事項を選択的に提供し、(2)人間のパートナーのADBを利用して、和解コストを正規化しながらチームの意思決定精度を最大化し、(3)本質的に解釈可能なAIシステムの開発の必要性をもたらす。
我々はAIaDM設定で人間に助言するAIを開発するタスクをアドバイスする学習として言及し、まずAI支援チーム(AIaT)学習フレームワークを導入することでこの問題に対処する。
ルールベースのモデルとAIaDM設定のレコメンデーションを生成するアルゴリズムであるTeamRules(TR)を開発するためのフレームワークをインスタンス化する。
TRは、人間のパートナーのADBを利用して、選択的に人間に助言し、特定の環境に対する和解コストとチームの正確性をトレードオフするように最適化されている。
様々なシミュレーションされた人間の正確性と裁量行動による合成および実世界のベンチマークデータセットの評価は、trが解釈可能なルールベースの代替案よりも、設定全体でチームの目標を堅牢に改善していることを示している。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - ADESSE: Advice Explanations in Complex Repeated Decision-Making Environments [14.105935964906976]
この研究は、インテリジェントなエージェントが人間の意思決定者にアドバイスを提供するような問題設定について考察する。
我々は,人的信頼と意思決定を改善するためのアドバイザーエージェントの説明を生成するために,ADESSEというアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-31T08:59:20Z) - Negotiating the Shared Agency between Humans & AI in the Recommender System [1.4249472316161877]
ユーザエージェンシーに関する懸念は、固有の不透明性(情報非対称性)とアルゴリズムにおける一方的な出力(パワー非対称性)の性質から生じている。
我々は,エージェントの種類がユーザの知覚や経験にどのように影響するかを理解し,人間とAIの対話システムのためのガイドラインや設計を洗練するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-03-23T19:23:08Z) - Towards Optimizing Human-Centric Objectives in AI-Assisted Decision-Making With Offline Reinforcement Learning [10.08973043408929]
人間のAI意思決定をモデル化するための一般的なアプローチとしてのオフライン強化学習(RL)。
精度に最適化されたポリシーと対話する人は、他の種類のAIサポートと対話する人々よりもはるかに精度が高いことを示す。
論文 参考訳(メタデータ) (2024-03-09T13:30:00Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - A Decision Theoretic Framework for Measuring AI Reliance [23.353778024330165]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。