論文の概要: Subgoal-Based Explanations for Unreliable Intelligent Decision Support
Systems
- arxiv url: http://arxiv.org/abs/2201.04204v1
- Date: Tue, 11 Jan 2022 21:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 14:58:09.524607
- Title: Subgoal-Based Explanations for Unreliable Intelligent Decision Support
Systems
- Title(参考訳): 信頼できない知的意思決定支援システムのサブゴールによる説明
- Authors: Devleena Das, Been Kim, Sonia Chernova
- Abstract要約: 本稿では,計画型IDSシステムのための新しい説明型,サブゴール型説明法を提案する。
我々は、サブゴールに基づく説明が、ユーザタスクのパフォーマンスの向上、最適なIDSレコメンデーションと最適でないIDSレコメンデーションを区別するユーザ能力の向上、ユーザが好むIDS障害時の堅牢なユーザパフォーマンスの実現につながることを実証する。
- 参考スコア(独自算出の注目度): 22.20142645430695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent decision support (IDS) systems leverage artificial intelligence
techniques to generate recommendations that guide human users through the
decision making phases of a task. However, a key challenge is that IDS systems
are not perfect, and in complex real-world scenarios may produce incorrect
output or fail to work altogether. The field of explainable AI planning (XAIP)
has sought to develop techniques that make the decision making of sequential
decision making AI systems more explainable to end-users. Critically, prior
work in applying XAIP techniques to IDS systems has assumed that the plan being
proposed by the planner is always optimal, and therefore the action or plan
being recommended as decision support to the user is always correct. In this
work, we examine novice user interactions with a non-robust IDS system -- one
that occasionally recommends the wrong action, and one that may become
unavailable after users have become accustomed to its guidance. We introduce a
novel explanation type, subgoal-based explanations, for planning-based IDS
systems, that supplements traditional IDS output with information about the
subgoal toward which the recommended action would contribute. We demonstrate
that subgoal-based explanations lead to improved user task performance, improve
user ability to distinguish optimal and suboptimal IDS recommendations, are
preferred by users, and enable more robust user performance in the case of IDS
failure
- Abstract(参考訳): インテリジェント意思決定支援(IDS)システムは、人工知能技術を活用して、タスクの意思決定フェーズを通じて人間のユーザを導くレコメンデーションを生成する。
しかし、重要な課題は、IDSシステムが完璧ではなく、複雑な実世界のシナリオでは誤った出力を生成したり、完全に動作しない可能性があることである。
説明可能なAI計画(XAIP)の分野は、AIシステムをエンドユーザにとってより説明しやすいものにするシーケンシャルな意思決定を行う技術の開発を目指している。
批判的に、IDSシステムにXAIP技術を適用する前の作業は、プランナーが提案するプランが常に最適であり、ユーザへの意思決定支援として推奨されるアクションやプランが常に正しいと仮定されている。
本研究は,非不正IDSシステムとの初級ユーザインタラクションについて検討し,ユーザがガイダンスに慣れた後に利用できなくなる可能性のある,誤ったアクションを推奨するシステムについて検討する。
本報告では,従来のIDS出力を補完し,推奨行動が寄与するサブゴールに関する情報を付加する,新たな説明型,サブゴールベース説明法を提案する。
我々は、サブゴールベースの説明がユーザタスクのパフォーマンスの向上、最適なIDSレコメンデーションと最適でないIDSレコメンデーションを区別するユーザ能力の向上、IDS障害時により堅牢なユーザパフォーマンスの実現につながることを実証した。
関連論文リスト
- Dynamic Information Sub-Selection for Decision Support [5.063114309794011]
我々は,ブラックボックス意思決定者のパフォーマンス向上を目的とした,AI支援の新しいフレームワークであるDynamic Information Sub-Selection(DISS)を紹介する。
偏りのある意思決定支援、専門家の割り当て最適化、大規模言語モデル決定支援、解釈可能性など、DisdisSのいくつかの応用について検討する。
論文 参考訳(メタデータ) (2024-10-30T20:00:54Z) - All Roads Lead to Rome: Unveiling the Trajectory of Recommender Systems Across the LLM Era [63.649070507815715]
我々は、リコメンデータシステムをより広い視野に統合し、将来の研究のためのより包括的なソリューションの道を開くことを目指しています。
我々は、リストワイズレコメンデーションと会話レコメンデーションを通じて、現代のレコメンデーションシステムの2つの進化経路を特定する。
本稿では,ユーザの獲得コストを削減しつつ,推薦情報の有効性を高めることを指摘する。
論文 参考訳(メタデータ) (2024-07-14T05:02:21Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - RADAR-X: An Interactive Mixed Initiative Planning Interface Pairing
Contrastive Explanations and Revised Plan Suggestions [30.98066157540983]
本稿では,対話型説明対話におけるユーザ参加能力を示す決定支援システムRADAR-Xを提案する。
本システムは,ユーザの潜在的嗜好を引き出すためにこの対話を利用し,3つの異なるインタラクション戦略を通じて計画提案を改訂する。
論文 参考訳(メタデータ) (2020-11-19T04:18:38Z) - Towards Personalized Explanation of Robot Path Planning via User
Feedback [1.7231251035416644]
本稿では,ユーザフィードバックによるロボット経路計画のパーソナライズされた説明を生成するシステムを提案する。
このシステムは、ユーザのインタラクションを通じて、任意の好みの競合を検出し、解決することができる。
論文 参考訳(メタデータ) (2020-11-01T15:10:43Z) - Optimizing Interactive Systems via Data-Driven Objectives [70.3578528542663]
本稿では,観察されたユーザインタラクションから直接目的を推測する手法を提案する。
これらの推論は、事前の知識によらず、様々な種類のユーザー行動にまたがって行われる。
本稿では,これらの推定対象を最適化するために利用する新しいアルゴリズムであるInteractive System(ISO)を紹介する。
論文 参考訳(メタデータ) (2020-06-19T20:49:14Z) - Intelligent Decision Support System for Updating Control Plans [0.0]
本稿では,品質管理計画のためのインテリジェントDSSを提案する。
提案したRSは、実際のプロセス品質に適応するために、制御計画の継続的な更新を可能にする。
実ケーススタディにおいて,提案DSSの実現可能性と実用性を示す数値計算を行った。
論文 参考訳(メタデータ) (2020-06-15T06:16:51Z) - Tradeoff-Focused Contrastive Explanation for MDP Planning [7.929642367937801]
実際の計画の応用では、計画エージェントの決定は、競合する目標間の複雑なトレードオフを伴う可能性がある。
エンドユーザは、目的値に基づいて、エージェントが特定の計画ソリューションを決定する理由を理解することは困難である。
本稿では,マルチオブジェクトのMDP計画エージェントが,そのトレードオフの合理性を伝達する手法として,その意思決定を説明できるアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-27T17:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。