論文の概要: Order Matters: Generating Progressive Explanations for Planning Tasks in
Human-Robot Teaming
- arxiv url: http://arxiv.org/abs/2004.07822v2
- Date: Sat, 17 Oct 2020 01:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:37:45.459259
- Title: Order Matters: Generating Progressive Explanations for Planning Tasks in
Human-Robot Teaming
- Title(参考訳): 命令事項:人間-ロボットチームにおける計画課題の進行的説明の生成
- Authors: Mehrdad Zakershahrak, Shashank Rao Marpally, Akshay Sharma, Ze Gong
and Yu Zhang
- Abstract要約: 本稿では,説明文を複数の部分に分割して順次通信する場合に,説明文生成時の影響を調査することを目的とする。
我々はまず,スキャベンジャーハントドメインに対するアプローチを評価し,人間の嗜好を効果的に捉えることを実証した。
その結果,説明の理解過程は動的過程であるという仮説が得られた。
- 参考スコア(独自算出の注目度): 11.35869940310993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work on generating explanations in a planning and decision-making
context has focused on providing the rationale behind an AI agent's decision
making. While these methods provide the right explanations from the explainer's
perspective, they fail to heed the cognitive requirement of understanding an
explanation from the explainee's (the human's) perspective. In this work, we
set out to address this issue by first considering the influence of information
order in an explanation, or the progressiveness of explanations. Intuitively,
progression builds later concepts on previous ones and is known to contribute
to better learning. In this work, we aim to investigate similar effects during
explanation generation when an explanation is broken into multiple parts that
are communicated sequentially. The challenge here lies in modeling the humans'
preferences for information order in receiving such explanations to assist
understanding. Given this sequential process, a formulation based on goal-based
MDP for generating progressive explanations is presented. The reward function
of this MDP is learned via inverse reinforcement learning based on explanations
that are retrieved via human subject studies. We first evaluated our approach
on a scavenger-hunt domain to demonstrate its effectively in capturing the
humans' preferences. Upon analyzing the results, it revealed something more
fundamental: the preferences arise strongly from both domain dependent and
independence features. The correlation with domain independent features pushed
us to verify this result further in an escape room domain. Results confirmed
our hypothesis that the process of understanding an explanation was a dynamic
process. The human preference that reflected this aspect corresponded exactly
to the progression for knowledge assimilation hidden deeper in our cognitive
process.
- Abstract(参考訳): 計画と意思決定のコンテキストで説明を生成するための以前の作業は、AIエージェントの意思決定の背後にある根拠を提供することに重点を置いていた。
これらの方法は説明者の視点から正しい説明を与えるが、説明者(人間)の視点から説明を理解するという認知的要求を無視することができない。
本研究では、まず、説明における情報順序の影響や説明の進行性を考慮して、この問題に対処することを試みた。
直感的には、進歩は後の概念を以前の概念の上に構築し、より良い学習に寄与することが知られている。
本研究では,説明文を複数の部分に分割して順次通信する場合に,説明文生成時の類似効果について検討する。
ここでの課題は、人間の情報順序の好みをモデル化し、そのような説明を受け取って理解を助けることである。
このシーケンシャルなプロセスから、プログレッシブな説明を生成するためのゴールベースのMDPに基づく定式化を示す。
このMDPの報酬関数は、人体研究によって得られた説明に基づいて逆強化学習によって学習される。
我々はまず,スキャベンジャーハントドメインに対するアプローチを評価し,人間の嗜好を効果的に捉えた。
結果を分析すると、さらに根本的なことが明らかになった: ドメイン依存と独立性の両方の特徴から、好みが強く生じる。
ドメインに依存しない機能との相関から、エスケープルームドメインでこの結果がさらに検証されたのです。
その結果,説明の理解過程は動的プロセスであるという仮説が得られた。
この側面を反映した人間の嗜好は、認知過程の奥深くに隠れた知識同化の進行にちょうど一致する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Causal Explanations and XAI [8.909115457491522]
説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
論文 参考訳(メタデータ) (2022-01-31T12:32:10Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning [0.0]
我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
論文 参考訳(メタデータ) (2020-12-22T02:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。