論文の概要: Not all users are the same: Providing personalized explanations for
sequential decision making problems
- arxiv url: http://arxiv.org/abs/2106.12207v1
- Date: Wed, 23 Jun 2021 07:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:16:06.923857
- Title: Not all users are the same: Providing personalized explanations for
sequential decision making problems
- Title(参考訳): すべてのユーザが同じではない: シーケンシャルな意思決定問題に対するパーソナライズされた説明を提供すること
- Authors: Utkarsh Soni, Sarath Sreedharan, Subbarao Kambhampati
- Abstract要約: 本研究では,エンドツーエンドの適応的説明生成システムを提案する。
最初は、エージェントが対話できるさまざまなタイプのユーザを学習することから始まる。
その後、ハエの型を特定し、それに応じて説明を調整する。
- 参考スコア(独自算出の注目度): 25.24098967133101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing interest in designing autonomous agents that can work
alongside humans. Such agents will undoubtedly be expected to explain their
behavior and decisions. While generating explanations is an actively researched
topic, most works tend to focus on methods that generate explanations that are
one size fits all. As in the specifics of the user-model are completely
ignored. The handful of works that look at tailoring their explanation to the
user's background rely on having specific models of the users (either analytic
models or learned labeling models). The goal of this work is thus to propose an
end-to-end adaptive explanation generation system that begins by learning the
different types of users that the agent could interact with. Then during the
interaction with the target user, it is tasked with identifying the type on the
fly and adjust its explanations accordingly. The former is achieved by a
data-driven clustering approach while for the latter, we compile our
explanation generation problem into a POMDP. We demonstrate the usefulness of
our system on two domains using state-of-the-art POMDP solvers. We also report
the results of a user study that investigates the benefits of providing
personalized explanations in a human-robot interaction setting.
- Abstract(参考訳): 人間と一緒に機能する自律エージェントの設計への関心が高まっている。
そのようなエージェントは間違いなく彼らの行動や決定を説明するだろう。
説明の生成は積極的に研究されているトピックだが、ほとんどの作品は1つのサイズに適合する説明を生成する方法にフォーカスする傾向がある。
ユーザモデルの仕様は、完全に無視されます。
説明をユーザーの背景に合わせて調整する作業は、ユーザの特定のモデル(分析モデルや学習したラベル付けモデル)に依存する。
本研究の目的は,エージェントが対話できるユーザの種類を学習することから始まる,エンドツーエンドの適応的説明生成システムを提案することである。
そして、ターゲットユーザーとのインタラクション中に、フライ上のタイプを特定し、それに応じて説明を調整するタスクが実行される。
前者はデータ駆動クラスタリング手法により実現され,後者では説明生成問題をPOMDPにコンパイルする。
最先端のPOMDPソルバを用いた2つの領域におけるシステムの有用性を示す。
また,人間とロボットのインタラクション設定においてパーソナライズされた説明を提供することのメリットを調査するユーザスタディの結果を報告する。
関連論文リスト
- Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Understanding Your Agent: Leveraging Large Language Models for Behavior
Explanation [7.647395374489533]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
提案手法は,人間ドメインの専門家が作成したものと同じくらい役立つ説明を生成する。
論文 参考訳(メタデータ) (2023-11-29T20:16:23Z) - What if you said that differently?: How Explanation Formats Affect Human Feedback Efficacy and User Perception [53.4840989321394]
我々は,QAモデルが生成した有理性の効果を分析し,その答えを支持する。
ユーザに対して,様々な形式で誤った回答とそれに対応する有理性を提示する。
このフィードバックの有効性を,文脈内学習を通じて評価する。
論文 参考訳(メタデータ) (2023-11-16T04:26:32Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - Relation-aware Heterogeneous Graph for User Profiling [24.076585294260816]
本稿では,ユーザ・プロファイリングにおける関係性を考慮した異種グラフ手法を提案する。
我々は、不均一なメッセージパッシングに対して、トランスフォーマー方式でクエリ、キー、値のメカニズムを採用する。
実世界の2つのeコマースデータセットの実験を行い、我々のアプローチの大幅なパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2021-10-14T06:59:30Z) - Towards Personalized Explanation of Robot Path Planning via User
Feedback [1.7231251035416644]
本稿では,ユーザフィードバックによるロボット経路計画のパーソナライズされた説明を生成するシステムを提案する。
このシステムは、ユーザのインタラクションを通じて、任意の好みの競合を検出し、解決することができる。
論文 参考訳(メタデータ) (2020-11-01T15:10:43Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。