論文の概要: Personalised Explanations in Long-term Human-Robot Interactions
- arxiv url: http://arxiv.org/abs/2507.03049v1
- Date: Thu, 03 Jul 2025 10:40:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.559628
- Title: Personalised Explanations in Long-term Human-Robot Interactions
- Title(参考訳): 長期人間-ロボットインタラクションにおけるパーソナライズされた説明
- Authors: Ferran Gebellí, Anaís Garrell, Jan-Gerrit Habekost, Séverin Lemaignan, Stefan Wermter, Raquel Ros,
- Abstract要約: 人間とロボットの相互作用(XHRI)は、人間とロボットの相互作用に影響を及ぼす説明を導き、評価する方法を研究する。
これまでの研究は、ユーザビリティと理解を高めるために、これらの説明の詳細レベルをパーソナライズする必要性を強調してきた。
本稿では,ユーザ・ナレッジ・メモリ・モデルの更新と検索を目的としたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.471816696693553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of Human-Robot Interaction (HRI), a fundamental challenge is to facilitate human understanding of robots. The emerging domain of eXplainable HRI (XHRI) investigates methods to generate explanations and evaluate their impact on human-robot interactions. Previous works have highlighted the need to personalise the level of detail of these explanations to enhance usability and comprehension. Our paper presents a framework designed to update and retrieve user knowledge-memory models, allowing for adapting the explanations' level of detail while referencing previously acquired concepts. Three architectures based on our proposed framework that use Large Language Models (LLMs) are evaluated in two distinct scenarios: a hospital patrolling robot and a kitchen assistant robot. Experimental results demonstrate that a two-stage architecture, which first generates an explanation and then personalises it, is the framework architecture that effectively reduces the level of detail only when there is related user knowledge.
- Abstract(参考訳): 人間-ロボットインタラクション(HRI)の分野では、ロボットの人間の理解を促進することが基本的な課題である。
eXplainable HRI(XHRI)の出現する領域は、説明を生成する方法を調べ、人間とロボットの相互作用に与える影響を評価する。
これまでの研究は、ユーザビリティと理解を高めるために、これらの説明の詳細レベルをパーソナライズする必要性を強調してきた。
本稿では,ユーザ・ナレッジ・メモリ・モデルの更新と検索を目的としたフレームワークを提案する。
大規模言語モデル(LLM)を用いた3つの枠組みを,病院パトロールロボットとキッチンアシスタントロボットの2つの異なるシナリオで評価した。
実験により,まず説明を生成してパーソナライズする2段階アーキテクチャが,関連するユーザ知識が存在する場合にのみ,詳細度を効果的に低減するフレームワークアーキテクチャであることを実証した。
関連論文リスト
- A Multi-Modal Explainability Approach for Human-Aware Robots in Multi-Party Conversation [38.227022474450834]
本稿では,従来の最先端技術と比較して性能が向上したアドレス推定モデルを提案する。
また、上記のアーキテクチャに説明可能性と透明性を組み込むいくつかの方法を提案する。
論文 参考訳(メタデータ) (2024-05-20T13:09:32Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - A Closer Look at Reward Decomposition for High-Level Robotic
Explanations [18.019811754800767]
本稿では、報酬分解と抽象的な行動空間を組み合わせたQ-Map学習フレームワークを提案する。
本稿では,2つのロボットシナリオの定量的,定性的な分析を通じて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T16:01:42Z) - Knowledge Acquisition and Completion for Long-Term Human-Robot
Interactions using Knowledge Graph Embedding [0.0]
本研究では,長期にわたる継続的な学習において,ユーザや環境からデータを収集するアーキテクチャを提案する。
我々は,ロボットの内部表現を段階的に拡張することを目的として,取得した情報を一般化するための知識グラフ埋め込み技術を採用した。
本研究では,学習主体のロボットの能力と,未知の文脈から得られる関係を計測することにより,連続学習アーキテクチャの性能を評価する。
論文 参考訳(メタデータ) (2023-01-17T12:23:40Z) - A Road-map to Robot Task Execution with the Functional Object-Oriented
Network [77.93376696738409]
関数型オブジェクト指向ネットワーク(FOON)はロボットの知識グラフ表現である。
FOONは、二部グラフの形で、ロボットの環境やタスクに対する理解に関係のある象徴的あるいは高レベルな情報を含んでいる。
論文 参考訳(メタデータ) (2021-06-01T00:43:04Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。