論文の概要: Ontological foundations for contrastive explanatory narration of robot plans
- arxiv url: http://arxiv.org/abs/2509.22493v1
- Date: Fri, 26 Sep 2025 15:37:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.554365
- Title: Ontological foundations for contrastive explanatory narration of robot plans
- Title(参考訳): ロボット計画の対照的な説明的ナレーションのためのオントロジーの基礎
- Authors: Alberto Olivares-Alarcos, Sergi Foix, Júlia Borràs, Gerard Canal, Guillem Alenyà,
- Abstract要約: 本稿では、2つの競合する計画の比較について、モデリングと推論のアプローチに焦点を当てる。
競合する計画の違いを形式化し、推論するために、新しい存在論的モデルが提案されている。
計画間の異なる知識を活用し、対照的な物語の構築を容易にする新しいアルゴリズムが提示される。
- 参考スコア(独自算出の注目度): 8.913500117780819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mutual understanding of artificial agents' decisions is key to ensuring a trustworthy and successful human-robot interaction. Hence, robots are expected to make reasonable decisions and communicate them to humans when needed. In this article, the focus is on an approach to modeling and reasoning about the comparison of two competing plans, so that robots can later explain the divergent result. First, a novel ontological model is proposed to formalize and reason about the differences between competing plans, enabling the classification of the most appropriate one (e.g., the shortest, the safest, the closest to human preferences, etc.). This work also investigates the limitations of a baseline algorithm for ontology-based explanatory narration. To address these limitations, a novel algorithm is presented, leveraging divergent knowledge between plans and facilitating the construction of contrastive narratives. Through empirical evaluation, it is observed that the explanations excel beyond the baseline method.
- Abstract(参考訳): 人工エージェントの判断に対する相互理解は、信頼できる人間とロボットの相互作用を確実にするための鍵となる。
そのため、ロボットは適切な判断を下し、必要なときに人間に伝えることが期待されている。
本稿では,2つの競合する計画の比較について,モデリングと推論に焦点をあてる。
まず、競合する計画の違いを形式化し、推論し、最も適切なもの(例えば、最も短いもの、最も安全なもの、人間の好みに最も近いものなど)の分類を可能にする新しい存在論的モデルを提案する。
本研究は,オントロジーに基づく説明的ナレーションのためのベースラインアルゴリズムの限界についても検討する。
これらの制約に対処するため、計画間の異なる知識を活用し、対照的な物語の構築を容易にする新しいアルゴリズムが提示される。
経験的評価により, 説明がベースライン法を超えて優れていることが確認された。
関連論文リスト
- Personalised Explanations in Long-term Human-Robot Interactions [13.471816696693553]
人間とロボットの相互作用(XHRI)は、人間とロボットの相互作用に影響を及ぼす説明を導き、評価する方法を研究する。
これまでの研究は、ユーザビリティと理解を高めるために、これらの説明の詳細レベルをパーソナライズする必要性を強調してきた。
本稿では,ユーザ・ナレッジ・メモリ・モデルの更新と検索を目的としたフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-03T10:40:39Z) - Multimodal Coherent Explanation Generation of Robot Failures [1.3965477771846408]
本稿では,異なるモーダルからの説明の論理的コヒーレンスをチェックすることによって,コヒーレントなマルチモーダルな説明を生成する手法を提案する。
実験により,テキストの包含を認識するために事前訓練されたニューラルネットワークの微調整が,コヒーレンス評価に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T13:15:38Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - On Model Reconciliation: How to Reconcile When Robot Does not Know
Human's Model? [0.0]
説明可能なAI計画の問題を解決するために、モデル和解問題(MRP)が導入された。
MRPを解くほとんどのアプローチは、説明を必要とするロボットが人間のモデルを知っていることを前提としている。
本稿では,ロボットが人間のモデルを知らないという前提の下で,MPPの説明を計算するための対話型アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-05T10:48:42Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Leveraging Neural Network Gradients within Trajectory Optimization for
Proactive Human-Robot Interactions [32.57882479132015]
本稿では, トラジェクトリ最適化(TO)の解釈可能性と柔軟性を, 最先端の人間のトラジェクトリ予測モデルの予測能力と融合する枠組みを提案する。
我々は,最大10人の歩行者の群集を安全に効率的に移動させるロボットを必要とするマルチエージェントシナリオにおいて,我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-02T08:43:36Z) - Axiom Learning and Belief Tracing for Transparent Decision Making in
Robotics [8.566457170664926]
ロボットがその決定や信念の説明を提供する能力は、人間との効果的なコラボレーションを促進する。
我々のアーキテクチャは、非単調な論理的推論、ディープラーニング、決定木帰納の相補的な強みを兼ね備えています。
推論と学習の間、このアーキテクチャにより、ロボットはその決定、信念、仮説的行動の結果について、オンデマンドでリレーショナルな記述を提供することができる。
論文 参考訳(メタデータ) (2020-10-20T22:09:17Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - iCORPP: Interleaved Commonsense Reasoning and Probabilistic Planning on
Robots [46.13039152809055]
我々はiCORPPと呼ばれる新しいアルゴリズムを提案し、現在の世界状態を同時に推定し、世界ダイナミクスの推論を行い、タスク指向のコントローラを構築する。
結果は、競合するベースラインと比較して、スケーラビリティ、効率、適応性が大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2020-04-18T17:46:59Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。