論文の概要: On Model Reconciliation: How to Reconcile When Robot Does not Know
Human's Model?
- arxiv url: http://arxiv.org/abs/2208.03091v1
- Date: Fri, 5 Aug 2022 10:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 13:11:14.106542
- Title: On Model Reconciliation: How to Reconcile When Robot Does not Know
Human's Model?
- Title(参考訳): モデル再構成について:ロボットが人間のモデルを知らないときにどのように和解するか?
- Authors: Ho Tuan Dung (Department of Computer Science, New Mexico State
University, Las Cruces, USA), Tran Cao Son (Department of Computer Science,
New Mexico State University, Las Cruces, USA)
- Abstract要約: 説明可能なAI計画の問題を解決するために、モデル和解問題(MRP)が導入された。
MRPを解くほとんどのアプローチは、説明を必要とするロボットが人間のモデルを知っていることを前提としている。
本稿では,ロボットが人間のモデルを知らないという前提の下で,MPPの説明を計算するための対話型アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Model Reconciliation Problem (MRP) was introduced to address issues in
explainable AI planning. A solution to a MRP is an explanation for the
differences between the models of the human and the planning agent (robot).
Most approaches to solving MRPs assume that the robot, who needs to provide
explanations, knows the human model. This assumption is not always realistic in
several situations (e.g., the human might decide to update her model and the
robot is unaware of the updates).
In this paper, we propose a dialog-based approach for computing explanations
of MRPs under the assumptions that (i) the robot does not know the human model;
(ii) the human and the robot share the set of predicates of the planning domain
and their exchanges are about action descriptions and fluents' values; (iii)
communication between the parties is perfect; and (iv) the parties are
truthful. A solution of a MRP is computed through a dialog, defined as a
sequence of rounds of exchanges, between the robot and the human. In each
round, the robot sends a potential explanation, called proposal, to the human
who replies with her evaluation of the proposal, called response. We develop
algorithms for computing proposals by the robot and responses by the human and
implement these algorithms in a system that combines imperative means with
answer set programming using the multi-shot feature of clingo.
- Abstract(参考訳): 説明可能なAI計画の問題を解決するために、モデル和解問題(MRP)が導入された。
MRPの解決策は、人間と計画エージェント(ロボット)のモデルの違いを説明することである。
MRPを解くほとんどのアプローチは、説明を必要とするロボットが人間のモデルを知っていることを前提としている。
この仮定は、いくつかの状況において常に現実的ではない(例えば、人間はモデルを更新することに決め、ロボットは更新に気づいていない)。
本稿では,MPPの計算説明のためのダイアログに基づく手法を提案する。
(i)ロボットは人間のモデルを知らない。
二 人間及びロボットは、計画領域の述語の集合を共有し、その交換は、行動記述及び流血者の価値に関するものである。
(iii)当事者間のコミュニケーションは完璧である。
(iv)当事者は真実である。
MRPの解は、ロボットと人間の間の交換の連続として定義されたダイアログを通じて計算される。
各ラウンドにおいて、ロボットはプロポーザルと呼ばれる潜在的な説明を、提案の評価に応答する人間に送る。
ロボットによる提案と人間による応答を計算するためのアルゴリズムを開発し,このアルゴリズムをclingoのマルチショット機能を用いて命令的手法と解集合プログラミングを組み合わせたシステムで実装する。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Automated Process Planning Based on a Semantic Capability Model and SMT [50.76251195257306]
製造システムと自律ロボットの研究において、機械で解釈可能なシステム機能の仕様に「能力」という用語が用いられる。
セマンティック能力モデルから始めて、AI計画問題を自動的に生成するアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-14T10:37:34Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - SOCRATES: Text-based Human Search and Approach using a Robot Dog [6.168521568443759]
我々は、TEXシステム(SOCRATES)に基づく人間に接近するロボットのためのSOCraticモデルを提案する。
本稿では,まず,言語領域の大規模事前学習モデルを接続して,下流課題を解決するヒューマンサーチソクラティックモデルを提案する。
そこで本研究では,人間に接近するターゲット音響ロボットの動きを生成するためのハイブリッド学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-10T15:35:24Z) - Continuous ErrP detections during multimodal human-robot interaction [2.5199066832791535]
我々は,シミュレーションロボットが音声やジェスチャーを通じて人間とコミュニケーションする,マルチモーダルなヒューマンロボットインタラクション(HRI)シナリオを実装した。
人間のパートナーは、ロボットが選択した動作(ポインティングジェスチャー)とロボットの口頭発表(意図)が一致しているかを評価する。
脳波で明らかな、人間によるロボット行動の本質的な評価は、リアルタイムで記録され、オンラインで連続的にセグメンテーションされ、非同期に分類された。
論文 参考訳(メタデータ) (2022-07-25T15:39:32Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Dynamically Switching Human Prediction Models for Efficient Planning [32.180808286226075]
ロボットは人間のモデル群にアクセスでき、オンラインで性能計算のトレードオフを評価することができる。
ドライビングシミュレーターを用いた実験では、ロボットが常に最高の人間モデルに匹敵する性能を発揮できることを示した。
論文 参考訳(メタデータ) (2021-03-13T23:48:09Z) - Model Elicitation through Direct Questioning [22.907680615911755]
ロボットが人間のモデルをモデルからローカライズする方法を示す。
ロボットのチームメイトモデルに対する理解を深めるための質問を生成する方法を示す。
論文 参考訳(メタデータ) (2020-11-24T18:17:16Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。