論文の概要: Improved Inference of Human Intent by Combining Plan Recognition and
Language Feedback
- arxiv url: http://arxiv.org/abs/2310.02462v1
- Date: Tue, 3 Oct 2023 22:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 17:24:19.243763
- Title: Improved Inference of Human Intent by Combining Plan Recognition and
Language Feedback
- Title(参考訳): 計画認識と言語フィードバックの組み合わせによる人文の推論の改善
- Authors: Ifrah Idrees, Tian Yun, Naveen Sharma, Yunxin Deng, Nakul Gopalan,
George Konidaris, Stefanie Tellex
- Abstract要約: 人と効果的に対話するには、ロボットは人間の行動の騒々しい観察から人間の計画と目標を認識する必要がある。
計画とゴール認識に関するこれまでの研究は、階層的なタスクネットワークを使用してアクター/人間をモデル化してきた。
目的認識のための対話(D4GR)を提案する。
- 参考スコア(独自算出の注目度): 14.886030007014512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational assistive robots can aid people, especially those with
cognitive impairments, to accomplish various tasks such as cooking meals,
performing exercises, or operating machines. However, to interact with people
effectively, robots must recognize human plans and goals from noisy
observations of human actions, even when the user acts sub-optimally. Previous
works on Plan and Goal Recognition (PGR) as planning have used hierarchical
task networks (HTN) to model the actor/human. However, these techniques are
insufficient as they do not have user engagement via natural modes of
interaction such as language. Moreover, they have no mechanisms to let users,
especially those with cognitive impairments, know of a deviation from their
original plan or about any sub-optimal actions taken towards their goal. We
propose a novel framework for plan and goal recognition in partially observable
domains -- Dialogue for Goal Recognition (D4GR) enabling a robot to rectify its
belief in human progress by asking clarification questions about noisy sensor
data and sub-optimal human actions. We evaluate the performance of D4GR over
two simulated domains -- kitchen and blocks domain. With language feedback and
the world state information in a hierarchical task model, we show that D4GR
framework for the highest sensor noise performs 1% better than HTN in goal
accuracy in both domains. For plan accuracy, D4GR outperforms by 4% in the
kitchen domain and 2% in the blocks domain in comparison to HTN. The ALWAYS-ASK
oracle outperforms our policy by 3% in goal recognition and 7%in plan
recognition. D4GR does so by asking 68% fewer questions than an oracle
baseline. We also demonstrate a real-world robot scenario in the kitchen
domain, validating the improved plan and goal recognition of D4GR in a
realistic setting.
- Abstract(参考訳): 会話支援ロボットは、食事の調理、エクササイズ、操作機械などの様々なタスクを遂行するために、特に認知障害を持つ人々を助けることができる。
しかし,人間と効果的に対話するには,ロボットは人間の行動のノイズの多い観察から人間の計画や目標を認識する必要がある。
計画におけるPGR(Plan and Goal Recognition)に関するこれまでの研究は、階層的タスクネットワーク(HTN)を用いてアクター/人間をモデル化してきた。
しかし,これらの手法は,言語などの自然なインタラクションによってユーザエンゲージメントが得られないため,不十分である。
さらに、ユーザー、特に認知障害のある人は、当初の計画から逸脱したことや、目標に向かって行われる準最適行動について知らせるメカニズムがない。
本稿では,ロボットが,騒音センサデータとサブオプティカルヒューマンアクションに関する明確化質問を行うことにより,目標認識のための対話 (d4gr) を実現する,部分可観測領域における計画と目標認識のための新しい枠組みを提案する。
キッチンとブロックの2つの模擬ドメイン上でのD4GRの性能を評価する。
言語フィードバックと世界状態情報の階層的タスクモデルを用いて,両領域の目標精度において,高感度雑音に対するD4GRフレームワークがHTNよりも1%高い性能を示すことを示す。
計画精度では、D4GRはキッチンドメインで4%、ブロックドメインで2%、HTNと比較してパフォーマンスが向上する。
ALWAYS-ASKのオラクルは、目標認識の3%、計画認識の7%で私たちの政策を上回ります。
D4GRは、オラクルのベースラインよりも68%少ない質問をする。
また,キッチン領域における実世界のロボットシナリオを実演し,実環境におけるd4grの計画と目標認識の改善を検証する。
関連論文リスト
- Continuously Improving Mobile Manipulation with Autonomous Real-World RL [33.085671103158866]
モバイル操作のための完全に自律的な実世界のRLフレームワークを提案する。
これはタスク関連自律性によって実現され、これはオブジェクトのインタラクションへの探索をガイドし、目標状態付近の停滞を防ぐ。
我々は,Spotロボットがモバイル操作タスクの4つの課題に対して,継続的なパフォーマンス向上を可能にすることを実証した。
論文 参考訳(メタデータ) (2024-09-30T17:59:50Z) - Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - AlphaBlock: Embodied Finetuning for Vision-Language Reasoning in Robot
Manipulation [50.737355245505334]
本稿では,ロボット操作タスクにおける高レベル認知能力を学習するための新しいフレームワークを提案する。
得られたデータセットAlphaBlockは、多段階のテキストプランとペア観測による35の包括的なハイレベルタスクで構成されている。
論文 参考訳(メタデータ) (2023-05-30T09:54:20Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Goal Recognition as a Deep Learning Task: the GRNet Approach [0.0]
自動計画において、観察の痕跡からエージェントのゴールを認識することは、多くのアプリケーションにとって重要な課題である。
本稿では,機械学習によって対処される分類課題としてゴール認識を定式化する手法について検討する。
GRNetと呼ばれる私たちのアプローチは、主に、特定のドメインでそれを解決する方法を学ぶことによって、ゴール認識をより正確かつ高速にすることを目的としています。
論文 参考訳(メタデータ) (2022-10-05T16:42:48Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - iCORPP: Interleaved Commonsense Reasoning and Probabilistic Planning on
Robots [46.13039152809055]
我々はiCORPPと呼ばれる新しいアルゴリズムを提案し、現在の世界状態を同時に推定し、世界ダイナミクスの推論を行い、タスク指向のコントローラを構築する。
結果は、競合するベースラインと比較して、スケーラビリティ、効率、適応性が大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2020-04-18T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。