論文の概要: Model Elicitation through Direct Questioning
- arxiv url: http://arxiv.org/abs/2011.12262v1
- Date: Tue, 24 Nov 2020 18:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:09:26.389906
- Title: Model Elicitation through Direct Questioning
- Title(参考訳): 直接質問によるモデル理解
- Authors: Sachin Grover, David Smith, Subbarao Kambhampati
- Abstract要約: ロボットが人間のモデルをモデルからローカライズする方法を示す。
ロボットのチームメイトモデルに対する理解を深めるための質問を生成する方法を示す。
- 参考スコア(独自算出の注目度): 22.907680615911755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The future will be replete with scenarios where humans are robots will be
working together in complex environments. Teammates interact, and the robot's
interaction has to be about getting useful information about the human's
(teammate's) model. There are many challenges before a robot can interact, such
as incorporating the structural differences in the human's model, ensuring
simpler responses, etc. In this paper, we investigate how a robot can interact
to localize the human model from a set of models. We show how to generate
questions to refine the robot's understanding of the teammate's model. We
evaluate the method in various planning domains. The evaluation shows that
these questions can be generated offline, and can help refine the model through
simple answers.
- Abstract(参考訳): 将来的には、人間がロボットであるシナリオが、複雑な環境で一緒に働くようになるでしょう。
チームメートが相互作用し、ロボットのインタラクションは、人間の(チームメート)モデルに関する有用な情報を取得する必要がある。
ロボットが対話する前には、人間のモデルに構造的な違いを取り入れたり、より単純な応答を確保するなど、多くの課題がある。
本稿では,ロボットがモデル群から人間のモデルをローカライズするためにどのように相互作用するかを検討する。
チームメートのモデルに対するロボットの理解を深めるために、質問を生成する方法を示す。
本手法を様々な計画領域で評価する。
評価の結果、これらの質問はオフラインで生成でき、単純な回答によってモデルを洗練するのに役立ちます。
関連論文リスト
- Singing the Body Electric: The Impact of Robot Embodiment on User
Expectations [7.408858358967414]
ユーザーはロボットのメンタルモデルを開発し、ロボットとどのような相互作用ができるかを概念化する。
概念化はしばしばロボットとの相互作用の前に形成され、ロボットの物理的デザインを観察することのみに基づいている。
本研究では,ロボットが持つ社会的・身体的能力に対して,ユーザがどのような期待を抱くかを予測するために,ロボットのマルチモーダル機能を利用することを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:42:48Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - On Model Reconciliation: How to Reconcile When Robot Does not Know
Human's Model? [0.0]
説明可能なAI計画の問題を解決するために、モデル和解問題(MRP)が導入された。
MRPを解くほとんどのアプローチは、説明を必要とするロボットが人間のモデルを知っていることを前提としている。
本稿では,ロボットが人間のモデルを知らないという前提の下で,MPPの説明を計算するための対話型アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-05T10:48:42Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Analyzing Human Models that Adapt Online [42.90591111619058]
予測する人間のモデルは、しばしば人間のデータからパラメータをオンラインに適応する必要がある。
これは、これらのモデルに依存するロボットにとって、これまで無視された安全関連の質問を引き起こします。
ロボットの学習アルゴリズムを,状態が現在のモデルパラメータ推定であり,制御がロボットが観察する人間のデータである動的システムとしてモデル化する。
論文 参考訳(メタデータ) (2021-03-09T22:38:46Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。