論文の概要: Dialogue Object Search
- arxiv url: http://arxiv.org/abs/2107.10653v1
- Date: Thu, 22 Jul 2021 13:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 14:48:01.007629
- Title: Dialogue Object Search
- Title(参考訳): 対話オブジェクト検索
- Authors: Monica Roy, Kaiyu Zheng, Jason Liu, Stefanie Tellex
- Abstract要約: 対話対象探索という新たなタスクを導入し,人間環境下で対象物を探索するロボットを課題とする。
ロボットは、搭載されたカメラからの画像を共有しながら、人間と音声ベースの対話を行う。
このタスクは、データ収集、アルゴリズム、システム開発から評価に至るまで、複数のレベルで難しい。
- 参考スコア(独自算出の注目度): 11.431837357827396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We envision robots that can collaborate and communicate seamlessly with
humans. It is necessary for such robots to decide both what to say and how to
act, while interacting with humans. To this end, we introduce a new task,
dialogue object search: A robot is tasked to search for a target object (e.g.
fork) in a human environment (e.g., kitchen), while engaging in a "video call"
with a remote human who has additional but inexact knowledge about the target's
location. That is, the robot conducts speech-based dialogue with the human,
while sharing the image from its mounted camera. This task is challenging at
multiple levels, from data collection, algorithm and system development,to
evaluation. Despite these challenges, we believe such a task blocks the path
towards more intelligent and collaborative robots. In this extended abstract,
we motivate and introduce the dialogue object search task and analyze examples
collected from a pilot study. We then discuss our next steps and conclude with
several challenges on which we hope to receive feedback.
- Abstract(参考訳): 我々は、人間とシームレスに連携しコミュニケーションできるロボットを想定する。
このようなロボットは、人間と対話しながら、何を言おうと、どのように振る舞うかを決める必要がある。
この目的のために,対話対象探索という新たなタスクを導入する。ロボットは対象物(例えば,ロボット)を探索する。
フォーク) 人間環境(例えばキッチン)において、ターゲットの位置について追加的だが不正確な知識を持つリモートの人間と「ビデオ通話」を行う。
つまりロボットは、装着したカメラからの画像を共有しながら、人間と音声による対話を行う。
このタスクは、データ収集からアルゴリズムやシステム開発、評価まで、さまざまなレベルで課題があります。
このような課題にもかかわらず、そのようなタスクはよりインテリジェントで協調的なロボットへの道を妨げていると信じています。
この拡張要約では,対話対象探索タスクを動機付け,導入し,パイロット研究から収集した事例を分析する。
次に次のステップについて議論し、フィードバックを期待するいくつかの課題を結論付けます。
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HandMeThat: Human-Robot Communication in Physical and Social
Environments [73.91355172754717]
HandMeThatは、物理的および社会的環境における命令理解とフォローの総合評価のためのベンチマークである。
HandMeThatには、人間とロボットの対話の1万エピソードが含まれている。
オフラインとオンラインの強化学習アルゴリズムはHandMeThatでは性能が良くないことを示す。
論文 参考訳(メタデータ) (2023-10-05T16:14:46Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Talk-to-Resolve: Combining scene understanding and spatial dialogue to
resolve granular task ambiguity for a collocated robot [15.408128612723882]
ロボットのコロケーションの実用性は、人間との容易で直感的な相互作用機構に大きく依存する。
本稿では,TTR(Talk-to-Resolve)と呼ばれるシステムについて述べる。
本システムでは,82%の精度でスタレマトを同定し,適切な対話交換で解決することができる。
論文 参考訳(メタデータ) (2021-11-22T10:42:59Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。