論文の概要: Unified Understanding of Environment, Task, and Human for Human-Robot Interaction in Real-World Environments
- arxiv url: http://arxiv.org/abs/2412.13726v1
- Date: Wed, 18 Dec 2024 11:05:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:47:29.132684
- Title: Unified Understanding of Environment, Task, and Human for Human-Robot Interaction in Real-World Environments
- Title(参考訳): 実世界環境における人間-ロボットインタラクションのための環境・タスク・ヒューマンの統一的理解
- Authors: Yuga Yano, Akinobu Mizutani, Yukiya Fukuda, Daiju Kanaoka, Tomohiro Ono, Hakaru Tamukoh,
- Abstract要約: サービスロボットは、人間と効果的にコミュニケーションしながら、動的な環境に適応し、必要なタスクを理解する必要がある。
本稿では,新しい屋内動的マップ,タスク理解システム,応答生成システムを提案する。
シミュレーションされたレストラン環境で行った実験では、提案したHRIシステムは顧客とのコミュニケーションに成功し、90%の精度で注文食品を提供した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: To facilitate human--robot interaction (HRI) tasks in real-world scenarios, service robots must adapt to dynamic environments and understand the required tasks while effectively communicating with humans. To accomplish HRI in practice, we propose a novel indoor dynamic map, task understanding system, and response generation system. The indoor dynamic map optimizes robot behavior by managing an occupancy grid map and dynamic information, such as furniture and humans, in separate layers. The task understanding system targets tasks that require multiple actions, such as serving ordered items. Task representations that predefine the flow of necessary actions are applied to achieve highly accurate understanding. The response generation system is executed in parallel with task understanding to facilitate smooth HRI by informing humans of the subsequent actions of the robot. In this study, we focused on waiter duties in a restaurant setting as a representative application of HRI in a dynamic environment. We developed an HRI system that could perform tasks such as serving food and cleaning up while communicating with customers. In experiments conducted in a simulated restaurant environment, the proposed HRI system successfully communicated with customers and served ordered food with 90\% accuracy. In a questionnaire administered after the experiment, the HRI system of the robot received 4.2 points out of 5. These outcomes indicated the effectiveness of the proposed method and HRI system in executing waiter tasks in real-world environments.
- Abstract(参考訳): 現実のシナリオにおけるヒューマンロボットインタラクション(HRI)タスクを容易にするために、サービスロボットは、人間と効果的にコミュニケーションしながら、動的な環境に適応し、必要なタスクを理解する必要がある。
HRIを実現するために,新しい屋内動的マップ,タスク理解システム,応答生成システムを提案する。
室内のダイナミックマップは、占有グリッドマップと家具や人間などの動的情報を管理することでロボットの動作を最適化する。
タスク理解システムは、順序付けられたアイテムを提供するなど、複数のアクションを必要とするタスクをターゲットにしている。
必要なアクションの流れを事前に定義したタスク表現を適用して、高精度な理解を実現する。
応答生成システムはタスク理解と並行して実行され、ロボットのその後の動作を人間に知らせることで、スムーズなHRIを容易にする。
本研究では,動的環境におけるHRIの代表的な応用として,レストランでのウェイター業務に着目した。
我々は,顧客とコミュニケーションしながら,食事の提供やクリーンアップといったタスクをこなせるHRIシステムを開発した。
シミュレーションされたレストラン環境で行った実験では、提案したHRIシステムは顧客とのコミュニケーションに成功し、注文食品を90%の精度で提供した。
実験後に実施したアンケート調査では,ロボットのHRIシステムは5。
これらの結果から,実環境におけるウェイタータスクの実行における提案手法とHRIシステムの有効性が示唆された。
関連論文リスト
- One to rule them all: natural language to bind communication, perception and action [0.9302364070735682]
本稿では,Large Language Models (LLMs) によるコミュニケーション,知覚,計画を統合したロボット行動計画のための高度なアーキテクチャを提案する。
Planner Moduleはシステムの中核であり、修正されたReActフレームワークに組み込み、ユーザーコマンドの解釈と実行にLLMが使用される。
修正されたReActフレームワークは、リアルタイムな環境認識と身体行動の結果を提供することにより、実行スペースをさらに強化する。
論文 参考訳(メタデータ) (2024-11-22T16:05:54Z) - Time is on my sight: scene graph filtering for dynamic environment perception in an LLM-driven robot [0.8515309662618664]
本稿では,人間とロボットのインタラクションにおける重要な課題に対処するロボット制御アーキテクチャを提案する。
アーキテクチャはLarge Language Modelsを使用して、自然言語コマンドを含む多様な情報ソースを統合する。
このアーキテクチャは、動的環境における適応性、タスク効率、人間とロボットのコラボレーションを強化する。
論文 参考訳(メタデータ) (2024-11-22T15:58:26Z) - NatSGD: A Dataset with Speech, Gestures, and Demonstrations for Robot
Learning in Natural Human-Robot Interaction [19.65778558341053]
HRIデータセットは、オブジェクトのポインティングやプッシュといった基本的なタスクに重点を置いていることが多い。
音声とジェスチャーによる人間のコマンドを含むマルチモーダルHRIデータセットであるNatSGDを紹介する。
マルチモーダル・ヒューマン・コマンドによるタスク理解のためのロボットの訓練において,その効果を実証する。
論文 参考訳(メタデータ) (2024-03-04T18:02:41Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - SAGCI-System: Towards Sample-Efficient, Generalizable, Compositional,
and Incremental Robot Learning [41.19148076789516]
上記の4つの要件を満たすために,SAGCIシステムと呼ばれる体系的な学習フレームワークを導入する。
本システムはまず,ロボットの手首に搭載されたカメラによって収集された生点雲を入力とし,URDFに代表される周囲環境の初期モデリングを生成する。
そのロボットは、対話的な知覚を利用して環境と対話し、URDFのオンライン検証と修正を行う。
論文 参考訳(メタデータ) (2021-11-29T16:53:49Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z) - The Chef's Hat Simulation Environment for Reinforcement-Learning-Based
Agents [54.63186041942257]
本稿では,人間-ロボットインタラクションのシナリオで使用されるように設計されたChef's Hatカードゲームを実装する仮想シミュレーション環境を提案する。
本稿では,強化学習アルゴリズムにおける制御可能かつ再現可能なシナリオを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。