論文の概要: Semantic-Aware Environment Perception for Mobile Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2211.03367v1
- Date: Mon, 7 Nov 2022 08:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 16:19:11.467901
- Title: Semantic-Aware Environment Perception for Mobile Human-Robot Interaction
- Title(参考訳): 移動ロボットインタラクションのためのセマンティック・アウェア環境認識
- Authors: Thorsten Hempel, Marc-Andr\'e Fiedler, Aly Khalifa, Ayoub Al-Hamadi,
Laslo Dinges
- Abstract要約: 本稿では,移動ロボットのための視覚ベースシステムについて,アプリオリ知識を付加せずにセマンティック・アウェア環境を実現する。
実世界のアプリケーションで我々の手法をテストすることができる移動型ヒューマノイドロボットにシステムをデプロイする。
- 参考スコア(独自算出の注目度): 2.309914459672557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current technological advances open up new opportunities for bringing
human-machine interaction to a new level of human-centered cooperation. In this
context, a key issue is the semantic understanding of the environment in order
to enable mobile robots more complex interactions and a facilitated
communication with humans. Prerequisites are the vision-based registration of
semantic objects and humans, where the latter are further analyzed for
potential interaction partners. Despite significant research achievements, the
reliable and fast registration of semantic information still remains a
challenging task for mobile robots in real-world scenarios. In this paper, we
present a vision-based system for mobile assistive robots to enable a
semantic-aware environment perception without additional a-priori knowledge. We
deploy our system on a mobile humanoid robot that enables us to test our
methods in real-world applications.
- Abstract(参考訳): 最近の技術進歩は、人間と機械の相互作用を新しいレベルの人間中心の協力に導く新しい機会を開く。
この文脈では、モバイルロボットがより複雑なインタラクションと人間とのコミュニケーションを容易にするために、環境の意味的理解が鍵となる。
前提条件は、視覚に基づくセマンティックオブジェクトと人間登録であり、後者は潜在的な相互作用パートナーのためにさらに分析される。
重要な研究成果にもかかわらず、セマンティック情報の信頼性と迅速な登録は、現実のシナリオにおける移動ロボットにとって依然として困難な課題である。
本稿では,a-prioriの知識を付加することなく,意味認識環境の認識を可能にする視覚支援ロボットのためのシステムを提案する。
実世界のアプリケーションで我々の手法をテストすることができる移動型ヒューマノイドロボットにシステムをデプロイする。
関連論文リスト
- Language-guided Robust Navigation for Mobile Robots in Dynamically-changing Environments [26.209402619114353]
我々は、車輪付き移動ロボットを用いた人道案内のための具体的AIシステムを開発した。
本研究では,ロボットの意図した軌道に影響を与える環境変化を検出するため,ロボットの現在の計画を監視する手法を提案する。
この作業は、環境状態に関する情報を人間に提供する環境の持続的な監視を行う、精密農業や建設のようなアプリケーションを支援することができる。
論文 参考訳(メタデータ) (2024-09-28T21:30:23Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HandMeThat: Human-Robot Communication in Physical and Social
Environments [73.91355172754717]
HandMeThatは、物理的および社会的環境における命令理解とフォローの総合評価のためのベンチマークである。
HandMeThatには、人間とロボットの対話の1万エピソードが含まれている。
オフラインとオンラインの強化学習アルゴリズムはHandMeThatでは性能が良くないことを示す。
論文 参考訳(メタデータ) (2023-10-05T16:14:46Z) - Perception for Humanoid Robots [10.560498559084449]
本稿では,ヒューマノイドロボットの認識分野における最近の発展と動向について概説する。
アプリケーションの主な領域は、内部状態推定、外部環境推定、人間ロボットのインタラクションである。
論文 参考訳(メタデータ) (2023-09-27T12:32:11Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Aligning Robot Representations with Humans [5.482532589225552]
主な問題は、ある環境で学んだ知識を別の環境に移す方法である。
我々は、人間が世界でシステム成功の究極的な評価者になるので、ロボットに重要なタスクの側面を伝えるのに最も適していると仮定する。
このアプローチをインタラクティブシステムの構築に利用し、高度な協調ロボットをより良く開発するための今後の方向性を提供する3つの分野を強調します。
論文 参考訳(メタデータ) (2022-05-15T15:51:05Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Semantics for Robotic Mapping, Perception and Interaction: A Survey [93.93587844202534]
理解の研究は、ロボットに世界が何を意味するのかを決定する。
人間とロボットが同じ世界で活動するようになるにつれ、人間とロボットの相互作用の展望も意味論をもたらす。
ニーズや、トレーニングデータや計算リソースの可用性向上などによって駆動されるセマンティックスは、ロボティクスにおける急速に成長している研究領域である。
論文 参考訳(メタデータ) (2021-01-02T12:34:39Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。