論文の概要: Situated Multimodal Control of a Mobile Robot: Navigation through a
Virtual Environment
- arxiv url: http://arxiv.org/abs/2007.09053v1
- Date: Mon, 13 Jul 2020 16:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 22:47:20.981432
- Title: Situated Multimodal Control of a Mobile Robot: Navigation through a
Virtual Environment
- Title(参考訳): 移動ロボットの位置的マルチモーダル制御:仮想環境を通したナビゲーション
- Authors: Katherine Krajovic, Nikhil Krishnaswamy, Nathaniel J. Dimick, R. Pito
Salas, and James Pustejovsky
- Abstract要約: 協調ジェスチャーと言語を用いたナビゲーションロボットのための新しいインタフェースを提案する。
我々は、LIDARとカメラを備えたTurtleBot3ロボット、探索中にロボットが遭遇したことを具体化したシミュレーション、汎用的なコミュニケーションを容易にするクロスプラットフォームブリッジを使用する。
- 参考スコア(独自算出の注目度): 7.387138888226306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new interface for controlling a navigation robot in novel
environments using coordinated gesture and language. We use a TurtleBot3 robot
with a LIDAR and a camera, an embodied simulation of what the robot has
encountered while exploring, and a cross-platform bridge facilitating generic
communication. A human partner can deliver instructions to the robot using
spoken English and gestures relative to the simulated environment, to guide the
robot through navigation tasks.
- Abstract(参考訳): 本稿では,協調ジェスチャーと言語を用いた新しい環境下でのナビゲーションロボット制御のための新しいインタフェースを提案する。
我々は、LIDARとカメラを備えたTurtleBot3ロボット、探索中にロボットが遭遇したことを具体化したシミュレーション、汎用通信を容易にするクロスプラットフォームブリッジを使用する。
人間のパートナーは、音声英語と模擬環境に対するジェスチャーを用いてロボットに指示を与え、ナビゲーションタスクを通じてロボットを誘導することができる。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - LLM Granularity for On-the-Fly Robot Control [3.5015824313818578]
視覚が信頼できない、あるいは利用できない状況では、ロボットを制御するための言語のみに頼ることができるのか?
本研究は,(1)様々な粒度の言語プロンプトに対する補助ロボットの応答を評価し,(2)ロボットのオンザフライ制御の必要性と実現可能性を探る。
論文 参考訳(メタデータ) (2024-06-20T18:17:48Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Body Gesture Recognition to Control a Social Robot [5.557794184787908]
本研究では,人間の身体を自然に利用してロボットと対話できるジェスチャー型言語を提案する。
ニューラルネットワークを用いた新しいジェスチャー検出モデルと、ネットワークをトレーニングするための身体ジェスチャーセットを実行する人間のカスタムデータセットを作成しました。
論文 参考訳(メタデータ) (2022-06-15T13:49:22Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - The RobotSlang Benchmark: Dialog-guided Robot Localization and
Navigation [35.0500437688086]
本稿では,ロボットを制御する人間ドライバーと,ナビゲーション目標へのガイダンスを提供する人間コマンドとの間の169の自然言語ダイアログのベンチマークを示す。
それぞれのトライアルでは、まずロボットがコマンドに見えるグローバルマップ上でローカライズされ、次にドライバーはコマンドに従ってロボットを対象のオブジェクトのシーケンスに移動させる。
NDHタスクの初期モデルを示し、シミュレーションで訓練されたエージェントが、物理ロボットプラットフォームを制御するためのRobotSlangダイアログベースのナビゲーション指示に従うことができることを示す。
論文 参考訳(メタデータ) (2020-10-23T19:58:17Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。