論文の概要: Teaching Robots Like Dogs: Learning Agile Navigation from Luring, Gesture, and Speech
- arxiv url: http://arxiv.org/abs/2601.08422v2
- Date: Wed, 21 Jan 2026 01:52:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.765344
- Title: Teaching Robots Like Dogs: Learning Agile Navigation from Luring, Gesture, and Speech
- Title(参考訳): 犬のようなロボットを教える: 学習、ジェスチャー、スピーチからアジャイルナビゲーションを学ぶ
- Authors: Taerim Yoon, Dongho Kang, Jin Cheng, Fatemeh Zargarbashi, Yijiang Huang, Minsung Ahn, Stelian Coros, Sungjoon Choi,
- Abstract要約: 本研究の目的は,ロボットが人間の社会的手がかりを解釈し,身体的指導を通じて適切な行動を生み出す方法を学習できるようにすることである。
本稿では,ロボットがデータ効率のよいナビゲーション行動を取得することを可能にする,ループ型ヒューマン・イン・ザ・ループ・フレームワークを提案する。
障害を飛び越えたり回避したりする6つの現実のアジャイルナビゲーションシナリオで、私たちのフレームワークを評価します。
- 参考スコア(独自算出の注目度): 19.38205427861322
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we aim to enable legged robots to learn how to interpret human social cues and produce appropriate behaviors through physical human guidance. However, learning through physical engagement can place a heavy burden on users when the process requires large amounts of human-provided data. To address this, we propose a human-in-the-loop framework that enables robots to acquire navigational behaviors in a data-efficient manner and to be controlled via multimodal natural human inputs, specifically gestural and verbal commands. We reconstruct interaction scenes using a physics-based simulation and aggregate data to mitigate distributional shifts arising from limited demonstration data. Our progressive goal cueing strategy adaptively feeds appropriate commands and navigation goals during training, leading to more accurate navigation and stronger alignment between human input and robot behavior. We evaluate our framework across six real-world agile navigation scenarios, including jumping over or avoiding obstacles. Our experimental results show that our proposed method succeeds in almost all trials across these scenarios, achieving a 97.15% task success rate with less than 1 hour of demonstration data in total.
- Abstract(参考訳): 本研究の目的は,ロボットが人間の社会的手がかりを解釈し,身体的指導を通じて適切な行動を生成する方法を学習できるようにすることである。
しかし、物理的なエンゲージメントを通じての学習は、プロセスが大量の人為的なデータを必要とする場合に、ユーザに重荷を課す可能性がある。
そこで本研究では,ロボットがデータ効率のよい方法でナビゲーション行動を取得し,マルチモーダルな人間の入力,特にジェスチャーと音声のコマンドによって制御できる,ループ型ヒューマン・イン・ザ・ループ・フレームワークを提案する。
物理シミュレーションと集約データを用いてインタラクションシーンを再構築し,限られた実演データから生じる分布変化を緩和する。
我々のプログレッシブなゴールキュー戦略は、トレーニング中に適切なコマンドとナビゲーション目標を適応的に供給し、より正確なナビゲーションと、人間の入力とロボットの動作の整合性を高める。
障害を飛び越えたり回避したりする6つの現実のアジャイルナビゲーションシナリオで、私たちのフレームワークを評価します。
実験の結果,提案手法はこれらのシナリオのほぼ全ての実験で成功し,97.15%のタスク成功率が1時間未満で達成された。
関連論文リスト
- Imitating What Works: Simulation-Filtered Modular Policy Learning from Human Videos [56.510263910611684]
本研究では,様々な動作を行う前に物体をつかむタスクを包括的操作に対処する。
人間のビデオは、移植後の動作を学ぶための強力な信号を提供するが、必要な把握行動を学ぶのにはあまり役に立たない。
本稿では、人間の動画モーションデータを用いたモジュラー操作ポリシーをトレーニングするためのフレームワークであるPerceive-Simulate-Imitate(PSI)を提案する。
論文 参考訳(メタデータ) (2026-02-13T18:59:10Z) - EgoHumanoid: Unlocking In-the-Wild Loco-Manipulation with Robot-Free Egocentric Demonstration [67.13034606664333]
EgoHumanoidは、エゴセントリックな人間のデモを使って視覚言語アクションポリシーを共同訓練する最初のフレームワークである。
スケーラブルな人的データ収集のためのポータブルシステムを開発した。
論文 参考訳(メタデータ) (2026-02-10T18:59:03Z) - From Human Hands to Robot Arms: Manipulation Skills Transfer via Trajectory Alignment [36.08997778717271]
現実世界のロボットの多様な操作スキルを学ぶことは、高価でスケールの難しい遠隔操作によるデモンストレーションに依存することでボトルネックとなる。
本稿では,操作終端の3次元軌跡を統一中間表現として利用することにより,この実施ギャップを橋渡しする新しいフレームワークであるTraj2Actionを紹介する。
我々の方針はまず,人間とロボットの両方のデータを活用することで,高レベルの運動計画を形成する粗い軌道を生成することを学習する。
論文 参考訳(メタデータ) (2025-10-01T04:21:12Z) - Towards Human-level Intelligence via Human-like Whole-Body Manipulation [10.199110135230674]
Astribot Suiteは、多様な環境にまたがる日常的なタスクを対象とする、全身操作のためのロボット学習スイートである。
以上の結果から,Astribotのエボディメント,遠隔操作インターフェース,学習パイプラインの統合は,実世界の汎用的な全身ロボット操作への重要な一歩であることが示唆された。
論文 参考訳(メタデータ) (2025-07-23T02:23:41Z) - Human-Humanoid Robots Cross-Embodiment Behavior-Skill Transfer Using Decomposed Adversarial Learning from Demonstration [9.42179962375058]
本稿では,デジタル人間モデルを共通プロトタイプとして使用することにより,データのボトルネックを低減するための転送可能なフレームワークを提案する。
このモデルは、人間による実演から、敵対的な模倣を通して行動プリミティブを学習し、複雑なロボット構造を機能的な構成要素に分解する。
本フレームワークは,多種多様な構成のヒューマノイドロボット5体を用いて検証した。
論文 参考訳(メタデータ) (2024-12-19T18:41:45Z) - Surfer: Progressive Reasoning with World Models for Robotic Manipulation [51.26109827779267]
本稿では,新しいシンプルなロボット操作フレームワークであるSurferを紹介する。
Surferは、ロボット操作を視覚シーンの状態伝達として扱い、それをアクションとシーンという2つの部分に分割する。
これは世界モデルに基づいており、ロボット操作を視覚シーンの状態伝達として扱い、アクションとシーンの2つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-20T07:06:04Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。