論文の概要: ViNL: Visual Navigation and Locomotion Over Obstacles
- arxiv url: http://arxiv.org/abs/2210.14791v1
- Date: Wed, 26 Oct 2022 15:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 13:03:45.141523
- Title: ViNL: Visual Navigation and Locomotion Over Obstacles
- Title(参考訳): ViNL: 障害物に対する視覚ナビゲーションと移動
- Authors: Simar Kareer, Naoki Yokoyama, Dhruv Batra, Sehoon Ha, Joanne Truong
- Abstract要約: 障害物を用いた視覚ナビゲーションとロコモーション(ViNL)について述べる。
四足歩行ロボットは、道にある小さな障害物を踏み越えながら、見えないアパートを移動することができる。
ViNLは,(1)不慣れな屋内環境における目標座標にロボットを誘導する線形および角速度コマンドを出力する視覚的ナビゲーションポリシーと,(2)ロボットの関節を制御し,提供された速度コマンドに従って障害物を踏むことを避ける視覚的移動ポリシーとから構成される。
- 参考スコア(独自算出の注目度): 32.604113123299705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Visual Navigation and Locomotion over obstacles (ViNL), which
enables a quadrupedal robot to navigate unseen apartments while stepping over
small obstacles that lie in its path (e.g., shoes, toys, cables), similar to
how humans and pets lift their feet over objects as they walk. ViNL consists
of: (1) a visual navigation policy that outputs linear and angular velocity
commands that guides the robot to a goal coordinate in unfamiliar indoor
environments; and (2) a visual locomotion policy that controls the robot's
joints to avoid stepping on obstacles while following provided velocity
commands. Both the policies are entirely "model-free", i.e. sensors-to-actions
neural networks trained end-to-end. The two are trained independently in two
entirely different simulators and then seamlessly co-deployed by feeding the
velocity commands from the navigator to the locomotor, entirely "zero-shot"
(without any co-training). While prior works have developed learning methods
for visual navigation or visual locomotion, to the best of our knowledge, this
is the first fully learned approach that leverages vision to accomplish both
(1) intelligent navigation in new environments, and (2) intelligent visual
locomotion that aims to traverse cluttered environments without disrupting
obstacles. On the task of navigation to distant goals in unknown environments,
ViNL using just egocentric vision significantly outperforms prior work on
robust locomotion using privileged terrain maps (+32.8% success and -4.42
collisions per meter). Additionally, we ablate our locomotion policy to show
that each aspect of our approach helps reduce obstacle collisions. Videos and
code at http://www.joannetruong.com/projects/vinl.html
- Abstract(参考訳): 視覚ナビゲーションと障害物の移動(ViNL)は、人間やペットが歩きながら足を持ち上げるのと同じように、四足歩行ロボットが見えないアパートを移動しながら、その道にある小さな障害物(靴、おもちゃ、ケーブルなど)を踏むことができる。
ViNLは,(1)不慣れな屋内環境における目標座標にロボットを誘導する線形および角速度コマンドを出力する視覚的ナビゲーションポリシーと,(2)ロボットの関節を制御し,提供された速度コマンドに従って障害物を踏むことを避ける視覚的移動ポリシーとから構成される。
どちらのポリシーも完全に"モデルフリー"、すなわちエンドツーエンドにトレーニングされたセンサー間ニューラルネットワークである。
2つは2つの全く異なるシミュレータで独立に訓練され、ナビゲータからの速度コマンドをロコモターに供給することでシームレスに共存し、完全に「ゼロショット」となる(コトレーニングは一切行わない)。
従来,視覚的ナビゲーションや視覚的移動の学習手法が開発されてきたが,この手法は,(1)新しい環境におけるインテリジェントなナビゲーションと(2)障害物を乱さずに散らばった環境を横断するインテリジェントな視覚的移動の両方を達成するために,視覚を利用する最初の完全学習手法である。
未知環境における遠隔目標へのナビゲーションのタスクにおいて、vinlは、特権付き地形地図を用いたロバストなロコモーション(+32.8%の成功と4.42mの衝突)の以前の作業を大きく上回っている。
さらに,ロコモーションポリシを緩和して,アプローチの各側面が障害物衝突の低減に役立つことを示す。
ビデオとコード: http://www.joannetruong.com/projects/vinl.html
関連論文リスト
- Helpful DoggyBot: Open-World Object Fetching using Legged Robots and Vision-Language Models [63.89598561397856]
室内環境における四足歩行操作のためのシステムを提案する。
オブジェクト操作にはフロントマウントのグリップを使用しており、アジャイルスキルにエゴセントリックな深さを使ってシミュレーションでトレーニングされた低レベルのコントローラである。
実世界のデータ収集やトレーニングを行なわずに、2つの目に見えない環境でシステムを評価する。
論文 参考訳(メタデータ) (2024-09-30T20:58:38Z) - DexDribbler: Learning Dexterous Soccer Manipulation via Dynamic Supervision [26.9579556496875]
移動物体の協調操作と,サッカーなどの足による移動は,学習コミュニティにおいて目立たない注目を集める。
出力をダイナミックな関節レベル移動監視として使用し,必要な身体レベルの動きを正確に計算するフィードバック制御ブロックを提案する。
我々は,我々の学習手法が政策ネットワークをより早く収束させるだけでなく,サッカーロボットが高度な操作を行うことを可能にすることを観察した。
論文 参考訳(メタデータ) (2024-03-21T11:16:28Z) - Dexterous Legged Locomotion in Confined 3D Spaces with Reinforcement
Learning [37.95557495560936]
低レベルな動作コマンドを生成することで,これらの経路を追従するように訓練されたRLベースのポリシーと,従来の計画的計画立案を組み合わさった階層型移動制御器を導入する。
シミュレーションでは、我々の階層的アプローチは制限された3D環境をナビゲートすることに成功し、純粋なエンドツーエンド学習アプローチとパラメータ化された運動スキルの両方を上回ります。
論文 参考訳(メタデータ) (2024-03-06T16:49:08Z) - Learning to Walk by Steering: Perceptive Quadrupedal Locomotion in
Dynamic Environments [25.366480092589022]
四足歩行ロボットは、環境の乱雑さや移動する障害物に応答して、頑丈で機敏な歩行行動を示す必要がある。
本稿では,知覚的移動の問題をハイレベルな意思決定に分解する,PreLUDEという階層型学習フレームワークを提案する。
シミュレーションおよびハードウェア実験において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-09-19T17:55:07Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Learning Quadrupedal Locomotion over Challenging Terrain [68.51539602703662]
足の移動はロボティクスの操作領域を劇的に拡張することができる。
足の移動のための従来のコントローラーは、運動プリミティブと反射の実行を明示的にトリガーする精巧な状態マシンに基づいている。
ここでは、自然環境に挑戦する際の足の移動に対して、徹底的に頑健な制御器を提案する。
論文 参考訳(メタデータ) (2020-10-21T19:11:20Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。