論文の概要: Learning Robust Agents for Visual Navigation in Dynamic Environments:
The Winning Entry of iGibson Challenge 2021
- arxiv url: http://arxiv.org/abs/2109.10493v1
- Date: Wed, 22 Sep 2021 02:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:41:06.156948
- Title: Learning Robust Agents for Visual Navigation in Dynamic Environments:
The Winning Entry of iGibson Challenge 2021
- Title(参考訳): 動的環境における視覚ナビゲーションのためのロバストエージェントの学習:iGibson Challenge 2021の勝者
- Authors: Naoki Yokoyama, Qian Luo, Dhruv Batra, Sehoon Ha
- Abstract要約: 我々は、動的・インタラクティブな環境におけるナビゲーションを改善するためのアプローチを提案し、2021年のiGibson Interactive Navigation Challengeで第1位を獲得した。
iGibson Challengeは、インタラクティブナビゲーションとソーシャルナビゲーションという2つの新しいナビゲーションタスクを提案した。
- 参考スコア(独自算出の注目度): 40.95679777958958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an approach for improving navigation in dynamic and
interactive environments, which won the 1st place in the iGibson Interactive
Navigation Challenge 2021. While the last few years have produced impressive
progress on PointGoal Navigation in static environments, relatively little
effort has been made on more realistic dynamic environments. The iGibson
Challenge proposed two new navigation tasks, Interactive Navigation and Social
Navigation, which add displaceable obstacles and moving pedestrians into the
simulator environment. Our approach to study these problems uses two key ideas.
First, we employ large-scale reinforcement learning by leveraging the Habitat
simulator, which supports high performance parallel computing for both
simulation and synchronized learning. Second, we employ a new data augmentation
technique that adds more dynamic objects into the environment, which can also
be combined with traditional image-based augmentation techniques to boost the
performance further. Lastly, we achieve sim-to-sim transfer from Habitat to the
iGibson simulator, and demonstrate that our proposed methods allow us to train
robust agents in dynamic environments with interactive objects or moving
humans. Video link: https://www.youtube.com/watch?v=HxUX2HeOSE4
- Abstract(参考訳): 本稿では,igibson interactive navigation challenge 2021で1位となった動的かつインタラクティブな環境におけるナビゲーション改善手法を提案する。
過去数年間、静的環境におけるPointGoal Navigationの目覚ましい進歩をみせてきたが、より現実的な動的環境に対する取り組みは比較的少ない。
iGibson Challengeは、インタラクティブナビゲーションとソーシャルナビゲーションという2つの新しいナビゲーションタスクを提案した。
これらの問題を研究するための我々のアプローチは2つの重要なアイデアを使用する。
まず,シミュレーションと同期学習の両方に高性能並列計算をサポートするHabitatシミュレータを活用することで,大規模強化学習を採用する。
第二に、よりダイナミックなオブジェクトを環境に追加する新しいデータ拡張技術を採用し、従来の画像ベースの拡張技術と組み合わせることで、パフォーマンスをさらに向上する。
最後に,HabitatからiGibsonシミュレータへのsim-to-sim転送を実現し,対話型オブジェクトや移動型人間を用いた動的環境におけるロバストエージェントのトレーニングを可能にする手法を提案する。
ビデオリンク: https://www.youtube.com/watch?
v=HxUX2HeOSE4
関連論文リスト
- Spatially Visual Perception for End-to-End Robotic Learning [33.490603706207075]
環境変動に対処するために3次元空間表現を利用する映像ベース空間認識フレームワークを提案する。
提案手法は,新しい画像拡張手法であるAugBlenderと,インターネット規模のデータに基づいてトレーニングされた最先端のモノクロ深度推定モデルを統合する。
論文 参考訳(メタデータ) (2024-11-26T14:23:42Z) - Open-World Reinforcement Learning over Long Short-Term Imagination [91.28998327423295]
LS-Imagineは、有限個の状態遷移ステップにおいて、イマジネーションの地平線を拡大する。
我々の手法は、MineDojoの最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-10-04T17:17:30Z) - FLaRe: Achieving Masterful and Adaptive Robot Policies with Large-Scale Reinforcement Learning Fine-Tuning [74.25049012472502]
FLaReは、堅牢な事前訓練された表現、大規模なトレーニング、勾配安定化技術を統合する大規模な強化学習フレームワークである。
提案手法は,タスク完了に向けた事前訓練されたポリシーを整列し,これまで実証され,全く新しいタスクや実施状況において,最先端(SoTA)のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-25T03:15:17Z) - Seeing in Flowing: Adapting CLIP for Action Recognition with Motion
Prompts Learning [14.292812802621707]
対照的な言語-画像事前学習(CLIP)は、最近「ゼロショット」トレーニングにおいて顕著な一般化を示している。
より効率的で汎用的な行動認識手法を実現するために,CLIPの適応について検討する。
提案手法は,既存の最先端の手法よりも「ファウショット」と「ゼロショット」の訓練に大きく差をつける。
論文 参考訳(メタデータ) (2023-08-09T09:33:45Z) - Multi-Agent Deep Reinforcement Learning for Dynamic Avatar Migration in
AIoT-enabled Vehicular Metaverses with Trajectory Prediction [70.9337170201739]
本稿では,その歴史データに基づいて,知的車両の将来の軌跡を予測するモデルを提案する。
提案アルゴリズムは,予測なしでアバタータスクの実行遅延を約25%削減できることを示す。
論文 参考訳(メタデータ) (2023-06-26T13:27:11Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Last-Mile Embodied Visual Navigation [31.622495628224403]
本稿では,画像ゴールナビゲーションシステムの性能向上を目的としたSlingを提案する。
我々は、ラストマイルナビゲーションに焦点をあて、ニューラルディスクリプタ問題の基礎となる幾何学的構造を活用する。
標準化された画像ゴールナビゲーションベンチマークでは、ポリシー、シーン、エピソードの複雑さにまたがるパフォーマンスを改善し、最先端の45%から55%の成功率に引き上げる。
論文 参考訳(メタデータ) (2022-11-21T18:59:58Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Solving Challenging Dexterous Manipulation Tasks With Trajectory
Optimisation and Reinforcement Learning [14.315501760755609]
人為的なロボットハンドの使い方を自律的に学ぶ訓練エージェントは、様々な複雑な操作タスクを実行できるシステムに繋がる可能性を秘めている。
まず、現在の強化学習と軌跡最適化技術が困難であるような、シミュレーション操作の難易度を課題として紹介する。
次に、これらの環境における既存の手法よりもはるかに優れた性能を示す、単純な軌道最適化を導入する。
論文 参考訳(メタデータ) (2020-09-09T13:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。