論文の概要: Learning Robust Agents for Visual Navigation in Dynamic Environments:
The Winning Entry of iGibson Challenge 2021
- arxiv url: http://arxiv.org/abs/2109.10493v1
- Date: Wed, 22 Sep 2021 02:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:41:06.156948
- Title: Learning Robust Agents for Visual Navigation in Dynamic Environments:
The Winning Entry of iGibson Challenge 2021
- Title(参考訳): 動的環境における視覚ナビゲーションのためのロバストエージェントの学習:iGibson Challenge 2021の勝者
- Authors: Naoki Yokoyama, Qian Luo, Dhruv Batra, Sehoon Ha
- Abstract要約: 我々は、動的・インタラクティブな環境におけるナビゲーションを改善するためのアプローチを提案し、2021年のiGibson Interactive Navigation Challengeで第1位を獲得した。
iGibson Challengeは、インタラクティブナビゲーションとソーシャルナビゲーションという2つの新しいナビゲーションタスクを提案した。
- 参考スコア(独自算出の注目度): 40.95679777958958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an approach for improving navigation in dynamic and
interactive environments, which won the 1st place in the iGibson Interactive
Navigation Challenge 2021. While the last few years have produced impressive
progress on PointGoal Navigation in static environments, relatively little
effort has been made on more realistic dynamic environments. The iGibson
Challenge proposed two new navigation tasks, Interactive Navigation and Social
Navigation, which add displaceable obstacles and moving pedestrians into the
simulator environment. Our approach to study these problems uses two key ideas.
First, we employ large-scale reinforcement learning by leveraging the Habitat
simulator, which supports high performance parallel computing for both
simulation and synchronized learning. Second, we employ a new data augmentation
technique that adds more dynamic objects into the environment, which can also
be combined with traditional image-based augmentation techniques to boost the
performance further. Lastly, we achieve sim-to-sim transfer from Habitat to the
iGibson simulator, and demonstrate that our proposed methods allow us to train
robust agents in dynamic environments with interactive objects or moving
humans. Video link: https://www.youtube.com/watch?v=HxUX2HeOSE4
- Abstract(参考訳): 本稿では,igibson interactive navigation challenge 2021で1位となった動的かつインタラクティブな環境におけるナビゲーション改善手法を提案する。
過去数年間、静的環境におけるPointGoal Navigationの目覚ましい進歩をみせてきたが、より現実的な動的環境に対する取り組みは比較的少ない。
iGibson Challengeは、インタラクティブナビゲーションとソーシャルナビゲーションという2つの新しいナビゲーションタスクを提案した。
これらの問題を研究するための我々のアプローチは2つの重要なアイデアを使用する。
まず,シミュレーションと同期学習の両方に高性能並列計算をサポートするHabitatシミュレータを活用することで,大規模強化学習を採用する。
第二に、よりダイナミックなオブジェクトを環境に追加する新しいデータ拡張技術を採用し、従来の画像ベースの拡張技術と組み合わせることで、パフォーマンスをさらに向上する。
最後に,HabitatからiGibsonシミュレータへのsim-to-sim転送を実現し,対話型オブジェクトや移動型人間を用いた動的環境におけるロバストエージェントのトレーニングを可能にする手法を提案する。
ビデオリンク: https://www.youtube.com/watch?
v=HxUX2HeOSE4
関連論文リスト
- Seeing in Flowing: Adapting CLIP for Action Recognition with Motion
Prompts Learning [14.292812802621707]
対照的な言語-画像事前学習(CLIP)は、最近「ゼロショット」トレーニングにおいて顕著な一般化を示している。
より効率的で汎用的な行動認識手法を実現するために,CLIPの適応について検討する。
提案手法は,既存の最先端の手法よりも「ファウショット」と「ゼロショット」の訓練に大きく差をつける。
論文 参考訳(メタデータ) (2023-08-09T09:33:45Z) - Multi-Agent Deep Reinforcement Learning for Dynamic Avatar Migration in
AIoT-enabled Vehicular Metaverses with Trajectory Prediction [70.9337170201739]
本稿では,その歴史データに基づいて,知的車両の将来の軌跡を予測するモデルを提案する。
提案アルゴリズムは,予測なしでアバタータスクの実行遅延を約25%削減できることを示す。
論文 参考訳(メタデータ) (2023-06-26T13:27:11Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots [0.0]
現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T11:29:59Z) - Last-Mile Embodied Visual Navigation [31.622495628224403]
本稿では,画像ゴールナビゲーションシステムの性能向上を目的としたSlingを提案する。
我々は、ラストマイルナビゲーションに焦点をあて、ニューラルディスクリプタ問題の基礎となる幾何学的構造を活用する。
標準化された画像ゴールナビゲーションベンチマークでは、ポリシー、シーン、エピソードの複雑さにまたがるパフォーマンスを改善し、最先端の45%から55%の成功率に引き上げる。
論文 参考訳(メタデータ) (2022-11-21T18:59:58Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Solving Challenging Dexterous Manipulation Tasks With Trajectory
Optimisation and Reinforcement Learning [14.315501760755609]
人為的なロボットハンドの使い方を自律的に学ぶ訓練エージェントは、様々な複雑な操作タスクを実行できるシステムに繋がる可能性を秘めている。
まず、現在の強化学習と軌跡最適化技術が困難であるような、シミュレーション操作の難易度を課題として紹介する。
次に、これらの環境における既存の手法よりもはるかに優れた性能を示す、単純な軌道最適化を導入する。
論文 参考訳(メタデータ) (2020-09-09T13:49:52Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。