論文の概要: Benchmarking Augmentation Methods for Learning Robust Navigation Agents:
the Winning Entry of the 2021 iGibson Challenge
- arxiv url: http://arxiv.org/abs/2109.10493v3
- Date: Thu, 12 Oct 2023 19:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 02:11:28.629544
- Title: Benchmarking Augmentation Methods for Learning Robust Navigation Agents:
the Winning Entry of the 2021 iGibson Challenge
- Title(参考訳): ロバストナビゲーションエージェント学習のためのベンチマーク強化手法--2021年iGibsonチャレンジの勝者として
- Authors: Naoki Yokoyama, Qian Luo, Dhruv Batra, Sehoon Ha
- Abstract要約: トレーニング中にいくつかの動的障害を加えることで,テスト時間一般化の大幅な改善が期待できることを示す。
このアプローチは、さらに高い成功率を達成するために、画像拡張手法と組み合わせることができる。
CVPRにおける2021 iGibson Challengeのエージェントをトレーニングするために,この動的障害物増強手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 39.71494532292193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep reinforcement learning and scalable photorealistic
simulation have led to increasingly mature embodied AI for various visual
tasks, including navigation. However, while impressive progress has been made
for teaching embodied agents to navigate static environments, much less
progress has been made on more dynamic environments that may include moving
pedestrians or movable obstacles. In this study, we aim to benchmark different
augmentation techniques for improving the agent's performance in these
challenging environments. We show that adding several dynamic obstacles into
the scene during training confers significant improvements in test-time
generalization, achieving much higher success rates than baseline agents. We
find that this approach can also be combined with image augmentation methods to
achieve even higher success rates. Additionally, we show that this approach is
also more robust to sim-to-sim transfer than image augmentation methods.
Finally, we demonstrate the effectiveness of this dynamic obstacle augmentation
approach by using it to train an agent for the 2021 iGibson Challenge at CVPR,
where it achieved 1st place for Interactive Navigation. Video link:
https://www.youtube.com/watch?v=HxUX2HeOSE4
- Abstract(参考訳): 深層強化学習とスケーラブルなフォトリアリスティックシミュレーションの最近の進歩により、ナビゲーションを含む様々な視覚タスクのための具体化aiがますます成熟している。
しかし、静的な環境をナビゲートするエンボディードエージェントの指導には目覚ましい進歩があったが、歩行者の移動や障害物の移動など、よりダイナミックな環境での進歩はずっと少ない。
本研究では,これらの挑戦環境におけるエージェントの性能向上のために,様々な拡張手法のベンチマークを行う。
トレーニング中にいくつかの動的障害を加えることで,テストタイムの一般化が大幅に向上し,ベースラインエージェントよりも高い成功率が得られることを示す。
このアプローチは、さらに高い成功率を達成するために、画像拡張手法と組み合わせることができる。
さらに,この手法は画像拡張法よりもsim-to-sim転送に頑健であることを示す。
最後に, cvprにおける2021 igibson challengeのエージェントを訓練することにより, この動的障害物強化手法の有効性を実証し, 対話型ナビゲーションにおいて1位となった。
ビデオリンク: https://www.youtube.com/watch?
v=HxUX2HeOSE4
関連論文リスト
- Seeing in Flowing: Adapting CLIP for Action Recognition with Motion
Prompts Learning [14.292812802621707]
対照的な言語-画像事前学習(CLIP)は、最近「ゼロショット」トレーニングにおいて顕著な一般化を示している。
より効率的で汎用的な行動認識手法を実現するために,CLIPの適応について検討する。
提案手法は,既存の最先端の手法よりも「ファウショット」と「ゼロショット」の訓練に大きく差をつける。
論文 参考訳(メタデータ) (2023-08-09T09:33:45Z) - Multi-Agent Deep Reinforcement Learning for Dynamic Avatar Migration in
AIoT-enabled Vehicular Metaverses with Trajectory Prediction [70.9337170201739]
本稿では,その歴史データに基づいて,知的車両の将来の軌跡を予測するモデルを提案する。
提案アルゴリズムは,予測なしでアバタータスクの実行遅延を約25%削減できることを示す。
論文 参考訳(メタデータ) (2023-06-26T13:27:11Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots [0.0]
現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T11:29:59Z) - Last-Mile Embodied Visual Navigation [31.622495628224403]
本稿では,画像ゴールナビゲーションシステムの性能向上を目的としたSlingを提案する。
我々は、ラストマイルナビゲーションに焦点をあて、ニューラルディスクリプタ問題の基礎となる幾何学的構造を活用する。
標準化された画像ゴールナビゲーションベンチマークでは、ポリシー、シーン、エピソードの複雑さにまたがるパフォーマンスを改善し、最先端の45%から55%の成功率に引き上げる。
論文 参考訳(メタデータ) (2022-11-21T18:59:58Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Solving Challenging Dexterous Manipulation Tasks With Trajectory
Optimisation and Reinforcement Learning [14.315501760755609]
人為的なロボットハンドの使い方を自律的に学ぶ訓練エージェントは、様々な複雑な操作タスクを実行できるシステムに繋がる可能性を秘めている。
まず、現在の強化学習と軌跡最適化技術が困難であるような、シミュレーション操作の難易度を課題として紹介する。
次に、これらの環境における既存の手法よりもはるかに優れた性能を示す、単純な軌道最適化を導入する。
論文 参考訳(メタデータ) (2020-09-09T13:49:52Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。