論文の概要: Benchmarking Augmentation Methods for Learning Robust Navigation Agents:
the Winning Entry of the 2021 iGibson Challenge
- arxiv url: http://arxiv.org/abs/2109.10493v3
- Date: Thu, 12 Oct 2023 19:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 02:11:28.629544
- Title: Benchmarking Augmentation Methods for Learning Robust Navigation Agents:
the Winning Entry of the 2021 iGibson Challenge
- Title(参考訳): ロバストナビゲーションエージェント学習のためのベンチマーク強化手法--2021年iGibsonチャレンジの勝者として
- Authors: Naoki Yokoyama, Qian Luo, Dhruv Batra, Sehoon Ha
- Abstract要約: トレーニング中にいくつかの動的障害を加えることで,テスト時間一般化の大幅な改善が期待できることを示す。
このアプローチは、さらに高い成功率を達成するために、画像拡張手法と組み合わせることができる。
CVPRにおける2021 iGibson Challengeのエージェントをトレーニングするために,この動的障害物増強手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 39.71494532292193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep reinforcement learning and scalable photorealistic
simulation have led to increasingly mature embodied AI for various visual
tasks, including navigation. However, while impressive progress has been made
for teaching embodied agents to navigate static environments, much less
progress has been made on more dynamic environments that may include moving
pedestrians or movable obstacles. In this study, we aim to benchmark different
augmentation techniques for improving the agent's performance in these
challenging environments. We show that adding several dynamic obstacles into
the scene during training confers significant improvements in test-time
generalization, achieving much higher success rates than baseline agents. We
find that this approach can also be combined with image augmentation methods to
achieve even higher success rates. Additionally, we show that this approach is
also more robust to sim-to-sim transfer than image augmentation methods.
Finally, we demonstrate the effectiveness of this dynamic obstacle augmentation
approach by using it to train an agent for the 2021 iGibson Challenge at CVPR,
where it achieved 1st place for Interactive Navigation. Video link:
https://www.youtube.com/watch?v=HxUX2HeOSE4
- Abstract(参考訳): 深層強化学習とスケーラブルなフォトリアリスティックシミュレーションの最近の進歩により、ナビゲーションを含む様々な視覚タスクのための具体化aiがますます成熟している。
しかし、静的な環境をナビゲートするエンボディードエージェントの指導には目覚ましい進歩があったが、歩行者の移動や障害物の移動など、よりダイナミックな環境での進歩はずっと少ない。
本研究では,これらの挑戦環境におけるエージェントの性能向上のために,様々な拡張手法のベンチマークを行う。
トレーニング中にいくつかの動的障害を加えることで,テストタイムの一般化が大幅に向上し,ベースラインエージェントよりも高い成功率が得られることを示す。
このアプローチは、さらに高い成功率を達成するために、画像拡張手法と組み合わせることができる。
さらに,この手法は画像拡張法よりもsim-to-sim転送に頑健であることを示す。
最後に, cvprにおける2021 igibson challengeのエージェントを訓練することにより, この動的障害物強化手法の有効性を実証し, 対話型ナビゲーションにおいて1位となった。
ビデオリンク: https://www.youtube.com/watch?
v=HxUX2HeOSE4
関連論文リスト
- Spatially Visual Perception for End-to-End Robotic Learning [33.490603706207075]
環境変動に対処するために3次元空間表現を利用する映像ベース空間認識フレームワークを提案する。
提案手法は,新しい画像拡張手法であるAugBlenderと,インターネット規模のデータに基づいてトレーニングされた最先端のモノクロ深度推定モデルを統合する。
論文 参考訳(メタデータ) (2024-11-26T14:23:42Z) - Open-World Reinforcement Learning over Long Short-Term Imagination [91.28998327423295]
LS-Imagineは、有限個の状態遷移ステップにおいて、イマジネーションの地平線を拡大する。
我々の手法は、MineDojoの最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-10-04T17:17:30Z) - FLaRe: Achieving Masterful and Adaptive Robot Policies with Large-Scale Reinforcement Learning Fine-Tuning [74.25049012472502]
FLaReは、堅牢な事前訓練された表現、大規模なトレーニング、勾配安定化技術を統合する大規模な強化学習フレームワークである。
提案手法は,タスク完了に向けた事前訓練されたポリシーを整列し,これまで実証され,全く新しいタスクや実施状況において,最先端(SoTA)のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-25T03:15:17Z) - Seeing in Flowing: Adapting CLIP for Action Recognition with Motion
Prompts Learning [14.292812802621707]
対照的な言語-画像事前学習(CLIP)は、最近「ゼロショット」トレーニングにおいて顕著な一般化を示している。
より効率的で汎用的な行動認識手法を実現するために,CLIPの適応について検討する。
提案手法は,既存の最先端の手法よりも「ファウショット」と「ゼロショット」の訓練に大きく差をつける。
論文 参考訳(メタデータ) (2023-08-09T09:33:45Z) - Multi-Agent Deep Reinforcement Learning for Dynamic Avatar Migration in
AIoT-enabled Vehicular Metaverses with Trajectory Prediction [70.9337170201739]
本稿では,その歴史データに基づいて,知的車両の将来の軌跡を予測するモデルを提案する。
提案アルゴリズムは,予測なしでアバタータスクの実行遅延を約25%削減できることを示す。
論文 参考訳(メタデータ) (2023-06-26T13:27:11Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Last-Mile Embodied Visual Navigation [31.622495628224403]
本稿では,画像ゴールナビゲーションシステムの性能向上を目的としたSlingを提案する。
我々は、ラストマイルナビゲーションに焦点をあて、ニューラルディスクリプタ問題の基礎となる幾何学的構造を活用する。
標準化された画像ゴールナビゲーションベンチマークでは、ポリシー、シーン、エピソードの複雑さにまたがるパフォーマンスを改善し、最先端の45%から55%の成功率に引き上げる。
論文 参考訳(メタデータ) (2022-11-21T18:59:58Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Solving Challenging Dexterous Manipulation Tasks With Trajectory
Optimisation and Reinforcement Learning [14.315501760755609]
人為的なロボットハンドの使い方を自律的に学ぶ訓練エージェントは、様々な複雑な操作タスクを実行できるシステムに繋がる可能性を秘めている。
まず、現在の強化学習と軌跡最適化技術が困難であるような、シミュレーション操作の難易度を課題として紹介する。
次に、これらの環境における既存の手法よりもはるかに優れた性能を示す、単純な軌道最適化を導入する。
論文 参考訳(メタデータ) (2020-09-09T13:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。