論文の概要: Improving Collision-Free Success Rate For Object Goal Visual Navigation Via Two-Stage Training With Collision Prediction
- arxiv url: http://arxiv.org/abs/2502.13498v1
- Date: Wed, 19 Feb 2025 07:33:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:59:09.567097
- Title: Improving Collision-Free Success Rate For Object Goal Visual Navigation Via Two-Stage Training With Collision Prediction
- Title(参考訳): 衝突予測を用いた2段階訓練による目標視ナビゲーションにおける衝突フリー成功率の改善
- Authors: Shiwei Lian, Feitian Zhang,
- Abstract要約: 衝突のない成功は、航法モデルが対象物に向かって衝突のない経路を見つける能力を評価するために導入された。
既存の航法モデルの衝突のない成功率を改善するために,衝突予測を伴う2段階の訓練手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The object goal visual navigation is the task of navigating to a specific target object using egocentric visual observations. Recent end-to-end navigation models based on deep reinforcement learning have achieved remarkable performance in finding and reaching target objects. However, the collision problem of these models during navigation remains unresolved, since the collision is typically neglected when evaluating the success. Although incorporating a negative reward for collision during training appears straightforward, it results in a more conservative policy, thereby limiting the agent's ability to reach targets. In addition, many of these models utilize only RGB observations, further increasing the difficulty of collision avoidance without depth information. To address these limitations, a new concept -- collision-free success is introduced to evaluate the ability of navigation models to find a collision-free path towards the target object. A two-stage training method with collision prediction is proposed to improve the collision-free success rate of the existing navigation models using RGB observations. In the first training stage, the collision prediction module supervises the agent's collision states during exploration to learn to predict the possible collision. In the second stage, leveraging the trained collision prediction, the agent learns to navigate to the target without collision. The experimental results in the AI2-THOR environment demonstrate that the proposed method greatly improves the collision-free success rate of different navigation models and outperforms other comparable collision-avoidance methods.
- Abstract(参考訳): 対象目標視覚ナビゲーションは、自我中心の視覚観察を使用して特定の対象物にナビゲートするタスクである。
深層強化学習に基づく最近のエンド・ツー・エンドナビゲーションモデルは,対象物体の発見・到達において顕著な性能を発揮している。
しかし、航法におけるこれらのモデルの衝突問題は、通常は成功を評価する際に無視されるため、未解決のままである。
訓練中の衝突に対する負の報酬を組み込むことは簡単に見えるが、より保守的な政策となり、エージェントの目標に到達する能力が制限される。
さらに、これらのモデルの多くはRGB観測のみを利用しており、深度情報のない衝突回避の難しさをさらに高めている。
これらの制限に対処するために、新しい概念 -- 衝突のない成功 - を導入し、ナビゲーションモデルがターゲットオブジェクトへの衝突のない経路を見つける能力を評価する。
RGB観測による既存の航法モデルの衝突のない成功率を改善するために,衝突予測を伴う2段階の訓練手法を提案する。
第1の訓練段階では、衝突予測モジュールは、探索中のエージェントの衝突状態を監督し、衝突の可能性を予測する。
第2段階では、訓練された衝突予測を利用して、エージェントは衝突することなく目標に向かって移動することを学ぶ。
AI2-THOR環境における実験結果から,提案手法は異なる航法モデルの衝突のない成功率を大幅に向上し,他の衝突回避法よりも優れた性能を発揮することが示された。
関連論文リスト
- Edge-Assisted ML-Aided Uncertainty-Aware Vehicle Collision Avoidance at Urban Intersections [12.812518632907771]
都市横断路におけるプリエンプティブ衝突を検出する新しい枠組みを提案する。
5Gネットワークのマルチアクセスエッジコンピューティングプラットフォームを利用する。
論文 参考訳(メタデータ) (2024-04-22T18:45:40Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Implicit Obstacle Map-driven Indoor Navigation Model for Robust Obstacle
Avoidance [16.57243997206754]
頑健な障害物回避のための暗黙的障害物マップ駆動屋内ナビゲーションフレームワークを提案する。
非ローカルなメモリアグリゲーションモジュールは、非ローカルネットワークを活用して、ターゲットセマンティクスとターゲットの向きの手がかりとの本質的な関係をモデル化するように設計されている。
論文 参考訳(メタデータ) (2023-08-24T15:10:28Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Prediction-Based Reachability Analysis for Collision Risk Assessment on
Highways [18.18842948832662]
本稿では,高速道路における衝突危険度予測手法を提案する。
我々は,車両状態を伝搬する多モード確率加速度分布を提供する加速度予測モデルを開発した。
提案した衝突検出アプローチはアジャイルであり、カットインクラッシュイベントにおける衝突の特定に有効である。
論文 参考訳(メタデータ) (2022-05-03T07:58:02Z) - Suspected Object Matters: Rethinking Model's Prediction for One-stage
Visual Grounding [93.82542533426766]
疑似オブジェクト間の対象オブジェクト選択を促進するため,疑似オブジェクト変換機構(SOT)を提案する。
SOTは既存のCNNとTransformerベースのワンステージ視覚グラウンドにシームレスに統合できる。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-10T06:41:07Z) - Congestion-aware Multi-agent Trajectory Prediction for Collision
Avoidance [110.63037190641414]
渋滞パターンを明示的に学習し、新しい「センス--学習--Reason--予測」フレームワークを考案する。
学習段階を2段階に分解することで、「学生」は「教師」から文脈的手がかりを学習し、衝突のない軌跡を生成する。
実験では,提案モデルが合成データセットにおいて衝突のない軌道予測を生成できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:42:33Z) - COLLIDE-PRED: Prediction of On-Road Collision From Surveillance Videos [0.0]
ビデオ中の衝突を予測するために, COLLIDE-PRED と呼ばれるエンドツーエンドの衝突予測システムを提案する。
提案手法は,多数の異なるビデオを用いて実験的に検証され,事故の特定に有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-21T06:45:56Z) - Object Rearrangement Using Learned Implicit Collision Functions [61.90305371998561]
本研究では,シーン内の6DOFオブジェクトのポーズに対して,シーンとクエリ対象点の雲を受け付け,衝突を予測できる学習的衝突モデルを提案する。
我々は,テーブルトップ再構成タスクにおけるモデル予測経路積分(MPPI)ポリシーの一部として,学習された衝突モデルを活用する。
学習モデルは従来のパイプラインよりも優れており、シミュレーションされた衝突クエリのデータセット上では9.8%の精度で学習精度が向上している。
論文 参考訳(メタデータ) (2020-11-21T05:36:06Z) - COLREG-Compliant Collision Avoidance for Unmanned Surface Vehicle using
Deep Reinforcement Learning [0.0]
追従と衝突回避は、無人表面船や他の自動運転車にとって、ロボット工学における2つの基本的なガイダンス問題である。
本稿では,連続制御タスクにおける最先端性能を示すDRLアルゴリズムであるPPOの可能性について検討する。
ノルウェー海の入り江であるトロンドハイム・フィヨルド(Trondheim Fjord)の高忠実な標高とAIS追跡データに基づいて、我々は訓練されたエージェントのパフォーマンスを挑戦的でダイナミックな実世界のシナリオで評価した。
論文 参考訳(メタデータ) (2020-06-16T22:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。