論文の概要: Last-Mile Embodied Visual Navigation
- arxiv url: http://arxiv.org/abs/2211.11746v1
- Date: Mon, 21 Nov 2022 18:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:35:30.518306
- Title: Last-Mile Embodied Visual Navigation
- Title(参考訳): ラストマイル・エボダイド視覚ナビゲーション
- Authors: Justin Wasserman, Karmesh Yadav, Girish Chowdhary, Abhinav Gupta,
Unnat Jain
- Abstract要約: 本稿では,画像ゴールナビゲーションシステムの性能向上を目的としたSlingを提案する。
我々は、ラストマイルナビゲーションに焦点をあて、ニューラルディスクリプタ問題の基礎となる幾何学的構造を活用する。
標準化された画像ゴールナビゲーションベンチマークでは、ポリシー、シーン、エピソードの複雑さにまたがるパフォーマンスを改善し、最先端の45%から55%の成功率に引き上げる。
- 参考スコア(独自算出の注目度): 31.622495628224403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic long-horizon tasks like image-goal navigation involve exploratory
and exploitative phases. Assigned with an image of the goal, an embodied agent
must explore to discover the goal, i.e., search efficiently using learned
priors. Once the goal is discovered, the agent must accurately calibrate the
last-mile of navigation to the goal. As with any robust system, switches
between exploratory goal discovery and exploitative last-mile navigation enable
better recovery from errors. Following these intuitive guide rails, we propose
SLING to improve the performance of existing image-goal navigation systems.
Entirely complementing prior methods, we focus on last-mile navigation and
leverage the underlying geometric structure of the problem with neural
descriptors. With simple but effective switches, we can easily connect SLING
with heuristic, reinforcement learning, and neural modular policies. On a
standardized image-goal navigation benchmark (Hahn et al. 2021), we improve
performance across policies, scenes, and episode complexity, raising the
state-of-the-art from 45% to 55% success rate. Beyond photorealistic
simulation, we conduct real-robot experiments in three physical scenes and find
these improvements to transfer well to real environments.
- Abstract(参考訳): 画像ナビゲーションのような現実的なロングホライゾンタスクには、探索的および搾取的フェーズが含まれる。
目標の画像が割り当てられると、具体化されたエージェントは、学習済みの事前情報を使って効率的に目標を発見するために探索しなければならない。
目標が見つかると、エージェントは目標までのラストマイルを正確に調整しなければならない。
堅牢なシステムと同様に、探索目標発見と悪用的なラストマイルナビゲーションの切り替えにより、エラーからの回復が向上する。
これらの直感的なガイドレールに従って,既存の画像ナビゲーションシステムの性能を向上させるためのslingを提案する。
従来の手法を完全に補完し,ラストマイルナビゲーションに焦点をあて,神経記述子を用いた問題の幾何学的構造を活用する。
シンプルだが効果的なスイッチで、Slingをヒューリスティック、強化学習、ニューラルモジュラポリシーと簡単に接続できます。
標準化された画像ゴールナビゲーションベンチマーク(Hahn et al. 2021)では、ポリシー、シーン、エピソードの複雑さにまたがるパフォーマンスを改善し、最先端の45%から55%に向上した。
光リアリスティックシミュレーション以外にも、3つの物理的シーンで実ロボット実験を行い、実際の環境にうまく移行するための改善を見出した。
関連論文リスト
- Transformers for Image-Goal Navigation [0.0]
本稿では,画像目標,カメラ観測,ロボットの過去の動作を共同でモデル化し,将来の行動を予測するための生成トランスフォーマーモデルを提案する。
本モデルでは,長期間の地平線上での視覚情報の収集と関連性を実証し,ナビゲーションの効率化に寄与する。
論文 参考訳(メタデータ) (2024-05-23T03:01:32Z) - FGPrompt: Fine-grained Goal Prompting for Image-goal Navigation [54.25416624924669]
画像ゴールナビゲーションのための細粒度ゴールプロンプト法(FGPrompt)を提案する。
FGPromptはゴール画像の詳細な情報を保存し、観測エンコーダにゴール関連領域に注意を払うよう誘導する。
提案手法は3つのベンチマークデータセットに対して大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-10-11T13:19:29Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。