論文の概要: Reinforcement Learning Meets Visual Odometry
- arxiv url: http://arxiv.org/abs/2407.15626v1
- Date: Mon, 22 Jul 2024 13:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 14:51:29.725277
- Title: Reinforcement Learning Meets Visual Odometry
- Title(参考訳): 強化学習とビジュアルオドメトリー
- Authors: Nico Messikommer, Giovanni Cioffi, Mathias Gehrig, Davide Scaramuzza,
- Abstract要約: 我々は、ビジュアルオドメトリ(VO)を意思決定タスクとみなし、強化学習(RL)をVOプロセスの動的適応に適用する。
このアプローチでは,VOパイプライン内のエージェントとして動作するニューラルネットワークを導入して,シーケンシャルおよびグリッドサイズ選択などの決定を行う。
提案手法は,ポーズエラーや実行時,その他のメトリクスに基づいた報酬関数を用いて,選択への依存を最小限に抑える。
- 参考スコア(独自算出の注目度): 22.34784125002176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Odometry (VO) is essential to downstream mobile robotics and augmented/virtual reality tasks. Despite recent advances, existing VO methods still rely on heuristic design choices that require several weeks of hyperparameter tuning by human experts, hindering generalizability and robustness. We address these challenges by reframing VO as a sequential decision-making task and applying Reinforcement Learning (RL) to adapt the VO process dynamically. Our approach introduces a neural network, operating as an agent within the VO pipeline, to make decisions such as keyframe and grid-size selection based on real-time conditions. Our method minimizes reliance on heuristic choices using a reward function based on pose error, runtime, and other metrics to guide the system. Our RL framework treats the VO system and the image sequence as an environment, with the agent receiving observations from keypoints, map statistics, and prior poses. Experimental results using classical VO methods and public benchmarks demonstrate improvements in accuracy and robustness, validating the generalizability of our RL-enhanced VO approach to different scenarios. We believe this paradigm shift advances VO technology by eliminating the need for time-intensive parameter tuning of heuristics.
- Abstract(参考訳): ビジュアルオドメトリー(VO)は、下流の移動ロボットや拡張現実/バーチャルリアリティータスクに不可欠である。
近年の進歩にもかかわらず、既存のVO手法は、人間の専門家による数週間のハイパーパラメータチューニングを必要とするヒューリスティックな設計選択に依存しており、汎用性と堅牢性を妨げている。
VOを逐次意思決定タスクとみなし、VOプロセスの動的適応に強化学習(RL)を適用することで、これらの課題に対処する。
このアプローチでは,VOパイプライン内のエージェントとして動作するニューラルネットワークを導入して,リアルタイム条件に基づいてキーフレームやグリッドサイズ選択などの決定を行う。
提案手法は,ポーズエラー,実行時,その他の指標に基づく報酬関数を用いたヒューリスティックな選択への依存を最小限に抑える。
我々のRLフレームワークはVOシステムと画像シーケンスを環境として扱い、エージェントはキーポイント、マップ統計、事前のポーズから観察を受けます。
従来のVO法と公開ベンチマークを用いた実験結果から精度とロバスト性の向上が示され,RL強化VO法の様々なシナリオに対する一般化性が検証された。
このパラダイムシフトは、ヒューリスティックスの時間集中型パラメータチューニングの必要性を排除し、VOテクノロジーを進化させると信じている。
関連論文リスト
- Intrinsic Dynamics-Driven Generalizable Scene Representations for Vision-Oriented Decision-Making Applications [0.21051221444478305]
シーン表現の能力をいかに向上させるかは、ビジョン指向の意思決定アプリケーションにおいて重要な問題である。
視覚強化学習におけるシーケンスモデルを用いた固有ダイナミクス駆動表現学習法を提案する。
論文 参考訳(メタデータ) (2024-05-30T06:31:03Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - MOTO: Offline Pre-training to Online Fine-tuning for Model-based Robot
Learning [52.101643259906915]
本研究では,高次元観測による強化学習におけるオフライン事前学習とオンラインファインチューニングの問題について検討する。
既存のモデルベースオフラインRL法は高次元領域におけるオフラインからオンラインへの微調整には適していない。
本稿では,事前データをモデルベース値拡張とポリシー正則化によって効率的に再利用できるオンラインモデルベース手法を提案する。
論文 参考訳(メタデータ) (2024-01-06T21:04:31Z) - Brain-Inspired Visual Odometry: Balancing Speed and Interpretability
through a System of Systems Approach [0.0]
本研究は,視覚オドメトリー(VO)システムにおける速度と精度のバランスをとることの課題に対処する。
従来のVOシステムは、計算速度とポーズ推定の精度のトレードオフに直面していることが多い。
我々のシステムは、完全連結ネットワーク(FCN)内で、各自由度を独立に扱うアプローチにおいてユニークなものである。
論文 参考訳(メタデータ) (2023-12-20T16:23:48Z) - Online Learning of Wheel Odometry Correction for Mobile Robots with
Attention-based Neural Network [63.8376359764052]
現代のロボットプラットフォームは、人間の横で毎日運用するために、信頼性の高いローカライゼーションシステムを必要としている。
フィルタされた車輪と慣性オドメトリーに基づく単純なポーズ推定アルゴリズムは、急激なキネマティックな変化とホイールスリップの存在下で失敗することが多い。
本稿では,車輪形状補正のための革新的なオンライン学習手法を提案し,ロバストなマルチソースローカライゼーションシステムを提案する。
論文 参考訳(メタデータ) (2023-03-21T10:30:31Z) - Environment Transformer and Policy Optimization for Model-Based Offline
Reinforcement Learning [25.684201757101267]
本研究では環境変換器と呼ばれる不確実性を考慮したシーケンスモデリングアーキテクチャを提案する。
遷移力学と報酬関数の正確なモデリングにより、環境変換器は任意の計画、動的プログラミング、オフラインRLのためのポリシー最適化アルゴリズムと組み合わせることができる。
論文 参考訳(メタデータ) (2023-03-07T11:26:09Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Feeling of Presence Maximization: mmWave-Enabled Virtual Reality Meets
Deep Reinforcement Learning [76.46530937296066]
本稿では,無線モバイルユーザに対して,超信頼性でエネルギー効率のよいバーチャルリアリティ(VR)体験を提供するという課題について検討する。
モバイルユーザへの信頼性の高い超高精細ビデオフレーム配信を実現するために,コーディネートマルチポイント(CoMP)伝送技術とミリ波(mmWave)通信を利用する。
論文 参考訳(メタデータ) (2021-06-03T08:35:10Z) - Proactive and AoI-aware Failure Recovery for Stateful NFV-enabled
Zero-Touch 6G Networks: Model-Free DRL Approach [0.0]
ゼロタッチPFR(ZT-PFR)と呼ばれるモデルフリー深部強化学習(DRL)に基づくアクティブ障害回復フレームワークを提案する。
ZT-PFRは、ネットワーク機能仮想化(NFV)対応ネットワークにおける組み込みステートフル仮想ネットワーク機能(VNF)用です。
論文 参考訳(メタデータ) (2021-02-02T21:40:35Z) - Self-Supervised Deep Visual Odometry with Online Adaptation [35.90781281010656]
本稿では,VOネットワークが自己指導型で新しい環境に継続的に適応できるオンラインメタ学習アルゴリズムを提案する。
提案手法は,最先端の自己教師型VOベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-13T03:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。