論文の概要: AutoLoop: Fast Visual SLAM Fine-tuning through Agentic Curriculum Learning
- arxiv url: http://arxiv.org/abs/2501.09160v1
- Date: Wed, 15 Jan 2025 21:22:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:11:03.421422
- Title: AutoLoop: Fast Visual SLAM Fine-tuning through Agentic Curriculum Learning
- Title(参考訳): AutoLoop:エージェントカリキュラム学習による高速ビジュアルSLAM微調整
- Authors: Assaf Lahiany, Oren Gal,
- Abstract要約: 本稿では、自動カリキュラム学習と視覚SLAMシステムのための効率的な微調整を組み合わせた新しいアプローチであるAutoLoopを提案する。
本手法では, DDPG (Deep Deterministic Policy Gradient) エージェントを用いて, トレーニング中のループ閉鎖重量を動的に調整する。
TartanAirでトレーニングを行い、KITTI、EuRoC、ICL-NUIM、TUM RGB-Dを含む複数のベンチマークで検証した結果、AutoLoopは同等または優れたパフォーマンスを達成できた。
- 参考スコア(独自算出の注目度): 1.282543877006303
- License:
- Abstract: Current visual SLAM systems face significant challenges in balancing computational efficiency with robust loop closure handling. Traditional approaches require careful manual tuning and incur substantial computational overhead, while learning-based methods either lack explicit loop closure capabilities or implement them through computationally expensive methods. We present AutoLoop, a novel approach that combines automated curriculum learning with efficient fine-tuning for visual SLAM systems. Our method employs a DDPG (Deep Deterministic Policy Gradient) agent to dynamically adjust loop closure weights during training, eliminating the need for manual hyperparameter search while significantly reducing the required training steps. The approach pre-computes potential loop closure pairs offline and leverages them through an agent-guided curriculum, allowing the model to adapt efficiently to new scenarios. Experiments conducted on TartanAir for training and validated across multiple benchmarks including KITTI, EuRoC, ICL-NUIM and TUM RGB-D demonstrate that AutoLoop achieves comparable or superior performance while reducing training time by an order of magnitude compared to traditional approaches. AutoLoop provides a practical solution for rapid adaptation of visual SLAM systems, automating the weight tuning process that traditionally requires multiple manual iterations. Our results show that this automated curriculum strategy not only accelerates training but also maintains or improves the model's performance across diverse environmental conditions.
- Abstract(参考訳): 現在のビジュアルSLAMシステムは、堅牢なループ閉鎖処理と計算効率のバランスをとる上で大きな課題に直面している。
従来の手法では、注意深い手動チューニングとかなりの計算オーバーヘッドを必要とするが、学習ベースの手法には明示的なループ閉鎖機能がないか、計算に高価な方法によって実装されている。
本稿では、自動カリキュラム学習と視覚SLAMシステムのための効率的な微調整を組み合わせた新しいアプローチであるAutoLoopを提案する。
本手法ではDDPG (Deep Deterministic Policy Gradient) エージェントを用いて,トレーニング中のループ閉鎖量の動的調整を行う。
このアプローチは、潜在的なループクロージャペアをオフラインでプリコンプリートし、エージェント誘導カリキュラムを通じてそれらを活用することで、モデルが新しいシナリオに効率的に適応できるようにする。
トレーニングのためにTartanAirで実施された実験は、KITTI、EuRoC、ICL-NUIM、TUM RGB-Dを含む複数のベンチマークで検証された。
AutoLoopは視覚的SLAMシステムの迅速な適応のための実用的なソリューションを提供し、伝統的に複数の手動イテレーションを必要とする重み付けプロセスを自動化する。
この自動カリキュラム戦略は,学習を加速するだけでなく,多様な環境条件でモデルの性能を維持・改善する。
関連論文リスト
- MOSEAC: Streamlined Variable Time Step Reinforcement Learning [14.838483990647697]
マルチ目的ソフト・エクササイズ・アクタ・クライブ法(MOSEAC)を提案する。
MOSEACは、トレーニング中のタスク報酬の観測傾向に基づく適応型報酬スキームを特徴とする。
ニュートンのキネマティクス環境におけるシミュレーションによりMOSEAC法の有効性を検証した。
論文 参考訳(メタデータ) (2024-06-03T16:51:57Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Online AutoML: An adaptive AutoML framework for online learning [6.6389732792316005]
本研究では,データドリフトに継続的に適応しながら,オンライン学習のためのパイプライン設計を自動化することを目的とする。
このシステムは,オンライン学習者固有の適応能力とAutoMLの高速自動パイプライン(再最適化機能)を組み合わせる。
論文 参考訳(メタデータ) (2022-01-24T15:37:20Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - Meta Learning MPC using Finite-Dimensional Gaussian Process
Approximations [0.9539495585692008]
制御における学習手法の実践的適用性を阻害する2つの重要な要因は、その計算複雑性と、目に見えない条件に対する限定的な一般化能力である。
本稿では,従来のタスクからのデータを活用するシステムモデルを学習することにより,適応型モデル予測制御のためのメタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-08-13T15:59:38Z) - Automatic Tuning of Stochastic Gradient Descent with Bayesian
Optimisation [8.340191147575307]
我々は,潜在ガウス過程と自己回帰的定式化に基づく,オプティマイザのトレースに対する元の確率モデルを導入する。
新しい学習率値によって引き起こされる行動の急激な変化に柔軟に調整する。
まず、コールドスタート実行のための学習率のオンライン適応のために、次に、同様のタスクセットのスケジュールを調整し、新しいタスクのためにウォームスタートするために、一連の問題に取り組むのが適しています。
論文 参考訳(メタデータ) (2020-06-25T13:18:18Z) - Gradient Monitored Reinforcement Learning [0.0]
我々は、強化学習アルゴリズムにおける訓練の強化と評価性能に焦点をあてる。
本稿では,トレーニングプロセス自体からの動的発達とフィードバックに基づいて,ニューラルネットワークの重みパラメータの学習をステアリングする手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T13:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。