論文の概要: LightLoc: Learning Outdoor LiDAR Localization at Light Speed
- arxiv url: http://arxiv.org/abs/2503.17814v1
- Date: Sat, 22 Mar 2025 16:33:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:36:45.392187
- Title: LightLoc: Learning Outdoor LiDAR Localization at Light Speed
- Title(参考訳): LightLoc: 屋外LiDARローカライゼーションを光速で学習する
- Authors: Wen Li, Chen Liu, Shangshu Yu, Dunqiang Liu, Yin Zhou, Siqi Shen, Chenglu Wen, Cheng Wang,
- Abstract要約: シーン座標回帰は、屋外LiDARの局所化において印象的な結果を得るが、何日もトレーニングを必要とする。
長いトレーニング時間によって、これらの方法は自律運転、ドローン、ロボット工学など、時間に敏感なアプリケーションには実用的ではない。
光速で新たなシーンのローカライズを効率的に学習できる最初の方法であるLightLocを提案する。
- 参考スコア(独自算出の注目度): 31.219354381187465
- License:
- Abstract: Scene coordinate regression achieves impressive results in outdoor LiDAR localization but requires days of training. Since training needs to be repeated for each new scene, long training times make these methods impractical for time-sensitive applications, such as autonomous driving, drones, and robotics. We identify large coverage areas and vast data in large-scale outdoor scenes as key challenges that limit fast training. In this paper, we propose LightLoc, the first method capable of efficiently learning localization in a new scene at light speed. LightLoc introduces two novel techniques to address these challenges. First, we introduce sample classification guidance to assist regression learning, reducing ambiguity from similar samples and improving training efficiency. Second, we propose redundant sample downsampling to remove well-learned frames during training, reducing training time without compromising accuracy. Additionally, the fast training and confidence estimation capabilities of sample classification enable its integration into SLAM, effectively eliminating error accumulation. Extensive experiments on large-scale outdoor datasets demonstrate that LightLoc achieves state-of-the-art performance with a 50x reduction in training time than existing methods. Our code is available at https://github.com/liw95/LightLoc.
- Abstract(参考訳): シーン座標回帰は、屋外LiDARの局所化において印象的な結果を得るが、何日もトレーニングを必要とする。
新しいシーンごとにトレーニングを繰り返す必要があるため、長いトレーニング時間によって、自律運転やドローン、ロボット工学といった時間に敏感なアプリケーションでは、これらの手法は実用的ではない。
我々は、大規模な屋外シーンにおける大規模なカバレッジエリアと膨大なデータを、迅速なトレーニングを制限する重要な課題として特定する。
本稿では,光速で新たなシーンのローカライズを効率よく学習できるLightLocを提案する。
LightLocは、これらの課題に対処する2つの新しいテクニックを紹介している。
まず、回帰学習を支援し、類似したサンプルからのあいまいさを低減し、訓練効率を向上させるために、サンプル分類ガイダンスを導入する。
第2に、トレーニング中によく学習されたフレームを除去し、精度を損なうことなくトレーニング時間を短縮する、冗長なサンプルサンプリングを提案する。
さらに、サンプル分類の高速なトレーニングと信頼度推定機能により、SLAMへの統合が可能となり、エラーの蓄積を効果的に排除できる。
大規模な屋外データセットに対する大規模な実験は、LightLocが既存の方法よりもトレーニング時間を50倍削減して最先端のパフォーマンスを達成することを示した。
私たちのコードはhttps://github.com/liw95/LightLoc.comで公開されています。
関連論文リスト
- SPAM: Spike-Aware Adam with Momentum Reset for Stable LLM Training [60.9776082805359]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示しているが、そのトレーニングは、非常にリソース集約的で、トレーニングの不安定性に影響を受けやすいままである。
本稿では,LLMトレーニング中に観測された勾配スパイクを包括的に調査し,複数のアーキテクチャやデータセットにまたがる傾向を明らかにする。
本稿では,モーメントムリセットを用いたスパイク・アウェア・アダムを提案し,モーメントムリセットとスパイク・アウェア・クリッピングによる勾配スパイク対策について述べる。
論文 参考訳(メタデータ) (2025-01-12T15:21:22Z) - Alpaca against Vicuna: Using LLMs to Uncover Memorization of LLMs [61.04246774006429]
本稿では,攻撃者によるLSMエージェントを用いたブラックボックスプロンプト最適化手法を提案する。
ベースラインプレフィックス・サフィックス測定と比較すると,命令ベースのプロンプトは,トレーニングデータと23.7%のオーバラップで出力を生成する。
以上の結果から,命令調整モデルでは,ベースモデルと同等に事前学習データを公開することが可能であり,他のLSMが提案する命令を用いることで,新たな自動攻撃の道を開くことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T19:32:01Z) - Run LoRA Run: Faster and Lighter LoRA Implementations [50.347242693025336]
LoRAは、線形層に低ランクアダプタを導入することにより、ニューラルネットワーク内のトレーニング可能なパラメータの数を減らすテクニックである。
本稿では,LoRAの効率的な実装のためのRunLoRAフレームワークを提案する。
実験は、言語モデリングネットワーク上で最大28%のスピードアップを示す。
論文 参考訳(メタデータ) (2023-12-06T10:54:34Z) - Dynamic Sparse No Training: Training-Free Fine-tuning for Sparse LLMs [67.38165028487242]
そこで我々は,DSnoT(Dynamic Sparse No Training, 動的スパース・ノー・トレーニング)を導入した。
動的スパーストレーニングにインスパイアされたDSnoTは、密度とスパースLLM間の再構成誤差を最小限に抑える。
本稿は, LLMのスパースを, 効率的なトレーニング自由な方法で微調整し, 新たな会場をオープンして, LLMの空間性に大きな可能性を拡大する方法について, 新たな知見を提供する。
論文 参考訳(メタデータ) (2023-10-13T07:38:52Z) - Train a Real-world Local Path Planner in One Hour via Partially Decoupled Reinforcement Learning and Vectorized Diversity [8.068886870457561]
深層強化学習(DRL)は局所経路計画(LPP)問題の解決に有効である。
実世界におけるそのような応用は、DRLの訓練効率と一般化能力の不足により、非常に制限されている。
アクター・シャーラーラーナー(ASL)トレーニングフレームワークと移動ロボット指向シミュレータSparrowで構成されたColorというソリューションが提案されている。
論文 参考訳(メタデータ) (2023-05-07T03:39:31Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Flipped Classroom: Effective Teaching for Time Series Forecasting [0.0]
LSTMとGRUに基づくシーケンス・ツー・シーケンス・モデルは時系列データの予測において最も一般的な選択肢である。
この文脈における2つの一般的なトレーニング戦略は、教師強制(TF)とフリーランニング(FR)である。
いくつかの新しいカリキュラムを提案し、その性能を2つの実験セットで体系的に評価する。
論文 参考訳(メタデータ) (2022-10-17T11:53:25Z) - Active Exploration for Neural Global Illumination of Variable Scenes [6.591705508311505]
マルコフ連鎖モンテカルロを用いた新しいアクティブ探索法を提案する。
我々は、新しいシーンインスタンスのレンダリングを学習するニューラルジェネレータにアプローチを適用する。
本手法は, 硬質光輸送路のインタラクティブなレンダリングを可能にする。
論文 参考訳(メタデータ) (2022-03-15T21:45:51Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - AutoDrop: Training Deep Learning Models with Automatic Learning Rate
Drop [16.396327849817464]
学習速度を$textitautomatically$に下げるアルゴリズムを開発した。
提案手法はSOTAトレーニングアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-30T11:55:21Z) - FROST: Faster and more Robust One-shot Semi-supervised Training [0.0]
本稿では,一対一の半教師付き学習手法を提案する。
実験では、ラベルなしデータの構成が不明な場合、FROSTが良好に動作できることを実証した。
論文 参考訳(メタデータ) (2020-11-18T18:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。