論文の概要: AirLoop: Lifelong Loop Closure Detection
- arxiv url: http://arxiv.org/abs/2109.08975v1
- Date: Sat, 18 Sep 2021 17:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:12:24.369869
- Title: AirLoop: Lifelong Loop Closure Detection
- Title(参考訳): AirLoop:生涯のループクロージャ検出
- Authors: Dasong Gao, Chen Wang, Sebastian Scherer
- Abstract要約: AirLoopは、生涯学習のテクニックを活用して、ループクロージャ検出モデルを漸進的にトレーニングする際の忘れを最小化する手法である。
本研究では,AirLoopがTartanAir,Norland,RobotCarの各データセットに与える影響を実験的に検証した。
- 参考スコア(独自算出の注目度): 5.3759730885842725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Loop closure detection is an important building block that ensures the
accuracy and robustness of simultaneous localization and mapping (SLAM)
systems. Due to their generalization ability, CNN-based approaches have
received increasing attention. Although they normally benefit from training on
datasets that are diverse and reflective of the environments, new environments
often emerge after the model is deployed. It is therefore desirable to
incorporate the data newly collected during operation for incremental learning.
Nevertheless, simply finetuning the model on new data is infeasible since it
may cause the model's performance on previously learned data to degrade over
time, which is also known as the problem of catastrophic forgetting. In this
paper, we present AirLoop, a method that leverages techniques from lifelong
learning to minimize forgetting when training loop closure detection models
incrementally. We experimentally demonstrate the effectiveness of AirLoop on
TartanAir, Nordland, and RobotCar datasets. To the best of our knowledge,
AirLoop is one of the first works to achieve lifelong learning of deep loop
closure detectors.
- Abstract(参考訳): ループクロージャ検出は、同時ローカライゼーションとマッピング(SLAM)システムの精度と堅牢性を保証する重要なビルディングブロックである。
一般化能力により、cnnベースのアプローチが注目を集めている。
通常、さまざまな環境を反映したデータセットのトレーニングの恩恵を受けるが、モデルがデプロイされた後に新しい環境が出現することが多い。
したがって、インクリメンタル学習のために、操作中に新たに収集したデータを組み込むことが望ましい。
それにもかかわらず、新しいデータに対するモデルの微調整は、以前に学習したデータに対するモデルの性能が時間の経過とともに劣化する可能性があるため、実現不可能である。
本稿では,生涯学習の手法を活用し,ループ閉包検出モデルのトレーニング時に忘れを最小化する手法であるairloopを提案する。
本研究では,AirLoopがTartanAir,Northland,RobotCarの各データセットに与える影響を実験的に示す。
われわれの知る限りでは、airloopはディープループクロージャ検出器の生涯学習を達成する最初の仕事の1つだ。
関連論文リスト
- Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - AIR: Analytic Imbalance Rectifier for Continual Learning [16.917778190250353]
継続的な学習により、AIモデルは現実世界のシナリオを再トレーニングすることなく、シーケンシャルに新しいデータを学習することができる。
既存のほとんどの手法では、トレーニングデータはバランスが取れていると仮定しており、モデルが以前に生成されたデータを忘れる傾向にある問題を減らそうとしている。
この問題を解決するために解析的不均衡アルゴリズム(AIR)を提案する。
論文 参考訳(メタデータ) (2024-08-19T18:42:00Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection [49.52429991848581]
深部変分自動エンコーダに基づく時系列異常検出手法(VAE)のための光・反オーバーフィット学習手法(LARA)を提案する。
本研究の目的は,1) 再学習過程を凸問題として定式化し, 過度に収束できること,2) 履歴データを保存せずに活用するルミネートブロックを設計すること,3) 潜在ベクトルと再構成データの微調整を行うと, 線形形成が基底真実と微調整されたブロックとの誤りを最小に調整できることを数学的に証明することである。
論文 参考訳(メタデータ) (2023-10-09T12:36:16Z) - KL-divergence Based Deep Learning for Discrete Time Model [12.165326681174408]
新たに収集した時系列データと外部生存予測モデルを統合するために,Kullback-Leibler-based (KL)ディープラーニング手法を開発した。
時間依存KL識別情報を用いて、外部データと内部データとの差を測定する。
論文 参考訳(メタデータ) (2022-08-10T01:46:26Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - An Incremental Clustering Method for Anomaly Detection in Flight Data [0.0]
ガウス混合モデル(GMM)に基づく新しい漸進的異常検出手法を提案する。
これは飛行操作の確率的クラスタリングモデルであり、新しいデータに基づいてクラスタを漸進的に更新することができる。
予備的な結果は、インクリメンタル学習方式が、飛行データ分析における動的に増大するデータを扱うのに有効であることを示している。
論文 参考訳(メタデータ) (2020-05-20T06:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。