論文の概要: COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking
- arxiv url: http://arxiv.org/abs/2310.03006v2
- Date: Thu, 5 Oct 2023 05:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 10:54:33.938761
- Title: COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking
- Title(参考訳): COOLer: 外観に基づく複数物体追跡のためのクラスインクリメンタル学習
- Authors: Zhizheng Liu, Mattia Segu, Fisher Yu
- Abstract要約: 本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
- 参考スコア(独自算出の注目度): 32.47215340215641
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning allows a model to learn multiple tasks sequentially while
retaining the old knowledge without the training data of the preceding tasks.
This paper extends the scope of continual learning research to
class-incremental learning for multiple object tracking (MOT), which is
desirable to accommodate the continuously evolving needs of autonomous systems.
Previous solutions for continual learning of object detectors do not address
the data association stage of appearance-based trackers, leading to
catastrophic forgetting of previous classes' re-identification features. We
introduce COOLer, a COntrastive- and cOntinual-Learning-based tracker, which
incrementally learns to track new categories while preserving past knowledge by
training on a combination of currently available ground truth labels and
pseudo-labels generated by the past tracker. To further exacerbate the
disentanglement of instance representations, we introduce a novel contrastive
class-incremental instance representation learning technique. Finally, we
propose a practical evaluation protocol for continual learning for MOT and
conduct experiments on the BDD100K and SHIFT datasets. Experimental results
demonstrate that COOLer continually learns while effectively addressing
catastrophic forgetting of both tracking and detection. The code is available
at https://github.com/BoSmallEar/COOLer.
- Abstract(参考訳): 連続学習により、モデルは前のタスクのトレーニングデータなしで古い知識を維持しながら、連続的に複数のタスクを学習することができる。
本稿では,連続学習研究のスコープを,自律システムの継続的に進化するニーズに対応するために望ましいマルチオブジェクトトラッキング(mot)のためのクラスインクリメンタル学習に拡張する。
オブジェクト検出器の継続的な学習のためのこれまでの解決策は、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。これは過去の知識を保存しながら,過去のトラッカーが生成した擬似ラベルの組み合わせをトレーニングすることで,新たなカテゴリの追跡を段階的に学習する。
インスタンス表現の不整合をさらに悪化させるため,新しいクラスインクリメンタルなインスタンス表現学習手法を導入する。
最後に,MOTの連続学習のための実践的評価プロトコルを提案し,BDD100KおよびShiFTデータセット上で実験を行う。
実験の結果、COOLerは追跡と検出の両方の破滅的な忘れを効果的に解決しながら継続的に学習していることがわかった。
コードはhttps://github.com/BoSmallEar/COOLerで入手できる。
関連論文リスト
- PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Contrastive Learning with Boosted Memorization [36.957895270908324]
自己教師付き学習は、視覚的およびテキスト的データの表現学習において大きな成功を収めた。
近年の自己指導型長期学習の試行は、損失視点やモデル視点の再バランスによって行われる。
本稿では,ラベルを意識しないコンテキストにおける長期学習を強化するために,新しいBCL法を提案する。
論文 参考訳(メタデータ) (2022-05-25T11:54:22Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z) - Insights from the Future for Continual Learning [45.58831178202245]
我々は,授業データに先立って,授業に関する既存の情報を組み込むための,新しい実験環境である先進的連続学習を提案する。
私たちの設定には、トレーニングサンプルがまったくない将来のクラスが追加されます。
損失を慎重に調整した表現空間の生成モデルにより、将来のクラスからの洞察を利用して過去のクラスと現在のクラスの空間配置を制約することができる。
論文 参考訳(メタデータ) (2020-06-24T14:05:45Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。