論文の概要: Continual Learning for Visual Search with Backward Consistent Feature
Embedding
- arxiv url: http://arxiv.org/abs/2205.13384v1
- Date: Thu, 26 May 2022 14:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:30:03.048345
- Title: Continual Learning for Visual Search with Backward Consistent Feature
Embedding
- Title(参考訳): 後方一貫した特徴埋め込みを用いた視覚検索の連続学習
- Authors: Timmy S. T. Wan, Jun-Cheng Chen, Tzer-Yi Wu, Chu-Song Chen
- Abstract要約: ビジュアル検索では、ギャラリーセットが徐々に成長し、実際にデータベースに追加される可能性がある。
既存のメソッドはデータセット全体をトレーニングしたモデルに依存しており、モデルの継続的な更新を無視している。
後方埋め込み整合性を備えた漸進的に成長するギャラリーセットを処理できる継続学習(CL)アプローチを導入する。
- 参考スコア(独自算出の注目度): 26.89922800367714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In visual search, the gallery set could be incrementally growing and added to
the database in practice. However, existing methods rely on the model trained
on the entire dataset, ignoring the continual updating of the model. Besides,
as the model updates, the new model must re-extract features for the entire
gallery set to maintain compatible feature space, imposing a high computational
cost for a large gallery set. To address the issues of long-term visual search,
we introduce a continual learning (CL) approach that can handle the
incrementally growing gallery set with backward embedding consistency. We
enforce the losses of inter-session data coherence, neighbor-session model
coherence, and intra-session discrimination to conduct a continual learner. In
addition to the disjoint setup, our CL solution also tackles the situation of
increasingly adding new classes for the blurry boundary without assuming all
categories known in the beginning and during model update. To our knowledge,
this is the first CL method both tackling the issue of backward-consistent
feature embedding and allowing novel classes to occur in the new sessions.
Extensive experiments on various benchmarks show the efficacy of our approach
under a wide range of setups.
- Abstract(参考訳): ビジュアル検索では、ギャラリーセットが徐々に成長し、実際にデータベースに追加される可能性がある。
しかし、既存のメソッドはデータセット全体をトレーニングしたモデルに依存しており、モデルの継続的な更新を無視している。
さらに、モデルが更新されると、新しいモデルはギャラリー全体の機能を再抽出し、互換性のある機能空間を維持し、大きなギャラリーセットに対して高い計算コストを課す必要がある。
長期視覚探索の課題に対処するため,後方埋め込み整合性を持つ漸進的に成長するギャラリーを処理可能な継続学習(CL)アプローチを導入する。
セッション間データコヒーレンス、隣り合うセッションモデルコヒーレンス、セッション内差別の損失を強制し、継続的な学習を行う。
分離された設定に加えて、私たちのCLソリューションは、初期およびモデル更新で知られているすべてのカテゴリを仮定することなく、曖昧なバウンダリに対する新しいクラスを徐々に追加する状況にも取り組みます。
我々の知る限り、これは後方一貫性のある機能埋め込みの問題に対処する最初のCLメソッドであり、新しいセッションで新しいクラスを実現できる。
様々なベンチマークに関する広範囲な実験は、幅広い設定下での我々のアプローチの有効性を示している。
関連論文リスト
- Dual Consolidation for Pre-Trained Model-Based Domain-Incremental Learning [64.1745161657794]
ドメイン・インクリメンタル・ラーニング(ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、Domain-Incremental Learning、DIL)は、異なるドメインにまたがる新しい概念へのモデルの漸進的な適応を含む。
プレトレーニングモデルの最近の進歩は、DILの確かな基盤を提供する。
しかし、新しい概念を学ぶことは、しばしば、事前訓練された知識を破滅的に忘れてしまう。
本稿では,歴史的知識の統一と統合を図るために,デュアルコンソリデータティオン(ドゥクト)を提案する。
論文 参考訳(メタデータ) (2024-10-01T17:58:06Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - Enhanced Few-Shot Class-Incremental Learning via Ensemble Models [34.84881941101568]
クラス増分学習(class-incremental learning)は、新しいクラスを限られたトレーニングデータに継続的に適合させることを目的としている。
主な課題は、珍しい新しいトレーニングサンプルを過度に適合させ、古いクラスを忘れることである。
本稿では,データ拡張と協調して一般化を促進する新しいアンサンブルモデルフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-14T06:07:07Z) - Incremental Object Detection with CLIP [36.478530086163744]
そこで本研究では,CLIPなどの視覚言語モデルを用いて,異なるクラス集合に対するテキスト特徴埋め込みを生成する。
次に、段階的なシナリオをシミュレートするために、早期の学習段階において利用できない新しいクラスを置き換えるために、スーパークラスを使用します。
そこで我々は,この微妙に認識された検出ボックスを擬似アノテーションとしてトレーニングプロセスに組み込むことにより,検出性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-10-13T01:59:39Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Towards Universal Backward-Compatible Representation Learning [29.77801805854168]
バックフィルフリーモデルアップグレードをサポートするために、後方互換性のある表現学習が導入されている。
まず、モデルアップグレードにおいて、可能なすべてのデータ分割を網羅する、普遍的な後方互換性のある表現学習の新たな問題を導入する。
提案手法は,Universal Backward- Training (UniBCT) とよばれる,シンプルで効果的な手法である。
論文 参考訳(メタデータ) (2022-03-03T09:23:51Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - CoReS: Compatible Representations via Stationarity [20.607894099896214]
ビジュアルサーチシステムでは、互換性のある機能により、古い機能と新しい機能を直接比較することができ、時間とともに相互に使用することができる。
従来学習されていた表現とテキスト互換の表現を学習するための新しい訓練手法であるCoReSを提案する。
トレーニングセットの更新を複数行う場合,我々のトレーニング手順が現在の技術よりも優れており,特に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-15T09:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。