論文の概要: Learning with Memory-based Virtual Classes for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2103.16940v1
- Date: Wed, 31 Mar 2021 09:44:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:40:22.908738
- Title: Learning with Memory-based Virtual Classes for Deep Metric Learning
- Title(参考訳): 深部メトリック学習のためのメモリベース仮想クラスによる学習
- Authors: Byungsoo Ko, Geonmo Gu, Han-Gyu Kim
- Abstract要約: MemVirと呼ばれる深度メトリック学習のための新しいトレーニング戦略を紹介します。
MemVirは、組み込み機能とクラスウェイトを記憶して、追加の仮想クラスとして利用する。
MemVirは変更することなく、既存の多くの損失関数に簡単に適用できる。
- 参考スコア(独自算出の注目度): 13.252164137961332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The core of deep metric learning (DML) involves learning visual similarities
in high-dimensional embedding space. One of the main challenges is to
generalize from seen classes of training data to unseen classes of test data.
Recent works have focused on exploiting past embeddings to increase the number
of instances for the seen classes. Such methods achieve performance improvement
via augmentation, while the strong focus on seen classes still remains. This
can be undesirable for DML, where training and test data exhibit entirely
different classes. In this work, we present a novel training strategy for DML
called MemVir. Unlike previous works, MemVir memorizes both embedding features
and class weights to utilize them as additional virtual classes. The
exploitation of virtual classes not only utilizes augmented information for
training but also alleviates a strong focus on seen classes for better
generalization. Moreover, we embed the idea of curriculum learning by slowly
adding virtual classes for a gradual increase in learning difficulty, which
improves the learning stability as well as the final performance. MemVir can be
easily applied to many existing loss functions without any modification.
Extensive experimental results on famous benchmarks demonstrate the superiority
of MemVir over state-of-the-art competitors. Code of MemVir will be publicly
available.
- Abstract(参考訳): 深層メトリック学習(dml)の中核は、高次元埋め込み空間における視覚の類似性を学ぶことである。
主な課題の1つは、見られているトレーニングデータのクラスから見えないテストデータのクラスに一般化することである。
最近の研究は、過去の埋め込みを利用して、見たクラスのインスタンス数を増やすことに重点を置いている。
このようなメソッドは拡張を通じてパフォーマンスの向上を実現する一方で、見かけのクラスに強く焦点を絞ったままである。
トレーニングデータとテストデータがまったく異なるクラスを示すDMLでは、これは望ましくない。
本稿では,DMLの新しいトレーニング戦略であるMemVirについて述べる。
以前の作品とは異なり、memvirは埋め込み機能とクラスの重み付けの両方を記憶し、それらを追加の仮想クラスとして利用する。
仮想クラスの利用は、訓練に付加情報を利用するだけでなく、より一般化するために見かけクラスに強く焦点を絞る。
さらに,学習難易度を段階的に増やすために,徐々に仮想クラスを追加してカリキュラム学習の考え方を組み込むことにより,学習の安定性と最終的なパフォーマンスを向上させる。
MemVirは変更することなく、既存の多くの損失関数に簡単に適用できる。
有名なベンチマークの広範な実験結果から、memvirは最先端の競合製品よりも優れていることが示されている。
MemVirのコードは公開されている。
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - A streamlined Approach to Multimodal Few-Shot Class Incremental Learning
for Fine-Grained Datasets [23.005760505169803]
FSCIL(Few-shot Class-Incremental Learning)は、限られた新しいデータストリームから学習しながら、事前の知識を維持するという課題を提起する。
本稿では,セッション間の画像テキスト埋め込みの分離性を向上するSSP(Session-Specific Prompts)を提案する。
第2のハイパーボリック距離は、同じクラス内の画像とテキストのペアの表現を圧縮し、異なるクラスから拡張し、より良い表現をもたらす。
論文 参考訳(メタデータ) (2024-03-10T19:50:03Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Data augmentation on-the-fly and active learning in data stream
classification [9.367903089535684]
予測モデルをオンザフライでトレーニングする必要性が高まっている。
学習モデルは、アクティブな学習予算を増やすことなく、より多くのラベル付きデータにアクセスすることができる。
Augmented Queuesは、学習の質とスピードに関して、パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2022-10-13T09:57:08Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Prototypes-Guided Memory Replay for Continual Learning [13.459792148030717]
継続学習(英: Continual Learning, CL)とは、学習性能を高めるために、トレーニングサンプルの小さな記述と以前に学んだ知識のみを使用する機械学習パラダイムである。
CLの最大の難しさは、データ分布の変化によって引き起こされた、以前に学習されたタスクの破滅的な忘れである。
オンラインメタ学習モデルに組み込んだメモリ効率の高いCL手法を提案する。
論文 参考訳(メタデータ) (2021-08-28T13:00:57Z) - PlayVirtual: Augmenting Cycle-Consistent Virtual Trajectories for
Reinforcement Learning [84.30765628008207]
本稿では,RL特徴表現学習におけるデータ効率を向上させるために,サイクル一貫性のある仮想トラジェクトリを付加するPlayVirtualという新しい手法を提案する。
本手法は,両ベンチマークにおいて,最先端の手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2021-06-08T07:37:37Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。