論文の概要: Online Deep Metric Learning via Mutual Distillation
- arxiv url: http://arxiv.org/abs/2203.05201v1
- Date: Thu, 10 Mar 2022 07:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:32:13.470354
- Title: Online Deep Metric Learning via Mutual Distillation
- Title(参考訳): 相互蒸留によるオンライン深層計量学習
- Authors: Gao-Dong Liu, Wan-Lei Zhao, Jie Zhao
- Abstract要約: ディープ・メトリック・ラーニング(Deep metric learning)は、入力データを埋め込み空間に変換することを目的としており、類似したサンプルが近接し、異種サンプルが互いに遠く離れている。
既存のソリューションは、スクラッチからモデルをリトレーニングするか、トレーニング中に古いサンプルをリプレイする必要がある。
本稿では, 複数タスクシナリオの相互蒸留に基づくオンライン深度学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.363111089877625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep metric learning aims to transform input data into an embedding space,
where similar samples are close while dissimilar samples are far apart from
each other. In practice, samples of new categories arrive incrementally, which
requires the periodical augmentation of the learned model. The fine-tuning on
the new categories usually leads to poor performance on the old, which is known
as "catastrophic forgetting". Existing solutions either retrain the model from
scratch or require the replay of old samples during the training. In this
paper, a complete online deep metric learning framework is proposed based on
mutual distillation for both one-task and multi-task scenarios. Different from
the teacher-student framework, the proposed approach treats the old and new
learning tasks with equal importance. No preference over the old or new
knowledge is caused. In addition, a novel virtual feature estimation approach
is proposed to recover the features assumed to be extracted by the old models.
It allows the distillation between the new and the old models without the
replay of old training samples or the holding of old models during the
training. A comprehensive study shows the superior performance of our approach
with the support of different backbones.
- Abstract(参考訳): ディープ・メトリック・ラーニング(Deep metric learning)は、入力データを埋め込み空間に変換することを目的としており、類似したサンプルが近接し、異種サンプルが互いに遠く離れている。
実際には、新しいカテゴリのサンプルが徐々に到着し、学習モデルの定期的な拡張を必要とする。
新しいカテゴリーの微調整は、通常「破滅的な忘れ物」として知られる古いカテゴリのパフォーマンスの低下につながる。
既存のソリューションは、スクラッチからモデルをリトレーニングするか、トレーニング中に古いサンプルをリプレイする必要がある。
本稿では,1タスクシナリオとマルチタスクシナリオの相互蒸留に基づく,完全なオンラインディープメトリック学習フレームワークを提案する。
教師と教師の枠組みとは異なり、提案されたアプローチは、古い学習タスクと新しい学習タスクを等しく扱う。
古い知識や新しい知識に対する選好は起こらない。
また,古いモデルから抽出されたと考えられる特徴を復元するために,新しい仮想特徴量推定手法を提案する。
これは、古いトレーニングサンプルの再生や、トレーニング中に古いモデルの保持なしに、新しいモデルと古いモデルの蒸留を可能にする。
総合的な研究は、異なるバックボーンのサポートによるアプローチの優れたパフォーマンスを示している。
関連論文リスト
- Joint Diffusion models in Continual Learning [4.013156524547073]
共同拡散モデルに基づく生成的リハーサルを用いた連続学習法であるJDCLを紹介する。
生成的再生に基づく連続学習手法は、生成的モデルからサンプリングされた新しいデータとリハーサルデータを組み合わせたモデルの再学習によってこの問題を緩和しようとする。
このような共有パラメトリゼーションと知識蒸留技術を組み合わせることで、破滅的な忘れをせずに新しいタスクに安定した適応ができることを示す。
論文 参考訳(メタデータ) (2024-11-12T22:35:44Z) - Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Continual Learning with Strong Experience Replay [32.154995019080594]
SER(Strong Experience Replay)を用いたCL法を提案する。
SERは、メモリバッファから過去の経験を蒸留する以外に、現在のトレーニングデータに模倣された将来の経験を利用する。
複数の画像分類データセットによる実験結果から,SER法が最先端の手法をはるかに上回ることがわかった。
論文 参考訳(メタデータ) (2023-05-23T02:42:54Z) - Remind of the Past: Incremental Learning with Analogical Prompts [30.333352182303038]
即時チューニングにより,新しいデータを古いクラスに再マップするアナロジー生成機構を設計する。
これは、新しいクラスのサンプルのみを使用して、古いモデルのターゲットの古いクラスのフィーチャ分布を模倣する。
学習プロンプトは、歴史的プロトタイプの微調整による表現シフトを推定し、対処するためにさらに使用される。
論文 参考訳(メタデータ) (2023-03-24T10:18:28Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。