論文の概要: Incremental Embedding Learning via Zero-Shot Translation
- arxiv url: http://arxiv.org/abs/2012.15497v1
- Date: Thu, 31 Dec 2020 08:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 02:41:08.968946
- Title: Incremental Embedding Learning via Zero-Shot Translation
- Title(参考訳): ゼロショット翻訳によるインクリメンタル埋め込み学習
- Authors: Kun Wei, Cheng Deng, Xu Yang, and Maosen Li
- Abstract要約: 現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
- 参考スコア(独自算出の注目度): 65.94349068508863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep learning methods have achieved great success in machine learning
and computer vision fields by learning a set of pre-defined datasets. Howerver,
these methods perform unsatisfactorily when applied into real-world situations.
The reason of this phenomenon is that learning new tasks leads the trained
model quickly forget the knowledge of old tasks, which is referred to as
catastrophic forgetting. Current state-of-the-art incremental learning methods
tackle catastrophic forgetting problem in traditional classification networks
and ignore the problem existing in embedding networks, which are the basic
networks for image retrieval, face recognition, zero-shot learning, etc.
Different from traditional incremental classification networks, the semantic
gap between the embedding spaces of two adjacent tasks is the main challenge
for embedding networks under incremental learning setting. Thus, we propose a
novel class-incremental method for embedding network, named as zero-shot
translation class-incremental method (ZSTCI), which leverages zero-shot
translation to estimate and compensate the semantic gap without any exemplars.
Then, we try to learn a unified representation for two adjacent tasks in
sequential learning process, which captures the relationships of previous
classes and current classes precisely. In addition, ZSTCI can easily be
combined with existing regularization-based incremental learning methods to
further improve performance of embedding networks. We conduct extensive
experiments on CUB-200-2011 and CIFAR100, and the experiment results prove the
effectiveness of our method. The code of our method has been released.
- Abstract(参考訳): 現代のディープラーニング手法は、事前に定義されたデータセットの集合を学習することで、機械学習とコンピュータビジョンの分野で大きな成功を収めている。
いずれにせよ、現実の状況に適用された場合、これらの手法は不満足に機能する。
この現象の理由は、新しいタスクを学ぶことで、訓練されたモデルが古いタスクの知識をすぐに忘れてしまうためである。
現在最先端の漸進的な学習手法は、従来の分類ネットワークにおける破滅的な忘れ問題に対処し、画像検索、顔認識、ゼロショット学習などの基本的なネットワークである埋め込みネットワークに存在する問題を無視している。
従来のインクリメンタルな分類ネットワークとは異なり、隣接する2つのタスクの埋め込み空間間の意味的ギャップは、インクリメンタルな学習環境下でのネットワーク埋め込みの主な課題である。
そこで本研究では,ゼロショット変換を応用したゼロショット変換クラス増分法(ZSTCI)と呼ばれる,ネットワークを埋め込む新たなクラス増分法を提案する。
そこで,2つの隣接タスクの統一表現を逐次学習プロセスで学習し,従来のクラスと現在のクラスの関係を正確に把握する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
CUB-200-2011 と CIFAR100 について広範な実験を行い,本手法の有効性を実証した。
私たちのメソッドのコードはリリースされました。
関連論文リスト
- Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Dense Network Expansion for Class Incremental Learning [61.00081795200547]
最先端のアプローチでは、ネットワーク拡張(NE)に基づいた動的アーキテクチャを使用し、タスクごとにタスクエキスパートを追加する。
精度とモデル複雑性のトレードオフを改善するために,新しい NE 手法である高密度ネットワーク拡張 (DNE) を提案する。
従来のSOTA法では、類似またはより小さなモデルスケールで、精度の点で4%のマージンで性能が向上した。
論文 参考訳(メタデータ) (2023-03-22T16:42:26Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Incremental Learning via Rate Reduction [26.323357617265163]
現在のディープラーニングアーキテクチャは、破滅的な忘れ込みに悩まされており、新しいクラスで漸進的にトレーニングされた時に、以前に学習したクラスの知識を保持することができません。
本稿では,ネットワークの各層をバック伝搬なしで明示的に計算する,レート低減の原理から導かれる代替の「ホワイトボックス」アーキテクチャを提案する。
このパラダイムの下では、事前訓練されたネットワークと新しいデータクラスが与えられた場合、我々のアプローチは、すべての過去のクラスと新しいクラスとの共同トレーニングをエミュレートする新しいネットワークを構築することができることを示す。
論文 参考訳(メタデータ) (2020-11-30T07:23:55Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。