論文の概要: On the Exploration of Incremental Learning for Fine-grained Image
Retrieval
- arxiv url: http://arxiv.org/abs/2010.08020v1
- Date: Thu, 15 Oct 2020 21:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:26:53.687244
- Title: On the Exploration of Incremental Learning for Fine-grained Image
Retrieval
- Title(参考訳): きめ細かい画像検索のためのインクリメンタル学習の探索について
- Authors: Wei Chen and Yu Liu and Weiping Wang and Tinne Tuytelaars and Erwin M.
Bakker and Michael Lew
- Abstract要約: 我々は,新たなカテゴリが時間とともに追加される場合に,細粒度画像検索の問題を漸進的に考慮する。
本稿では,検索性能の劣化を抑えるための漸進学習手法を提案する。
提案手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスにおける破滅的な忘れを効果的に軽減する。
- 参考スコア(独自算出の注目度): 45.48333682748607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem of fine-grained image retrieval in an
incremental setting, when new categories are added over time. On the one hand,
repeatedly training the representation on the extended dataset is
time-consuming. On the other hand, fine-tuning the learned representation only
with the new classes leads to catastrophic forgetting. To this end, we propose
an incremental learning method to mitigate retrieval performance degradation
caused by the forgetting issue. Without accessing any samples of the original
classes, the classifier of the original network provides soft "labels" to
transfer knowledge to train the adaptive network, so as to preserve the
previous capability for classification. More importantly, a regularization
function based on Maximum Mean Discrepancy is devised to minimize the
discrepancy of new classes features from the original network and the adaptive
network, respectively. Extensive experiments on two datasets show that our
method effectively mitigates the catastrophic forgetting on the original
classes while achieving high performance on the new classes.
- Abstract(参考訳): 本稿では,時間とともに新たなカテゴリが追加される場合に,画像の細粒度検索の問題を漸進的に考慮する。
一方、拡張データセットの表現を繰り返しトレーニングすることは時間がかかります。
一方、学習した表現を新しいクラスでのみ微調整すると、破滅的な忘れが生じる。
そこで本研究では,忘れ問題による検索性能低下を軽減するためのインクリメンタル学習手法を提案する。
元のクラスのサンプルにアクセスすることなく、元のネットワークの分類器は、以前の分類能力を維持するために、適応的なネットワークを訓練するために知識を伝達するためのソフトな"ラベル"を提供する。
さらに、最大平均離散度に基づく正規化関数は、それぞれ元のネットワークと適応ネットワークとの新しいクラス機能の相違を最小限に抑えるために考案された。
2つのデータセットに対する大規模な実験により,本手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスに対する破滅的な忘れを効果的に軽減することを示した。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Informative regularization for a multi-layer perceptron RR Lyrae
classifier under data shift [3.303002683812084]
本稿では,情報正規化とアドホックなトレーニング手法に基づくスケーラブルで容易に適応可能なアプローチを提案し,シフト問題を緩和する。
提案手法は,特徴量からの知識をニューラルネットワークに組み込むことで,基礎となるデータシフト問題を管理する。
論文 参考訳(メタデータ) (2023-03-12T02:49:19Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - Improving Replay-Based Continual Semantic Segmentation with Smart Data
Selection [0.0]
セマンティックセグメンテーションにおける様々なリプレイ戦略の影響について検討し,クラス・インクリメンタル・セッティングとドメイン・インクリメンタル・セッティングで評価する。
本研究は,クラス増分設定において,バッファ内の異なるクラスに対して一様分布を実現することが重要であることを示唆する。
ドメインインクリメンタルな設定では、学習した特徴表現の分布から一様にサンプリングしたり、中央値のエントロピーを持つサンプルを選択することでバッファサンプルを選択することが最も効果的である。
論文 参考訳(メタデータ) (2022-09-20T16:32:06Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。