論文の概要: CoReS: Compatible Representations via Stationarity
- arxiv url: http://arxiv.org/abs/2111.07632v3
- Date: Tue, 28 Mar 2023 13:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 20:12:04.786821
- Title: CoReS: Compatible Representations via Stationarity
- Title(参考訳): cores: stationarity による互換表現
- Authors: Niccolo Biondi and Federico Pernici and Matteo Bruni and Alberto Del
Bimbo
- Abstract要約: ビジュアルサーチシステムでは、互換性のある機能により、古い機能と新しい機能を直接比較することができ、時間とともに相互に使用することができる。
従来学習されていた表現とテキスト互換の表現を学習するための新しい訓練手法であるCoReSを提案する。
トレーニングセットの更新を複数行う場合,我々のトレーニング手順が現在の技術よりも優れており,特に有効であることを示す。
- 参考スコア(独自算出の注目度): 20.607894099896214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compatible features enable the direct comparison of old and new learned
features allowing to use them interchangeably over time. In visual search
systems, this eliminates the need to extract new features from the gallery-set
when the representation model is upgraded with novel data. This has a big value
in real applications as re-indexing the gallery-set can be computationally
expensive when the gallery-set is large, or even infeasible due to privacy or
other concerns of the application. In this paper, we propose CoReS, a new
training procedure to learn representations that are \textit{compatible} with
those previously learned, grounding on the stationarity of the features as
provided by fixed classifiers based on polytopes. With this solution, classes
are maximally separated in the representation space and maintain their spatial
configuration stationary as new classes are added, so that there is no need to
learn any mappings between representations nor to impose pairwise training with
the previously learned model. We demonstrate that our training procedure
largely outperforms the current state of the art and is particularly effective
in the case of multiple upgrades of the training-set, which is the typical case
in real applications.
- Abstract(参考訳): 互換性のある機能により、古い機能と新しい機能を直接比較することができる。
ビジュアル検索システムでは,表現モデルを新しいデータでアップグレードする場合に,ギャラリーセットから新機能を抽出する必要がなくなる。
これは、ギャラリーセットの再インデクシングは、ギャラリーセットが大きければ計算的にコストがかかる可能性があるため、実際のアプリケーションにおいて大きな価値を持つ。
本稿では, ポリトープに基づく固定分類器によって提供される特徴の定常性に基づいて, 以前に学習した表現と \textit{compatible} の表現を学習するための新しい学習手順であるcoresを提案する。
このソリューションでは、クラスは表現空間内で最大に分離され、新しいクラスが追加されるにつれて空間的構成が定常的に維持されるため、表現間のマッピングを学習したり、以前に学習したモデルとペアワイズトレーニングを課したりする必要がなくなる。
実際のアプリケーションでは典型例であるトレーニングセットを複数アップグレードする場合,トレーニング手順が現在の技術を大きく上回っており,特に効果的であることを示す。
関連論文リスト
- Learning Prompt with Distribution-Based Feature Replay for Few-Shot
Class-Incremental Learning [58.4078444826737]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Incremental Few-Shot Learning via Implanting and Compressing [13.122771115838523]
増分的なFew-Shot Learningは、いくつかの例から新しいクラスを継続的に学習するモデルを必要とする。
我々はtextbfImplanting と textbfCompressing と呼ばれる2段階の学習戦略を提案する。
具体的には、textbfImplantingのステップにおいて、新しいクラスのデータ分布をデータ・アサンダント・ベース・セットの助けを借りて模倣することを提案する。
textbfのステップでは、特徴抽出器を各新規クラスを正確に表現し、クラス内コンパクト性を高める。
論文 参考訳(メタデータ) (2022-03-19T11:04:43Z) - Forward Compatible Few-Shot Class-Incremental Learning [71.2459746681805]
機械学習モデルは、古いクラスを忘れずに新しいクラスを認識するべきである。
現在の手法は漸進的な学習をふりかえりに扱う。
FSCILのためのForwArd Compatible Training (FACT)を提案する。
論文 参考訳(メタデータ) (2022-03-14T09:36:35Z) - Towards Universal Backward-Compatible Representation Learning [29.77801805854168]
バックフィルフリーモデルアップグレードをサポートするために、後方互換性のある表現学習が導入されている。
まず、モデルアップグレードにおいて、可能なすべてのデータ分割を網羅する、普遍的な後方互換性のある表現学習の新たな問題を導入する。
提案手法は,Universal Backward- Training (UniBCT) とよばれる,シンプルで効果的な手法である。
論文 参考訳(メタデータ) (2022-03-03T09:23:51Z) - Subspace Regularizers for Few-Shot Class Incremental Learning [26.372024890126408]
既存のクラスの重みに代表される部分空間に近づき、新しいクラスに対する重みベクトルを奨励する、新しい部分空間正規化スキームの族を示す。
この結果から,クラス表現の幾何学的正則化は連続学習に有効なツールであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T22:19:53Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z) - Towards Backward-Compatible Representation Learning [86.39292571306395]
異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-26T14:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。