論文の概要: Neighborhood Consensus Contrastive Learning for Backward-Compatible
Representation
- arxiv url: http://arxiv.org/abs/2108.03372v1
- Date: Sat, 7 Aug 2021 05:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:32:36.728404
- Title: Neighborhood Consensus Contrastive Learning for Backward-Compatible
Representation
- Title(参考訳): 後方対応型表現のための隣接コンセンサスコントラスト学習
- Authors: Shengsen Wu, Liang Chen, Yihang Lou, YanBai, Tao Bai, Minghua Deng,
Lingyu Duan
- Abstract要約: 古い"機能と互換性のある"新しい"機能を可能にするために、後方互換性のある表現が提案されている。
本稿では,近隣のコンセンサス・コントラスト・ラーニング(NCCL)手法を提案する。
提案手法は,新しいモデルの精度を損なうことなく後方互換性を確保する。
- 参考スコア(独自算出の注目度): 46.86784621137665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In object re-identification (ReID), the development of deep learning
techniques often involves model update and deployment. It is unbearable to
re-extract image features of the large-scale gallery when deploying new models.
Therefore, backward-compatible representation is proposed to enable the "new"
features compatible with "old"' features, free from the re-extracting process.
The existing backward-compatible methods simply conduct constraints in the
embedding space or discriminative space and ignore the intra-class variance of
the old embeddings, resulting in a risk of damaging the discriminability of new
embeddings.
In this work, we propose a Neighborhood Consensus Contrastive Learning (NCCL)
method, which learns backward-compatible representation from a neighborhood
consensus perspective with both embedding structures and discriminative
knowledge. With NCCL, the new embeddings are aligned and improved with old
embeddings in a multi-cluster view. Besides, we also propose a scheme to filter
the old embeddings with low credibility, which can further improve the
compatibility robustness. Our method ensures backward compatibility without
impairing the accuracy of the new model. And it can even improve the new
model's accuracy in most scenarios.
- Abstract(参考訳): オブジェクト再識別(ReID)では、ディープラーニング技術の開発には、しばしばモデル更新とデプロイが含まれる。
新しいモデルをデプロイする場合、大規模なギャラリーの画像機能を再抽出することは耐えられない。
したがって、"古い"機能と互換性のある"新しい"機能を再抽出プロセスから解放するために、後方互換性のある表現を提案する。
既存の後方互換性のある手法は、単に埋め込み空間または識別空間の制約を実行し、古い埋め込みのクラス内分散を無視し、新しい埋め込みの識別可能性を傷つけるリスクをもたらす。
本研究では,埋め込み構造と判別的知識を併用した近所コンセンサス視点から下位互換表現を学習する,近所コンセンサスコントラストコントラストコントラスト学習(nccl)手法を提案する。
NCCLでは、新しい埋め込みが整列され、マルチクラスタビューの古い埋め込みによって改善される。
さらに,古い組込みを低信頼性でフィルタし,互換性の堅牢性をさらに向上させる手法を提案する。
提案手法は,新しいモデルの精度を損なうことなく後方互換性を確保する。
また、ほとんどのシナリオでは、新しいモデルの精度も改善できます。
関連論文リスト
- CEAT: Continual Expansion and Absorption Transformer for Non-Exemplar
Class-Incremental Learning [34.59310641291726]
現実のアプリケーションでは、動的シナリオは、古い知識を忘れずに新しいタスクを継続的に学習する能力を持つ必要がある。
連続膨張吸収変圧器(CEAT)という新しいアーキテクチャを提案する。
このモデルは、凍結した前のパラメータと平行に拡散層を拡張することで、新しい知識を学ぶことができる。
モデルの学習能力を向上させるために,特徴空間における古クラスと新クラスの重複を低減するために,新しいプロトタイプを設計した。
論文 参考訳(メタデータ) (2024-03-11T12:40:12Z) - MixBCT: Towards Self-Adapting Backward-Compatible Training [89.38610089956909]
後方互換性のあるトレーニングを使用することで、古い検索データセットを更新する必要がなくなる。
そこで本研究では,単純かつ高効率な後方互換性学習法であるMixBCTを提案する。
提案手法は,従来の埋め込みの分布に基づいて,新しい特徴に対する制約領域を適応的に調整する。
論文 参考訳(メタデータ) (2023-08-14T05:55:38Z) - Darwinian Model Upgrades: Model Evolving with Selective Compatibility [29.920204547961696]
BCTは、バックフィルをなくすために後方互換性のあるモデルアップグレードに向けた第一歩を提示する。
本稿では,DMU(Darwinian Model Upgrades)を提案する。
DMUは、新しい劣化を効果的に軽減し、新しい互換性を改善し、大規模検索システムにおいてより適切なモデルアップグレードパラダイムを提供する。
論文 参考訳(メタデータ) (2022-10-13T12:28:48Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - Privacy-Preserving Model Upgrades with Bidirectional Compatible Training
in Image Retrieval [28.268764435617975]
BiCT(Bidirectional Compatible Training)と呼ばれる新しいモデルアップグレードパラダイムを提案する。
BiCTは、後方互換性のある新しいモデルの埋め込み空間に向けて前方互換性のあるトレーニングによって、古いギャラリーの埋め込みをアップグレードする。
我々は、BiCTによる顕著な改善を検証するための総合的な実験を行い、後方互換性の不都合な損失重みが、実際に後方および前方検索性能において重要な役割を担っていることを観察した。
論文 参考訳(メタデータ) (2022-04-29T07:38:09Z) - Forward Compatible Few-Shot Class-Incremental Learning [71.2459746681805]
機械学習モデルは、古いクラスを忘れずに新しいクラスを認識するべきである。
現在の手法は漸進的な学習をふりかえりに扱う。
FSCILのためのForwArd Compatible Training (FACT)を提案する。
論文 参考訳(メタデータ) (2022-03-14T09:36:35Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - Towards Backward-Compatible Representation Learning [86.39292571306395]
異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-26T14:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。