論文の概要: Towards Universal Backward-Compatible Representation Learning
- arxiv url: http://arxiv.org/abs/2203.01583v1
- Date: Thu, 3 Mar 2022 09:23:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 16:12:48.499730
- Title: Towards Universal Backward-Compatible Representation Learning
- Title(参考訳): 普遍的後方互換表現学習に向けて
- Authors: Binjie Zhang, Yixiao Ge, Yantao Shen, Shupeng Su, Chun Yuan, Xuyuan
Xu, Yexin Wang, Ying Shan
- Abstract要約: バックフィルフリーモデルアップグレードをサポートするために、後方互換性のある表現学習が導入されている。
まず、モデルアップグレードにおいて、可能なすべてのデータ分割を網羅する、普遍的な後方互換性のある表現学習の新たな問題を導入する。
提案手法は,Universal Backward- Training (UniBCT) とよばれる,シンプルで効果的な手法である。
- 参考スコア(独自算出の注目度): 29.77801805854168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional model upgrades for visual search systems require offline refresh
of gallery features by feeding gallery images into new models (dubbed as
"backfill"), which is time-consuming and expensive, especially in large-scale
applications. The task of backward-compatible representation learning is
therefore introduced to support backfill-free model upgrades, where the new
query features are interoperable with the old gallery features. Despite the
success, previous works only investigated a close-set training scenario (i.e.,
the new training set shares the same classes as the old one), and are limited
by more realistic and challenging open-set scenarios. To this end, we first
introduce a new problem of universal backward-compatible representation
learning, covering all possible data split in model upgrades. We further
propose a simple yet effective method, dubbed as Universal Backward-Compatible
Training (UniBCT) with a novel structural prototype refinement algorithm, to
learn compatible representations in all kinds of model upgrading benchmarks in
a unified manner. Comprehensive experiments on the large-scale face recognition
datasets MS1Mv3 and IJB-C fully demonstrate the effectiveness of our method.
- Abstract(参考訳): ビジュアルサーチシステムの従来のモデルアップグレードでは、ギャラリーイメージを新しいモデル("backfill"と呼ばれる)に投入することでギャラリー機能のオフライン更新が必要であり、特に大規模アプリケーションでは時間と費用がかかる。
したがって、後方互換性のある表現学習のタスクは、新しいクエリ機能が古いギャラリー機能と相互運用可能なバックフィルフリーモデルアップグレードをサポートするために導入された。
成功にもかかわらず、以前の研究は密集したトレーニングシナリオ(すなわち、新しいトレーニングセットは旧クラスと同じクラスを共有している)のみを調査し、より現実的で挑戦的なオープンセットシナリオによって制限されている。
そこで本研究では,モデル更新におけるすべてのデータ分割を網羅する,普遍的後方互換表現学習の新たな問題を提案する。
さらに,Universal Backward-Compatible Training (UniBCT) と呼ばれる,新しい構造的プロトタイプの改良アルゴリズムを提案する。
大規模顔認識データセットMS1Mv3とIJB-Cの総合的な実験により,本手法の有効性を実証した。
関連論文リスト
- Backward-Compatible Aligned Representations via an Orthogonal Transformation Layer [20.96380700548786]
画像検索システムは、古い表現と新しい表現のミスアライメントにより、表現が改善されたモデルを更新する際の課題に直面している。
以前の研究では、バックフィルなしで新しい表現と古い表現を直接比較できる後方互換性のあるトレーニング方法が検討されてきた。
本稿では、後方互換性と独立に訓練されたモデルの性能のバランスをとることに取り組む。
論文 参考訳(メタデータ) (2024-08-16T15:05:28Z) - MixBCT: Towards Self-Adapting Backward-Compatible Training [66.52766344751635]
そこで本研究では,単純かつ高効率な後方互換性学習法であるMixBCTを提案する。
大規模顔認識データセットMS1Mv3とIJB-Cについて実験を行った。
論文 参考訳(メタデータ) (2023-08-14T05:55:38Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Online Backfilling with No Regret for Large-Scale Image Retrieval [50.162438586686356]
バックフィルは、画像検索システムにおいて、アップグレードされたモデルからすべてのギャラリー埋め込みを再抽出するプロセスである。
本稿では,オンラインのバックフィルアルゴリズムを提案し,バックフィル処理の進行的な性能向上を実現する。
我々は、逆変換モジュールをより効果的で効率的なマージに組み込み、メトリック互換のコントラスト学習アプローチを採用することでさらに強化する。
論文 参考訳(メタデータ) (2023-01-10T03:10:32Z) - $BT^2$: Backward-compatible Training with Basis Transformation [107.37014712361788]
検索システムは、より良い表現モデルに更新する際に、ギャラリー内のすべてのデータの表現を再計算する必要があることが多い。
このプロセスはバックフィルとして知られており、ギャラリーが何十億ものサンプルを含んでいる現実世界では特にコストがかかる。
近年、研究者らは、新しい表現モデルを補助的損失で訓練し、古い表現と後方互換性を持たせることができる、後方互換性トレーニング(BCT)のアイデアを提案している。
論文 参考訳(メタデータ) (2022-11-08T04:00:23Z) - Privacy-Preserving Model Upgrades with Bidirectional Compatible Training
in Image Retrieval [28.268764435617975]
BiCT(Bidirectional Compatible Training)と呼ばれる新しいモデルアップグレードパラダイムを提案する。
BiCTは、後方互換性のある新しいモデルの埋め込み空間に向けて前方互換性のあるトレーニングによって、古いギャラリーの埋め込みをアップグレードする。
我々は、BiCTによる顕著な改善を検証するための総合的な実験を行い、後方互換性の不都合な損失重みが、実際に後方および前方検索性能において重要な役割を担っていることを観察した。
論文 参考訳(メタデータ) (2022-04-29T07:38:09Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - CoReS: Compatible Representations via Stationarity [20.607894099896214]
ビジュアルサーチシステムでは、互換性のある機能により、古い機能と新しい機能を直接比較することができ、時間とともに相互に使用することができる。
従来学習されていた表現とテキスト互換の表現を学習するための新しい訓練手法であるCoReSを提案する。
トレーニングセットの更新を複数行う場合,我々のトレーニング手順が現在の技術よりも優れており,特に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-15T09:35:54Z) - Towards Backward-Compatible Representation Learning [86.39292571306395]
異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-26T14:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。