論文の概要: Learning Compatible Embeddings
- arxiv url: http://arxiv.org/abs/2108.01958v1
- Date: Wed, 4 Aug 2021 10:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:18:18.022076
- Title: Learning Compatible Embeddings
- Title(参考訳): 互換性のある組込みの学習
- Authors: Qiang Meng, Chixiang Zhang, Xiaoqiang Xu, Feng Zhou
- Abstract要約: 新しいモデルをロールアウトする際の後方互換性は、コストを大幅に削減したり、既存のギャラリーイメージをインプロダクションのビジュアル検索システムに再エンコードしたりすることさえできる。
本稿では,クロスモデル互換性と,直接/前方/後方協調学習の両方に適用可能なLCE(Learning Compatible Embeddings)というフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.926613940939671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving backward compatibility when rolling out new models can highly
reduce costs or even bypass feature re-encoding of existing gallery images for
in-production visual retrieval systems. Previous related works usually leverage
losses used in knowledge distillation which can cause performance degradations
or not guarantee compatibility. To address these issues, we propose a general
framework called Learning Compatible Embeddings (LCE) which is applicable for
both cross model compatibility and compatible training in
direct/forward/backward manners. Our compatibility is achieved by aligning
class centers between models directly or via a transformation, and restricting
more compact intra-class distributions for the new model. Experiments are
conducted in extensive scenarios such as changes of training dataset, loss
functions, network architectures as well as feature dimensions, and demonstrate
that LCE efficiently enables model compatibility with marginal sacrifices of
accuracies. The code will be available at https://github.com/IrvingMeng/LCE.
- Abstract(参考訳): 新しいモデルをロールアウトする際の後方互換性の実現は、コストを大幅に削減したり、既存のギャラリーイメージをインプロダクションのビジュアル検索システムで再コーディングすることさえできる。
以前の関連作品は、通常、性能低下を引き起こすか互換性を保証しない、知識蒸留で使われる損失を利用する。
これらの課題に対処するために,クロスモデル互換性と,直接/前方/後方の両方のトレーニングに適用可能なLCE(Learning Compatible Embeddings)というフレームワークを提案する。
我々の互換性は、モデル間で直接または変換を介してクラスセンターを整列させ、新しいモデルのよりコンパクトなクラス内分布を制限することで達成される。
実験は、トレーニングデータセットの変更、損失関数、ネットワークアーキテクチャ、特徴次元などの広範なシナリオで実施され、LCEが精度の限界犠牲を伴うモデル互換性を効果的に実現できることを実証する。
コードはhttps://github.com/IrvingMeng/LCEで入手できる。
関連論文リスト
- Stationary Representations: Optimally Approximating Compatibility and Implications for Improved Model Replacements [20.96380700548786]
互換性のある表現を学習することで、モデルが時間とともに更新されるときに、セマンティックな機能の交換可能な使用が可能になる。
これは、ギャラリーイメージの更新モデルによる再処理を避けることが重要となる検索・検索システムにおいて特に重要である。
我々は,$d$-Simplex固定分類器によって学習された定常表現が,形式的定義の2つの不等式制約に従って最適に近似していることを示す。
論文 参考訳(メタデータ) (2024-05-04T06:31:38Z) - MixBCT: Towards Self-Adapting Backward-Compatible Training [66.52766344751635]
そこで本研究では,単純かつ高効率な後方互換性学習法であるMixBCTを提案する。
大規模顔認識データセットMS1Mv3とIJB-Cについて実験を行った。
論文 参考訳(メタデータ) (2023-08-14T05:55:38Z) - Boundary-aware Backward-Compatible Representation via Adversarial
Learning in Image Retrieval [17.995993499100017]
後方互換性トレーニング(BCT)は、検索性能に悪影響を与えることなく、2つのモデルの互換性を改善する。
本稿では,弾性境界制約付き逆向き学習法AdvBCTを紹介する。
本手法は,互換性と差別性の両方において,他のBCT法よりも優れる。
論文 参考訳(メタデータ) (2023-05-04T07:37:07Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - Learning Backward Compatible Embeddings [74.74171220055766]
バージョン更新の組込み問題と後方互換性について検討する。
後方互換性のある埋め込みの学習に基づくソリューションを開発する。
BC-Alignerと呼ばれる最良のメソッドは、複数のモデルバージョンが更新された後も、意図しないタスクとの後方互換性を維持していることを示す。
論文 参考訳(メタデータ) (2022-06-07T06:30:34Z) - Towards Universal Backward-Compatible Representation Learning [29.77801805854168]
バックフィルフリーモデルアップグレードをサポートするために、後方互換性のある表現学習が導入されている。
まず、モデルアップグレードにおいて、可能なすべてのデータ分割を網羅する、普遍的な後方互換性のある表現学習の新たな問題を導入する。
提案手法は,Universal Backward- Training (UniBCT) とよばれる,シンプルで効果的な手法である。
論文 参考訳(メタデータ) (2022-03-03T09:23:51Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - An Empirical Analysis of Backward Compatibility in Machine Learning
Systems [47.04803977692586]
MLモデルの改善を目的としたアップデートでは,下流システムやユーザに大きな影響を及ぼす可能性のある,新たなエラーが発生する可能性がある。
例えば、画像認識などのクラウドベースの分類サービスで使用されるモデルの更新は、予期しない誤った振る舞いを引き起こす可能性がある。
論文 参考訳(メタデータ) (2020-08-11T08:10:58Z) - Towards Backward-Compatible Representation Learning [86.39292571306395]
異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-26T14:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。