論文の概要: Towards Backward-Compatible Representation Learning
- arxiv url: http://arxiv.org/abs/2003.11942v3
- Date: Wed, 6 Jan 2021 06:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 22:00:21.036659
- Title: Towards Backward-Compatible Representation Learning
- Title(参考訳): 後方対応型表現学習に向けて
- Authors: Yantao Shen, Yuanjun Xiong, Wei Xia, and Stefano Soatto
- Abstract要約: 異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 86.39292571306395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a way to learn visual features that are compatible with previously
computed ones even when they have different dimensions and are learned via
different neural network architectures and loss functions. Compatible means
that, if such features are used to compare images, then "new" features can be
compared directly to "old" features, so they can be used interchangeably. This
enables visual search systems to bypass computing new features for all
previously seen images when updating the embedding models, a process known as
backfilling. Backward compatibility is critical to quickly deploy new embedding
models that leverage ever-growing large-scale training datasets and
improvements in deep learning architectures and training methods. We propose a
framework to train embedding models, called backward-compatible training (BCT),
as a first step towards backward compatible representation learning. In
experiments on learning embeddings for face recognition, models trained with
BCT successfully achieve backward compatibility without sacrificing accuracy,
thus enabling backfill-free model updates of visual embeddings.
- Abstract(参考訳): 異なる次元を持ち、異なるニューラルネットワークアーキテクチャと損失関数を通じて学習した場合でも、以前計算したものと互換性のある視覚特徴を学習する方法を提案する。
互換性とは、そのような機能がイメージを比較するために使用される場合、"新しい"フィーチャを"古い"機能と直接比較することができるということです。
これにより、視覚検索システムは、埋め込みモデル(バックフィルと呼ばれるプロセス)を更新する際に、以前に見たすべての画像の新機能をバイパスすることができる。
成長を続ける大規模トレーニングデータセットとディープラーニングアーキテクチャとトレーニング方法の改善を活用する、新たな組み込みモデルの迅速なデプロイには、後方互換性が不可欠である。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルの学習フレームワークを提案する。
顔認識のための学習埋め込みの実験では、bctでトレーニングされたモデルは精度を犠牲にすることなく後方互換性を実現し、視覚埋め込みのバックフィルフリーモデル更新を可能にした。
関連論文リスト
- Backward-Compatible Aligned Representations via an Orthogonal Transformation Layer [20.96380700548786]
画像検索システムは、古い表現と新しい表現のミスアライメントにより、表現が改善されたモデルを更新する際の課題に直面している。
以前の研究では、バックフィルなしで新しい表現と古い表現を直接比較できる後方互換性のあるトレーニング方法が検討されてきた。
本稿では、後方互換性と独立に訓練されたモデルの性能のバランスをとることに取り組む。
論文 参考訳(メタデータ) (2024-08-16T15:05:28Z) - MixBCT: Towards Self-Adapting Backward-Compatible Training [66.52766344751635]
そこで本研究では,単純かつ高効率な後方互換性学習法であるMixBCTを提案する。
大規模顔認識データセットMS1Mv3とIJB-Cについて実験を行った。
論文 参考訳(メタデータ) (2023-08-14T05:55:38Z) - Boundary-aware Backward-Compatible Representation via Adversarial
Learning in Image Retrieval [17.995993499100017]
後方互換性トレーニング(BCT)は、検索性能に悪影響を与えることなく、2つのモデルの互換性を改善する。
本稿では,弾性境界制約付き逆向き学習法AdvBCTを紹介する。
本手法は,互換性と差別性の両方において,他のBCT法よりも優れる。
論文 参考訳(メタデータ) (2023-05-04T07:37:07Z) - Forward Compatible Few-Shot Class-Incremental Learning [71.2459746681805]
機械学習モデルは、古いクラスを忘れずに新しいクラスを認識するべきである。
現在の手法は漸進的な学習をふりかえりに扱う。
FSCILのためのForwArd Compatible Training (FACT)を提案する。
論文 参考訳(メタデータ) (2022-03-14T09:36:35Z) - Towards Universal Backward-Compatible Representation Learning [29.77801805854168]
バックフィルフリーモデルアップグレードをサポートするために、後方互換性のある表現学習が導入されている。
まず、モデルアップグレードにおいて、可能なすべてのデータ分割を網羅する、普遍的な後方互換性のある表現学習の新たな問題を導入する。
提案手法は,Universal Backward- Training (UniBCT) とよばれる,シンプルで効果的な手法である。
論文 参考訳(メタデータ) (2022-03-03T09:23:51Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - Neighborhood Consensus Contrastive Learning for Backward-Compatible
Representation [46.86784621137665]
古い"機能と互換性のある"新しい"機能を可能にするために、後方互換性のある表現が提案されている。
本稿では,近隣のコンセンサス・コントラスト・ラーニング(NCCL)手法を提案する。
提案手法は,新しいモデルの精度を損なうことなく後方互換性を確保する。
論文 参考訳(メタデータ) (2021-08-07T05:50:47Z) - Learning Compatible Embeddings [4.926613940939671]
新しいモデルをロールアウトする際の後方互換性は、コストを大幅に削減したり、既存のギャラリーイメージをインプロダクションのビジュアル検索システムに再エンコードしたりすることさえできる。
本稿では,クロスモデル互換性と,直接/前方/後方協調学習の両方に適用可能なLCE(Learning Compatible Embeddings)というフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-04T10:48:41Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。