論文の概要: Privacy-Preserving Model Upgrades with Bidirectional Compatible Training
in Image Retrieval
- arxiv url: http://arxiv.org/abs/2204.13919v1
- Date: Fri, 29 Apr 2022 07:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 14:42:02.086458
- Title: Privacy-Preserving Model Upgrades with Bidirectional Compatible Training
in Image Retrieval
- Title(参考訳): 画像検索における双方向互換トレーニングによるプライバシ保護モデルの改善
- Authors: Shupeng Su, Binjie Zhang, Yixiao Ge, Xuyuan Xu, Yexin Wang, Chun Yuan,
Ying Shan
- Abstract要約: BiCT(Bidirectional Compatible Training)と呼ばれる新しいモデルアップグレードパラダイムを提案する。
BiCTは、後方互換性のある新しいモデルの埋め込み空間に向けて前方互換性のあるトレーニングによって、古いギャラリーの埋め込みをアップグレードする。
我々は、BiCTによる顕著な改善を検証するための総合的な実験を行い、後方互換性の不都合な損失重みが、実際に後方および前方検索性能において重要な役割を担っていることを観察した。
- 参考スコア(独自算出の注目度): 28.268764435617975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of privacy-preserving model upgrades in image retrieval desires to
reap the benefits of rapidly evolving new models without accessing the raw
gallery images. A pioneering work introduced backward-compatible training,
where the new model can be directly deployed in a backfill-free manner, i.e.,
the new query can be directly compared to the old gallery features. Despite a
possible solution, its improvement in sequential model upgrades is gradually
limited by the fixed and under-quality old gallery embeddings. To this end, we
propose a new model upgrade paradigm, termed Bidirectional Compatible Training
(BiCT), which will upgrade the old gallery embeddings by forward-compatible
training towards the embedding space of the backward-compatible new model. We
conduct comprehensive experiments to verify the prominent improvement by BiCT
and interestingly observe that the inconspicuous loss weight of backward
compatibility actually plays an essential role for both backward and forward
retrieval performance. To summarize, we introduce a new and valuable problem
named privacy-preserving model upgrades, with a proper solution BiCT. Several
intriguing insights are further proposed to get the most out of our method.
- Abstract(参考訳): 画像検索におけるプライバシ保存モデルの課題は、生のギャラリー画像にアクセスすることなく、急速に進化する新しいモデルの利点を享受することにある。
バックフィルのない方法で新しいモデルを直接デプロイできる、すなわち、新しいクエリは古いギャラリー機能と直接比較できる、後方互換性のあるトレーニングを導入した先駆的な作業である。
可能な解決策にもかかわらず、シーケンシャルモデルのアップグレードにおける改善は、固定および低品質の古いギャラリー埋め込みによって徐々に制限される。
この目的のために,双方向対応型トレーニング(bict)と呼ばれる新しいモデルアップグレードパラダイムを提案し,後方互換型新モデルの組込み空間に向けて,前方互換型トレーニングにより旧ギャラリー組込みをアップグレードする。
我々はBiCTによる顕著な改善を検証するための総合的な実験を行い、後方互換性の不都合な損失重みが後方検索と前方検索の両方に重要であることを興味深い観察を行った。
要約すると、プライバシ保護モデルアップグレードと呼ばれる新しい価値ある問題を、適切なソリューションBiCTで導入する。
我々の手法を最大限に活用するために、いくつかの興味深い洞察が提案されている。
関連論文リスト
- Backward-Compatible Aligned Representations via an Orthogonal Transformation Layer [20.96380700548786]
画像検索システムは、古い表現と新しい表現のミスアライメントにより、表現が改善されたモデルを更新する際の課題に直面している。
以前の研究では、バックフィルなしで新しい表現と古い表現を直接比較できる後方互換性のあるトレーニング方法が検討されてきた。
本稿では、後方互換性と独立に訓練されたモデルの性能のバランスをとることに取り組む。
論文 参考訳(メタデータ) (2024-08-16T15:05:28Z) - MixBCT: Towards Self-Adapting Backward-Compatible Training [66.52766344751635]
そこで本研究では,単純かつ高効率な後方互換性学習法であるMixBCTを提案する。
大規模顔認識データセットMS1Mv3とIJB-Cについて実験を行った。
論文 参考訳(メタデータ) (2023-08-14T05:55:38Z) - Boundary-aware Backward-Compatible Representation via Adversarial
Learning in Image Retrieval [17.995993499100017]
後方互換性トレーニング(BCT)は、検索性能に悪影響を与えることなく、2つのモデルの互換性を改善する。
本稿では,弾性境界制約付き逆向き学習法AdvBCTを紹介する。
本手法は,互換性と差別性の両方において,他のBCT法よりも優れる。
論文 参考訳(メタデータ) (2023-05-04T07:37:07Z) - Online Backfilling with No Regret for Large-Scale Image Retrieval [50.162438586686356]
バックフィルは、画像検索システムにおいて、アップグレードされたモデルからすべてのギャラリー埋め込みを再抽出するプロセスである。
本稿では,オンラインのバックフィルアルゴリズムを提案し,バックフィル処理の進行的な性能向上を実現する。
我々は、逆変換モジュールをより効果的で効率的なマージに組み込み、メトリック互換のコントラスト学習アプローチを採用することでさらに強化する。
論文 参考訳(メタデータ) (2023-01-10T03:10:32Z) - $BT^2$: Backward-compatible Training with Basis Transformation [107.37014712361788]
検索システムは、より良い表現モデルに更新する際に、ギャラリー内のすべてのデータの表現を再計算する必要があることが多い。
このプロセスはバックフィルとして知られており、ギャラリーが何十億ものサンプルを含んでいる現実世界では特にコストがかかる。
近年、研究者らは、新しい表現モデルを補助的損失で訓練し、古い表現と後方互換性を持たせることができる、後方互換性トレーニング(BCT)のアイデアを提案している。
論文 参考訳(メタデータ) (2022-11-08T04:00:23Z) - Darwinian Model Upgrades: Model Evolving with Selective Compatibility [29.920204547961696]
BCTは、バックフィルをなくすために後方互換性のあるモデルアップグレードに向けた第一歩を提示する。
本稿では,DMU(Darwinian Model Upgrades)を提案する。
DMUは、新しい劣化を効果的に軽減し、新しい互換性を改善し、大規模検索システムにおいてより適切なモデルアップグレードパラダイムを提供する。
論文 参考訳(メタデータ) (2022-10-13T12:28:48Z) - Towards Universal Backward-Compatible Representation Learning [29.77801805854168]
バックフィルフリーモデルアップグレードをサポートするために、後方互換性のある表現学習が導入されている。
まず、モデルアップグレードにおいて、可能なすべてのデータ分割を網羅する、普遍的な後方互換性のある表現学習の新たな問題を導入する。
提案手法は,Universal Backward- Training (UniBCT) とよばれる,シンプルで効果的な手法である。
論文 参考訳(メタデータ) (2022-03-03T09:23:51Z) - Hot-Refresh Model Upgrades with Regression-Alleviating Compatible
Training in Image Retrieval [34.84329831602699]
コールド・リフレッシュモデルのアップグレードは、ギャラリー全体のバックフィルが完了した後のみ、新しいモデルをデプロイできる。
対照的に、ホットリフレッシュモデルのアップグレードでは、新しいモデルを即座にデプロイし、その後、ギャラリーをオンザフライでバックフィルすることで、検索精度を徐々に改善する。
論文 参考訳(メタデータ) (2022-01-24T14:59:12Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - Neighborhood Consensus Contrastive Learning for Backward-Compatible
Representation [46.86784621137665]
古い"機能と互換性のある"新しい"機能を可能にするために、後方互換性のある表現が提案されている。
本稿では,近隣のコンセンサス・コントラスト・ラーニング(NCCL)手法を提案する。
提案手法は,新しいモデルの精度を損なうことなく後方互換性を確保する。
論文 参考訳(メタデータ) (2021-08-07T05:50:47Z) - Towards Backward-Compatible Representation Learning [86.39292571306395]
異なる次元であっても,従来の計算機能と互換性のある視覚的特徴を学習する方法を提案する。
これにより、埋め込みモデルを更新する際に、以前見たすべての画像の新機能の計算を回避できる。
本稿では、後方互換表現学習の第一歩として、後方互換学習(BCT)と呼ばれる埋め込みモデルを訓練するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-26T14:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。