論文の概要: Bi-C2R: Bidirectional Continual Compatible Representation for Re-indexing Free Lifelong Person Re-identification
- arxiv url: http://arxiv.org/abs/2512.25000v1
- Date: Wed, 31 Dec 2025 17:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.730206
- Title: Bi-C2R: Bidirectional Continual Compatible Representation for Re-indexing Free Lifelong Person Re-identification
- Title(参考訳): Bi-C2R:自由寿命人物再識別のための双方向連続対応表現
- Authors: Zhenyu Cui, Jiahuan Zhou, Yuxin Peng,
- Abstract要約: L-ReID(Lifelong person Re-IDentification)は、シーケンシャルに収集されたデータを利用して、ReIDモデルを継続的にトレーニングし、更新する。
既存のL-ReIDメソッドは通常、更新毎に推論のためにすべての歴史的なギャラリーイメージの新機能を再抽出し、"re-indexing"と呼ばれる。
本稿では, 生涯にわたる人物再識別を行うために, 過去のギャラリー画像を再インデックスすることなく, 生涯にわたる人物再識別を行う「Re-index Free Lifelong person Re-IDentification (RFL-ReID)」というタスクに焦点を当てる。
- 参考スコア(独自算出の注目度): 77.07028925223383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lifelong person Re-IDentification (L-ReID) exploits sequentially collected data to continuously train and update a ReID model, focusing on the overall performance of all data. Its main challenge is to avoid the catastrophic forgetting problem of old knowledge while training on new data. Existing L-ReID methods typically re-extract new features for all historical gallery images for inference after each update, known as "re-indexing". However, historical gallery data typically suffers from direct saving due to the data privacy issue and the high re-indexing costs for large-scale gallery images. As a result, it inevitably leads to incompatible retrieval between query features extracted by the updated model and gallery features extracted by those before the update, greatly impairing the re-identification performance. To tackle the above issue, this paper focuses on a new task called Re-index Free Lifelong person Re-IDentification (RFL-ReID), which requires performing lifelong person re-identification without re-indexing historical gallery images. Therefore, RFL-ReID is more challenging than L-ReID, requiring continuous learning and balancing new and old knowledge in diverse streaming data, and making the features output by the new and old models compatible with each other. To this end, we propose a Bidirectional Continuous Compatible Representation (Bi-C2R) framework to continuously update the gallery features extracted by the old model to perform efficient L-ReID in a compatible manner. We verify our proposed Bi-C2R method through theoretical analysis and extensive experiments on multiple benchmarks, which demonstrate that the proposed method can achieve leading performance on both the introduced RFL-ReID task and the traditional L-ReID task.
- Abstract(参考訳): L-ReID(Lifelong person Re-IDentification)は、シーケンシャルに収集されたデータを利用して、ReIDモデルを継続的にトレーニングし、更新する。
その主な課題は、新しいデータをトレーニングしながら、古い知識の破滅的な忘れの問題を避けることである。
既存のL-ReIDメソッドは通常、更新毎に推論のためにすべての歴史的なギャラリーイメージの新機能を再抽出し、"re-indexing"と呼ばれる。
しかし、歴史的ギャラリーデータは通常、データプライバシーの問題と大規模なギャラリー画像の再インデックスコストのために、直接の節約に苦しむ。
その結果、更新されたモデルによって抽出されたクエリ機能と、更新前のモデルによって抽出されたギャラリー機能との互換性のない検索が必然的に行われ、再識別性能が著しく低下する。
この課題に対処するために,本稿では,歴史ギャラリーイメージを再編集することなく,生涯にわたる人物の再識別を必要とするRe-index Free Lifelong person Re-IDentification (RFL-ReID) という新たな課題に焦点を当てる。
したがって、RFL-ReIDはL-ReIDよりも困難であり、継続的な学習と多様なストリーミングデータにおける新しい知識と古い知識のバランスを必要とし、新しいモデルと古いモデルによって出力される特徴を相互に互換性を持たせる。
そこで本研究では,従来のモデルで抽出したギャラリー機能を継続的に更新し,効率の良いL-ReIDを実現するための双方向連続コンパチブル表現(Bi-C2R)フレームワークを提案する。
提案手法は, 提案したRFL-ReIDタスクと従来のL-ReIDタスクの両方において, 先行的な性能を実現することができることを示す。
関連論文リスト
- CFReID: Continual Few-shot Person Re-Identification [127.60234742605832]
Lifelong ReIDは、複数のドメインにまたがる知識を漸進的に学習し、蓄積するために提案されている。
LReIDモデルは、一般にプライバシとコストの懸念のためにアクセスできない、目に見えない各ドメインの大規模ラベル付きデータでトレーニングする必要がある。
本稿では,数ショットデータを用いてモデルをインクリメンタルにトレーニングし,すべてのドメインでテストするContinual Few-shot ReIDを提案する。
論文 参考訳(メタデータ) (2025-03-24T09:17:05Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Lifelong Person Re-Identification with Backward-Compatibility [9.94228688034577]
LReID (Lifelong person re-identification) は、連続的にやってくるデータセットに基づいてモデルを逐次訓練する現実的なシナリオを前提としている。
本稿では,LReIDの後方互換性を初めて取り入れることで,上記の問題に対処する。
論文 参考訳(メタデータ) (2024-03-15T05:08:59Z) - VILLS -- Video-Image Learning to Learn Semantics for Person Re-Identification [51.89551385538251]
VILLS (Video-Image Learning to Learn Semantics) は画像やビデオから空間的特徴と時間的特徴を共同で学習する自己教師型手法である。
VILLSはまず、意味的一貫性と頑健な空間的特徴を適応的に抽出する局所意味抽出モジュールを設計する。
そして、VILLSは、一貫した特徴空間における画像とビデオのモダリティを表現するために、統合された特徴学習および適応モジュールを設計する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Continual Referring Expression Comprehension via Dual Modular
Memorization [133.46886428655426]
Referring Expression (REC) は、自然言語で記述された対象のイメージ領域をローカライズすることを目的としている。
既存のRECアルゴリズムは、モデルへのデータ供給のトレーニングを前もって行うと強く仮定する。
本稿では、入ってくるタスクのストリーム上でモデルが学習するRECの新しい設定である連続参照表現(CREC)を提案する。
学習済みの知識を忘れずに,スクラッチから繰り返し再学習することなく,逐次的タスクのモデルを継続的に改善するために,デュアルモジュール記憶法という効果的なベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:58:51Z) - Lifelong Person Re-Identification via Knowledge Refreshing and
Consolidation [35.43406281230279]
Lifelong person re-identification (LReID)の鍵となる課題は、古い知識を段階的に保存し、徐々に新しい能力をシステムに追加する方法である。
体性感覚性新皮質と海馬が協調して記憶統合を行う人間の認知の生物学的過程に着想を得て,我々は知識リフレッシュ・アンド・コンソリデーション(KRC)と呼ばれるモデルを構築した。
より具体的には、双方向の知識伝達を可能にするための知識リフレッシュ方式に知識リハーサル機構が組み込まれている。
論文 参考訳(メタデータ) (2022-11-29T13:39:45Z) - Handling Label Uncertainty for Camera Incremental Person
Re-Identification [17.5026399908583]
人の再識別のためのインクリメンタルラーニング(ReID)は、継続的データストリームでトレーニング可能なモデルを開発することを目的としている。
新しいカメラから収集された新しいデータは、おそらくこれまで見たことのない量のIDを含んでいるかもしれない。
クラス重複問題に対処する新しいフレームワークExtendedOVAを提案する。
論文 参考訳(メタデータ) (2022-10-17T02:59:54Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。