論文の概要: Color Prompting for Data-Free Continual Unsupervised Domain Adaptive
Person Re-Identification
- arxiv url: http://arxiv.org/abs/2308.10716v1
- Date: Mon, 21 Aug 2023 13:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:17:41.653411
- Title: Color Prompting for Data-Free Continual Unsupervised Domain Adaptive
Person Re-Identification
- Title(参考訳): データフリー連続教師なしドメイン適応型人物再同定のためのカラープロンプト
- Authors: Jianyang Gu, Hao Luo, Kai Wang, Wei Jiang, Yang You, Jian Zhao
- Abstract要約: そこで本研究では,データフリーな非教師付きドメイン適応型Re-IDのためのColorPrompting(CoP)手法を提案する。
CoPは過去のタスクに対して適切なデータ多様性で正確なカラースタイルのリカバリを実現し、より優れたアンチフォッゲッティング効果をもたらす。
- 参考スコア(独自算出の注目度): 20.863879145749895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptive person re-identification (Re-ID) methods
alleviate the burden of data annotation through generating pseudo supervision
messages. However, real-world Re-ID systems, with continuously accumulating
data streams, simultaneously demand more robust adaptation and anti-forgetting
capabilities. Methods based on image rehearsal addresses the forgetting issue
with limited extra storage but carry the risk of privacy leakage. In this work,
we propose a Color Prompting (CoP) method for data-free continual unsupervised
domain adaptive person Re-ID. Specifically, we employ a light-weighted prompter
network to fit the color distribution of the current task together with Re-ID
training. Then for the incoming new tasks, the learned color distribution
serves as color style transfer guidance to transfer the images into past
styles. CoP achieves accurate color style recovery for past tasks with adequate
data diversity, leading to superior anti-forgetting effects compared with image
rehearsal methods. Moreover, CoP demonstrates strong generalization performance
for fast adaptation into new domains, given only a small amount of unlabeled
images. Extensive experiments demonstrate that after the continual training
pipeline the proposed CoP achieves 6.7% and 8.1% average rank-1 improvements
over the replay method on seen and unseen domains, respectively. The source
code for this work is publicly available in
https://github.com/vimar-gu/ColorPromptReID.
- Abstract(参考訳): unsupervised domain adaptive person re-idification (re-id)メソッドは疑似監督メッセージを生成してデータアノテーションの負担を軽減する。
しかし、データストリームを継続的に蓄積する現実世界のRe-IDシステムは、より堅牢な適応とアンチフォッゲッティング機能を要求する。
イメージリハーサルに基づくメソッドは、リハーサルの問題を限定的なストレージで解決するが、プライバシリークのリスクを負う。
本研究では,データフリーな非教師付きドメイン適応型Re-IDのためのカラープロンプティング(CoP)手法を提案する。
具体的には、現在のタスクの色分布をRe-IDトレーニングに合わせるために、軽量プロンプトネットワークを用いる。
そして、入ってくる新しいタスクに対して、学習された色分布は、過去のスタイルに画像を転送するカラースタイルの転送ガイダンスとして機能する。
CoPは過去のタスクに対して適切なデータ多様性で正確な色調回復を実現し、画像リハーサル法と比較して優れたアンチフォッゲッティング効果をもたらす。
さらにCoPは、少数の未ラベル画像のみを考慮し、新しい領域への高速適応のための強力な一般化性能を示す。
連続的なトレーニングパイプラインの後に提案されたCoPは、目に見える領域と見えない領域におけるリプレイ法よりも平均ランク-1の改善が6.7%と8.1%に達することを示した。
この作業のソースコードはhttps://github.com/vimar-gu/ColorPromptReIDで公開されている。
関連論文リスト
- Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Learning to See Low-Light Images via Feature Domain Adaptation [17.033219611079165]
そこで我々は,特徴領域適応(FDA)によって強化された単一段階ネットワークを提案し,生のLLIEにおけるデノイングとカラーマッピングのタスクを分離する。
FDAは、ラインバッファを減らすことで、グローバルとローカルの相関関係を探索することができる。
本手法は,計算コストを削減して最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T03:38:26Z) - Visible-Infrared Person Re-Identification Using Privileged Intermediate
Information [10.816003787786766]
クロスモーダルな人物再識別(ReID)は、RGBとIRモダリティ間のデータ分散の大きなドメインシフトのために困難である。
本稿では2つのメインドメイン間のブリッジとして機能する中間仮想ドメインを作成するための新しいアプローチを提案する。
我々は、深いReIDモデルをトレーニングするための追加情報を提供する、可視領域と赤外線領域間の画像を生成する新しい手法を考案した。
論文 参考訳(メタデータ) (2022-09-19T21:08:14Z) - ParaColorizer: Realistic Image Colorization using Parallel Generative
Networks [1.7778609937758327]
グレースケール画像のカラー化は、情報復元のためのAIの魅力的な応用である。
並列なGANベースのカラー化フレームワークを提案する。
マルチモーダル問題を評価するために一般的に使用される非知覚的評価指標の欠点を示す。
論文 参考訳(メタデータ) (2022-08-17T13:49:44Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。