論文の概要: Attribute-Text Guided Forgetting Compensation for Lifelong Person Re-Identification
- arxiv url: http://arxiv.org/abs/2409.19954v1
- Date: Mon, 30 Sep 2024 05:19:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 16:37:45.619351
- Title: Attribute-Text Guided Forgetting Compensation for Lifelong Person Re-Identification
- Title(参考訳): 生涯的人物再同定のための属性・テキスト案内手形補償
- Authors: Shiben Liu, Huijie Fan, Qiang Wang, Weihong Ren, Yandong Tang,
- Abstract要約: LReID(Lifelong person re-identification)は、静止しないデータから継続的に学習し、異なる環境の個人をマッチングすることを目的としている。
現在のLReID手法は、タスク固有の知識に焦点をあて、ドメインギャップ内の固有のタスク共有表現を無視している。
本稿では,テキスト駆動型グローバル表現と属性関連ローカル表現を探索する,新しい属性テキストガイド型忘れ補償モデルを提案する。
- 参考スコア(独自算出の注目度): 8.841311088024584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lifelong person re-identification (LReID) aims to continuously learn from non-stationary data to match individuals in different environments. Each task is affected by variations in illumination and person-related information (such as pose and clothing), leading to task-wise domain gaps. Current LReID methods focus on task-specific knowledge and ignore intrinsic task-shared representations within domain gaps, limiting model performance. Bridging task-wise domain gaps is crucial for improving anti-forgetting and generalization capabilities, especially when accessing limited old classes during training. To address these issues, we propose a novel attribute-text guided forgetting compensation (ATFC) model, which explores text-driven global representations of identity-related information and attribute-related local representations of identity-free information for LReID. Due to the lack of paired text-image data, we design an attribute-text generator (ATG) to dynamically generate a text descriptor for each instance. We then introduce a text-guided aggregation network (TGA) to explore robust text-driven global representations for each identity and knowledge transfer. Furthermore, we propose an attribute compensation network (ACN) to investigate attribute-related local representations, which distinguish similar identities and bridge domain gaps. Finally, we develop an attribute anti-forgetting (AF) loss and knowledge transfer (KT) loss to minimize domain gaps and achieve knowledge transfer, improving model performance. Extensive experiments demonstrate that our ATFC method achieves superior performance, outperforming existing LReID methods by over 9.0$\%$/7.4$\%$ in average mAP/R-1 on the seen dataset.
- Abstract(参考訳): LReID(Lifelong person re-identification)は、静止しないデータから継続的に学習し、異なる環境の個人をマッチングすることを目的としている。
それぞれのタスクは照明のバリエーションや人物関連の情報(ポーズや衣服など)に影響され、タスクのドメインギャップが生じる。
現在のLReIDメソッドは、タスク固有の知識に注目し、ドメインギャップ内の固有のタスク共有表現を無視し、モデル性能を制限する。
タスクワイズドメインギャップのブリッジは、特にトレーニング中に限られた古いクラスにアクセスする場合、アンチフォッゲッティングと一般化機能を改善するために重要である。
これらの問題に対処するために,LReIDのための属性関連情報と属性関連ローカル表現をテキスト駆動でグローバルに表現するATFCモデルを提案する。
ペア化されたテキストイメージデータがないため、属性テキストジェネレータ(ATG)を設計し、各インスタンスのテキストディスクリプタを動的に生成する。
次に、テキスト誘導集約ネットワーク(TGA)を導入し、各アイデンティティと知識伝達のためのロバストなテキスト駆動グローバル表現を探索する。
さらに,属性関連局所表現を識別する属性補償ネットワーク (ACN) を提案する。
最後に、ドメインギャップを最小限に抑え、知識伝達を達成し、モデル性能を向上させるために、属性鍛造(AF)損失と知識伝達(KT)損失を開発する。
大規模な実験により,ATFC法は既存のLReID法よりも9.0$\%$/7.4$\%$平均mAP/R-1よりも優れた性能を示した。
関連論文リスト
- Cross-Domain Policy Transfer by Representation Alignment via Multi-Domain Behavioral Cloning [13.674493608667627]
本稿では、ドメイン間の共有潜在表現と、その上に共通の抽象ポリシーを学習する、ドメイン間ポリシー転送のためのシンプルなアプローチを提案する。
提案手法は,プロキシタスクの不整合軌道上でのマルチドメイン動作のクローン化と,ドメイン間のアライメントを促進するために,最大平均不整合(MMD)を正規化用語として利用する。
論文 参考訳(メタデータ) (2024-07-24T00:13:00Z) - Joint Identifiability of Cross-Domain Recommendation via Hierarchical Subspace Disentanglement [19.29182848154183]
CDR(Cross-Domain Recommendation)はドメイン間の効果的な知識伝達を実現する。
CDRは、ユーザ表現を2つのドメインにまたがる共同分布として記述するが、これらの方法は、その共同識別可能性を考慮していない。
本稿では,階層的部分空間のアンタングル化手法を提案し,ドメイン間結合分布の結合識別可能性について検討する。
論文 参考訳(メタデータ) (2024-04-06T03:11:31Z) - MADI: Inter-domain Matching and Intra-domain Discrimination for
Cross-domain Speech Recognition [9.385527436874096]
教師なしドメイン適応(UDA)は、ラベルなしのターゲットドメインの性能を改善することを目的としている。
ドメイン間マッチングとドメイン内識別(MADI)を用いた新しいUDAアプローチを提案する。
MADIは、クロスデバイスとクロス環境ASRの相対単語誤り率(WER)をそれぞれ17.7%、22.8%削減する。
論文 参考訳(メタデータ) (2023-02-22T09:11:06Z) - Adversarial Bi-Regressor Network for Domain Adaptive Regression [52.5168835502987]
ドメインシフトを軽減するために、クロスドメインレグレッタを学ぶことが不可欠です。
本稿では、より効果的なドメイン間回帰モデルを求めるために、ABRNet(Adversarial Bi-Regressor Network)を提案する。
論文 参考訳(メタデータ) (2022-09-20T18:38:28Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。