論文の概要: DASK: Distribution Rehearsing via Adaptive Style Kernel Learning for Exemplar-Free Lifelong Person Re-Identification
- arxiv url: http://arxiv.org/abs/2412.09224v1
- Date: Thu, 12 Dec 2024 12:26:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:32:27.472199
- Title: DASK: Distribution Rehearsing via Adaptive Style Kernel Learning for Exemplar-Free Lifelong Person Re-Identification
- Title(参考訳): DASK: 初期無生活者再同定のための適応型カーネル学習による配電リハーサル
- Authors: Kunlun Xu, Chenghao Jiang, Peixi Xiong, Yuxin Peng, Jiahuan Zhou,
- Abstract要約: 生涯人物再識別(LReID)は、破滅的な忘れ込みに苦しむ重要な課題であるが難しい課題である。
既存のLReIDアプローチは通常、この問題を軽減するためにデータ再生と知識蒸留に依存している。
本稿では,知識統合を強化するために,旧領域の分布をモデル化し,リハーサルする新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 36.13760389545136
- License:
- Abstract: Lifelong person re-identification (LReID) is an important but challenging task that suffers from catastrophic forgetting due to significant domain gaps between training steps. Existing LReID approaches typically rely on data replay and knowledge distillation to mitigate this issue. However, data replay methods compromise data privacy by storing historical exemplars, while knowledge distillation methods suffer from limited performance due to the cumulative forgetting of undistilled knowledge. To overcome these challenges, we propose a novel paradigm that models and rehearses the distribution of the old domains to enhance knowledge consolidation during the new data learning, possessing a strong anti-forgetting capacity without storing any exemplars. Specifically, we introduce an exemplar-free LReID method called Distribution Rehearsing via Adaptive Style Kernel Learning (DASK). DASK includes a Distribution Rehearser Learning mechanism that learns to transform arbitrary distribution data into the current data style at each learning step. To enhance the style transfer capacity of DRL, an Adaptive Kernel Prediction network is explored to achieve an instance-specific distribution adjustment. Additionally, we design a Distribution Rehearsing-driven LReID Training module, which rehearses old distribution based on the new data via the old AKPNet model, achieving effective new-old knowledge accumulation under a joint knowledge consolidation scheme. Experimental results show our DASK outperforms the existing methods by 3.6%-6.8% and 4.5%-6.5% on anti-forgetting and generalization capacity, respectively. Our code is available at https://github.com/zhoujiahuan1991/AAAI2025-DASK
- Abstract(参考訳): LReID(Lifelong person re-identification)は、トレーニングステップ間のドメインギャップが大きいため、破滅的な忘れ込みに苦しむ重要なタスクである。
既存のLReIDアプローチは通常、この問題を軽減するためにデータ再生と知識蒸留に依存している。
しかし,データ再生手法は過去の事例を記憶することでデータのプライバシーを損なうが,知識蒸留法は未蒸留知識の累積的忘れ込みにより,限られた性能に悩まされる。
これらの課題を克服するために、我々は、新しいデータ学習における知識統合を強化するために、古いドメインの分布をモデル化し、リハーサルする新しいパラダイムを提案する。
具体的には,Adaptive Style Kernel Learning (DASK) による分散リハーサル(distribution Rehearsing)と呼ばれる,非定型LReID方式を提案する。
DASKには、任意の分散データを学習ステップ毎に現在のデータスタイルに変換することを学ぶ分散リハーサル学習メカニズムが含まれている。
DRLのスタイル伝達能力を高めるため、適応カーネル予測ネットワークを探索し、インスタンス固有の分布調整を実現する。
さらに,従来のAKPNetモデルによる新しいデータに基づいて,従来の分布をリハーサルする分散リハーサル駆動型LReIDトレーニングモジュールを設計し,共同知識統合スキームの下で有効な新旧知識蓄積を実現する。
実験の結果,DASKは従来の手法よりも3.6%-6.8%,4.5%-6.5%優れていた。
私たちのコードはhttps://github.com/zhoujiahuan 1991/AAAI2025-DASKで利用可能です。
関連論文リスト
- Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Small Scale Data-Free Knowledge Distillation [37.708282211941416]
小型データフリーな知識蒸留SSD-KDを提案する。
SSD-KDは、適切なサンプルを選択するために、合成サンプルと優先サンプリング関数のバランスをとる。
非常に少量の合成サンプルで蒸留訓練を行うことができる。
論文 参考訳(メタデータ) (2024-06-12T05:09:41Z) - Distribution Aligned Semantics Adaption for Lifelong Person Re-Identification [43.32960398077722]
Re-IDシステムは、空間と時間の変化に適応する必要がある。
LReID(Lifelong person Re-IDentification)メソッドは、古いドメインからの例証の再生と、古いモデルでロジットに知識蒸留を適用することに依存している。
多様な歩行者画像に基づいて大規模に訓練されたRe-IDモデルは、堅牢で一般的な人間の意味知識を得ることができると論じる。
論文 参考訳(メタデータ) (2024-05-30T05:15:38Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Adapt Your Teacher: Improving Knowledge Distillation for Exemplar-free
Continual Learning [14.379472108242235]
正規化戦略として知識蒸留(KD)を併用した模範自由クラスインクリメンタルラーニング(CIL)について検討した。
KDベースの手法はCILでうまく使われているが、以前のタスクからトレーニングデータの例にアクセスできることなくモデルを規則化するのに苦労することが多い。
近年の試験時間適応法に触発されて,インクリメンタルトレーニング中に教師と主要モデルを同時に更新する手法であるTeacher Adaptation (TA)を紹介した。
論文 参考訳(メタデータ) (2023-08-18T13:22:59Z) - Distribution Shift Matters for Knowledge Distillation with Webly
Collected Images [91.66661969598755]
異なる分布間の知識蒸留という新しい手法を提案する(KD$3$)。
まず,教師ネットワークと学生ネットワークの併用予測に基づいて,Webで収集したデータから有用なトレーニングインスタンスを動的に選択する。
また、MixDistributionと呼ばれる新しいコントラスト学習ブロックを構築して、新しい分散のインスタンスアライメントで摂動データを生成します。
論文 参考訳(メタデータ) (2023-07-21T10:08:58Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。