論文の概要: Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting
- arxiv url: http://arxiv.org/abs/2205.03307v1
- Date: Fri, 6 May 2022 15:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 12:43:40.435354
- Title: Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting
- Title(参考訳): Forget Less, Count Better: 生涯集団計数のためのドメイン・インクリメンタルな自己蒸留学習ベンチマーク
- Authors: Jiaqi Gao, Jingqi Li, Hongming Shan, Yanyun Qu, James Z. Wang, Junping
Zhang
- Abstract要約: オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
- 参考スコア(独自算出の注目度): 51.44987756859706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowd Counting has important applications in public safety and pandemic
control. A robust and practical crowd counting system has to be capable of
continuously learning with the new-coming domain data in real-world scenarios
instead of fitting one domain only. Off-the-shelf methods have some drawbacks
to handle multiple domains. 1) The models will achieve limited performance
(even drop dramatically) among old domains after training images from new
domains due to the discrepancies of intrinsic data distributions from various
domains, which is called catastrophic forgetting. 2) The well-trained model in
a specific domain achieves imperfect performance among other unseen domains
because of the domain shift. 3) It leads to linearly-increased storage overhead
either mixing all the data for training or simply training dozens of separate
models for different domains when new ones are available. To overcome these
issues, we investigate a new task of crowd counting under the incremental
domains training setting, namely, Lifelong Crowd Counting. It aims at
alleviating the catastrophic forgetting and improving the generalization
ability using a single model updated by the incremental domains. To be more
specific, we propose a self-distillation learning framework as a
benchmark~(Forget Less, Count Better, FLCB) for lifelong crowd counting, which
helps the model sustainably leverage previous meaningful knowledge for better
crowd counting to mitigate the forgetting when the new data arrive. Meanwhile,
a new quantitative metric, normalized backward transfer~(nBwT), is developed to
evaluate the forgetting degree of the model in the lifelong learning process.
Extensive experimental results demonstrate the superiority of our proposed
benchmark in achieving a low catastrophic forgetting degree and strong
generalization ability.
- Abstract(参考訳): 群衆カウントは公衆安全とパンデミック管理に重要な応用がある。
堅牢で実用的なクラウドカウントシステムは、1つのドメインのみに当てはまるのではなく、現実世界のシナリオで新しいドメインデータを使って継続的に学習できる必要があります。
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
1)各ドメインの内在データ分布の相違により,新ドメインの画像のトレーニング後に旧ドメイン間での限られた性能(たとえ劇的に低下しても)が達成される。
2) 特定のドメインのよく訓練されたモデルは、ドメインシフトのため、他の見えないドメイン間の不完全なパフォーマンスを達成する。
3) トレーニング用のすべてのデータを混在させたり,あるいは新しいドメインが利用可能になった時に,数十の別々のモデルをトレーニングするだけで,ストレージオーバーヘッドがリニアに増加します。
これらの課題を克服するために, インクリメンタル・ドメイン・トレーニング・セッティング, すなわち, 生涯のオーディエンス・カウントという新しい課題について検討した。
インクリメンタルドメインによって更新された単一のモデルを使用して、破滅的な忘れを緩和し、一般化能力を改善することを目的としている。
より具体的には、一生涯の群衆カウントのためのベンチマークとして、自己蒸留学習フレームワークを提案する。このフレームワークは、新しいデータが到着したときの忘れを緩和するために、以前の有意義な知識を持続的に活用するのに役立つ。
一方、生涯学習過程におけるモデルの忘れ度を評価するために、新しい量的計量である正規化後方移動~(nBwT)を開発した。
広範な実験結果から,提案するベンチマークは,低い破壊的忘れやすさと強い一般化能力を達成する上で優れていることが示された。
関連論文リスト
- Multivariate Prototype Representation for Domain-Generalized Incremental
Learning [35.83706574551515]
我々は、古いクラスを記憶し、新しいクラスに適応し、見えないドメインから確実にオブジェクトを分類できるDGCILアプローチを設計する。
我々の損失定式化は、分類境界を維持し、各クラスのドメイン固有情報を抑圧する。
論文 参考訳(メタデータ) (2023-09-24T06:42:04Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Unsupervised Lifelong Person Re-identification via Contrastive Rehearsal [7.983523975392535]
ReIDは、新しいドメインに対する教師なしドメイン適応を継続的に実施することに焦点を当てている。
古い知識に合った方法でモデル更新を正規化するために、古いモデルと新しいモデルの画像間類似性制約を設定しました。
提案手法は, 従来手法に比べて, 目に見える領域と目に見えない領域の両方で有意に優れていた, 高い一般化性を実現する。
論文 参考訳(メタデータ) (2022-03-12T15:44:08Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - $n$-Reference Transfer Learning for Saliency Prediction [73.17061116358036]
本稿では,サリエンシ予測のための数発のトランスファー学習パラダイムを提案する。
提案するフレームワークは勾配ベースでモデルに依存しない。
その結果,提案フレームワークは大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2020-07-09T23:20:44Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。