論文の概要: Towards Better De-raining Generalization via Rainy Characteristics Memorization and Replay
- arxiv url: http://arxiv.org/abs/2506.02477v1
- Date: Tue, 03 Jun 2025 05:50:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.303833
- Title: Towards Better De-raining Generalization via Rainy Characteristics Memorization and Replay
- Title(参考訳): 降雨特性記憶とリプレイによるデライニングの一般化に向けて
- Authors: Kunyu Wang, Xueyang Fu, Chengzhi Cao, Chengjie Ge, Wei Zhai, Zheng-Jun Zha,
- Abstract要約: 現在の画像のデライニング方法は、主に限られたデータセットから学習する。
ネットワークが段階的にデライニングの知識基盤を拡大することを可能にする新しいフレームワークを導入する。
- 参考スコア(独自算出の注目度): 74.54047495424618
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current image de-raining methods primarily learn from a limited dataset, leading to inadequate performance in varied real-world rainy conditions. To tackle this, we introduce a new framework that enables networks to progressively expand their de-raining knowledge base by tapping into a growing pool of datasets, significantly boosting their adaptability. Drawing inspiration from the human brain's ability to continuously absorb and generalize from ongoing experiences, our approach borrow the mechanism of the complementary learning system. Specifically, we first deploy Generative Adversarial Networks (GANs) to capture and retain the unique features of new data, mirroring the hippocampus's role in learning and memory. Then, the de-raining network is trained with both existing and GAN-synthesized data, mimicking the process of hippocampal replay and interleaved learning. Furthermore, we employ knowledge distillation with the replayed data to replicate the synergy between the neocortex's activity patterns triggered by hippocampal replays and the pre-existing neocortical knowledge. This comprehensive framework empowers the de-raining network to amass knowledge from various datasets, continually enhancing its performance on previously unseen rainy scenes. Our testing on three benchmark de-raining networks confirms the framework's effectiveness. It not only facilitates continuous knowledge accumulation across six datasets but also surpasses state-of-the-art methods in generalizing to new real-world scenarios.
- Abstract(参考訳): 現在の画像デレイニング手法は、主に限られたデータセットから学習し、様々な現実世界の降雨条件下での性能が不十分になる。
この問題に対処するため,ネットワークがデータセットのプールを拡大することで,デレーニングの知識ベースを段階的に拡張し,適応性を大幅に向上する,新たなフレームワークを導入する。
人間の脳が継続的な経験から継続的に吸収し、一般化する能力からインスピレーションを得たアプローチは、補完学習システムのメカニズムを取り入れたものである。
具体的には、まずGAN(Generative Adversarial Networks)をデプロイして、新たなデータのユニークな特徴をキャプチャし、保持し、学習と記憶における海馬の役割を反映する。
そして、海馬のリプレイやインターリーブ学習の過程を模倣して、既存のデータとGAN合成データの両方を用いて、脱レイアウトネットワークを訓練する。
さらに,海馬のリプレイによって引き起こされる新皮質の活動パターンと,既存の新皮質の知識との相乗関係を再現するために,リプレイデータを用いた知識蒸留を用いる。
この網羅的なフレームワークにより、さまざまなデータセットから知識を収集するネットワークが強化され、これまで目に見えなかった雨のシーンのパフォーマンスが継続的に向上する。
3つのベンチマーク・デライニング・ネットワークでテストした結果,フレームワークの有効性が確認された。
これは、6つのデータセットにまたがる継続的な知識の蓄積を促進するだけでなく、新しい現実のシナリオに一般化する最先端の手法を超越する。
関連論文リスト
- Continual All-in-One Adverse Weather Removal with Knowledge Replay on a
Unified Network Structure [92.8834309803903]
現実の応用では、悪天候による画像の劣化は常に複雑で、日や季節によって異なる気象条件で変化する。
我々は,ネットワーク構造を統一した上で,効果的な知識再生(KR)を実現するための新しい連続学習フレームワークを開発した。
連続学習における複数の退化を伴う画像復元作業の特徴を考察し、異なる退化に関する知識を共有・蓄積することができる。
論文 参考訳(メタデータ) (2024-03-12T03:50:57Z) - Removing Rain Streaks via Task Transfer Learning [39.511454098771026]
まず,教師付きデラインモデルが実際の降雨事例に対してうまく一般化できない理由を統計的に検討する。
連結タスクでは、実データ用のラベルを容易に得ることができる。
我々の中核となる考え方は、タスク転送を通じて実データから表現を学習し、デライン化の一般化を改善することである。
論文 参考訳(メタデータ) (2022-08-28T03:32:17Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - A Wholistic View of Continual Learning with Deep Neural Networks:
Forgotten Lessons and the Bridge to Active and Open World Learning [8.188575923130662]
オープンデータセット認識による顕著な教訓,観測データセット外の統計的逸脱したデータの識別,および近接するアクティブラーニングの分野は,深層学習時代においてしばしば見過ごされる。
我々の結果は、これは個々のパラダイムに利益をもたらすだけでなく、共通のフレームワークにおける自然なシナジーを強調していることを示している。
論文 参考訳(メタデータ) (2020-09-03T16:56:36Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。