論文の概要: Revisiting the Generalization Problem of Low-level Vision Models Through the Lens of Image Deraining
- arxiv url: http://arxiv.org/abs/2502.12600v1
- Date: Tue, 18 Feb 2025 07:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:07:04.200702
- Title: Revisiting the Generalization Problem of Low-level Vision Models Through the Lens of Image Deraining
- Title(参考訳): 低レベルの視覚モデルの一般化問題の再考
- Authors: Jinfan Hu, Zhiyuan You, Jinjin Gu, Kaiwen Zhu, Tianfan Xue, Chao Dong,
- Abstract要約: 一般化は低レベルの視覚モデルにとって重要な課題である。
画像のデライン化は、明確に定義され容易に分離された構造のため、ケーススタディとして選択される。
この結果から,劣化パターンではなく,基礎となる画像内容の学習に焦点を合わせることが,一般化の鍵であることが示唆された。
- 参考スコア(独自算出の注目度): 26.95998539949823
- License:
- Abstract: Generalization remains a significant challenge for low-level vision models, which often struggle with unseen degradations in real-world scenarios despite their success in controlled benchmarks. In this paper, we revisit the generalization problem in low-level vision models. Image deraining is selected as a case study due to its well-defined and easily decoupled structure, allowing for more effective observation and analysis. Through comprehensive experiments, we reveal that the generalization issue is not primarily due to limited network capacity but rather the failure of existing training strategies, which leads networks to overfit specific degradation patterns. Our findings show that guiding networks to focus on learning the underlying image content, rather than the degradation patterns, is key to improving generalization. We demonstrate that balancing the complexity of background images and degradations in the training data helps networks better fit the image distribution. Furthermore, incorporating content priors from pre-trained generative models significantly enhances generalization. Experiments on both image deraining and image denoising validate the proposed strategies. We believe the insights and solutions will inspire further research and improve the generalization of low-level vision models.
- Abstract(参考訳): 一般化は、制御されたベンチマークの成功にもかかわらず、現実のシナリオで目に見えない劣化に苦しむ低レベルの視覚モデルにとって依然として重要な課題である。
本稿では,低レベル視覚モデルにおける一般化問題を再考する。
画像のデライン化は、明確に定義され容易に分離された構造のためケーススタディとして選択され、より効果的な観察と解析が可能となる。
網羅的な実験を通して、一般化問題は、主にネットワーク容量の制限によるものではなく、既存のトレーニング戦略の失敗によるものであり、ネットワークが特定の劣化パターンに過度に適合することを明らかにした。
この結果から,劣化パターンではなく,基礎となる画像内容の学習に焦点を合わせることが,一般化の鍵であることが示唆された。
我々は、背景画像の複雑さとトレーニングデータの劣化のバランスが、ネットワークのイメージ分布の適合性を改善することを実証した。
さらに、事前学習された生成モデルからコンテンツ事前を組み込むことにより、一般化が著しく促進される。
画像デポジトリと画像デポジトリの両方の実験は、提案した戦略を検証した。
我々は、この洞察と解決策が、低レベル視覚モデルの一般化をさらに研究し、改善するであろうと信じている。
関連論文リスト
- A Preliminary Exploration Towards General Image Restoration [48.02907312223344]
本稿では、これらの課題を統一モデル内で解決することを目的とした、一般画像復元(GIR)と呼ばれる新しい問題を提案する。
GIRは個々の画像復元タスク(例えば、画像のデノイング、デブロイング、デライニング、超解像)とそれらの組み合わせを汎用的にカバーしている。
我々は、GIR課題に対処するための既存のアプローチを包括的に評価し、その強みと実用的課題を明らかにする。
論文 参考訳(メタデータ) (2024-08-27T15:31:45Z) - Unsupervised Variational Translator for Bridging Image Restoration and High-Level Vision Tasks [24.076965636237098]
既存の修復ネットワークや高レベルビジョンネットワークの再構築を必要としないtextVariational textbfTranslator (VaT) と呼ばれる教師なし学習手法を提案する。
VaTはラベルを必要とせずに上記の最適化目標を達成する。
脱湿・低照度化による検出・分類実験は, 従来の非監督的手法に比べて, 本手法の優位性を示した。
論文 参考訳(メタデータ) (2024-08-15T13:35:59Z) - Navigating Beyond Dropout: An Intriguing Solution Towards Generalizable
Image Super Resolution [46.31021254956368]
我々は、Dropoutがモデルが細部を忠実に再構築する能力を損なう、望ましくない副作用を同時に導入すると主張している。
本稿では,1次および2次の特徴統計を単純に調整することで,モデルの一般化能力を向上する,簡単かつ効果的なトレーニング戦略を提案する。
実験結果から,本手法はモデルに依存しない正規化や,7つのベンチマークデータセット上でのDropoutよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-02-29T07:44:31Z) - Vision Superalignment: Weak-to-Strong Generalization for Vision
Foundation Models [55.919653720979824]
本稿では、より弱いモデルを用いてより強いモデルを監督する弱強一般化の概念に焦点を当てる。
弱強監督のための新規かつ適応的に調整可能な損失関数を提案する。
提案手法は, 強い一般化によって設定された性能ベンチマークを超えるだけでなく, データセット全体を用いた微調整の強いモデルの結果を上回る。
論文 参考訳(メタデータ) (2024-02-06T06:30:34Z) - Networks are Slacking Off: Understanding Generalization Problem in Image
Deraining [47.47762916146673]
Deep deraining Networkは、現実世界のアプリケーションにデプロイする際、一定の一般化問題に一貫して遭遇する。
我々の研究は、低レベルの視覚タスクにおける一般化問題をよりよく理解するための貴重な視点と方法論を提供する。
論文 参考訳(メタデータ) (2023-05-24T13:27:11Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Improving Generalization in Federated Learning by Seeking Flat Minima [23.937135834522145]
フェデレートされた設定で訓練されたモデルは、しばしば劣化したパフォーマンスに悩まされ、一般化に失敗する。
本研究では,損失の幾何レンズとヘッセン固有スペクトルを用いて,そのような挙動を考察する。
損失面のシャープさと一般化ギャップを接続する先行研究により,サーバ側のシャープネス・アウェア・最小化 (SAM) や適応バージョン (ASAM) をローカルにトレーニングすることで,一般化を大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2022-03-22T16:01:04Z) - Benchmarking the Robustness of Instance Segmentation Models [3.1287804585804073]
本稿では,実世界の画像の破損や領域外画像の収集に関して,インスタンス分割モデルの包括的評価を行う。
領域外画像評価は、実世界のアプリケーションにおいて重要な側面であるモデルの一般化能力を示している。
具体的には、最先端のネットワークアーキテクチャ、ネットワークバックボーン、正規化レイヤ、スクラッチからトレーニングされたモデル、ImageNet事前訓練ネットワークが含まれる。
論文 参考訳(メタデータ) (2021-09-02T17:50:07Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Invertible Image Rescaling [118.2653765756915]
Invertible Rescaling Net (IRN) を開発した。
我々は、ダウンスケーリングプロセスにおいて、指定された分布に従う潜在変数を用いて、失われた情報の分布をキャプチャする。
論文 参考訳(メタデータ) (2020-05-12T09:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。