論文の概要: Networks are Slacking Off: Understanding Generalization Problem in Image
Deraining
- arxiv url: http://arxiv.org/abs/2305.15134v1
- Date: Wed, 24 May 2023 13:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:37:34.528649
- Title: Networks are Slacking Off: Understanding Generalization Problem in Image
Deraining
- Title(参考訳): 画像レイアウトにおける一般化問題を理解するネットワーク
- Authors: Jinjin Gu, Xianzheng Ma, Xiangtao Kong, Yu Qiao, Chao Dong
- Abstract要約: Deep deraining Networkは、現実世界のアプリケーションにデプロイする際、一定の一般化問題に一貫して遭遇する。
ディープラーニングにおける一般的な視点は、よりリッチな画像コンテンツ知識が一般化問題の克服を促進することを期待して、非常に複雑なトレーニングデータの使用を促進する。
我々の研究は、低レベルの視覚タスクにおける一般化問題をよりよく理解するための貴重な視点と方法論を提供する。
- 参考スコア(独自算出の注目度): 43.40716192610224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep deraining networks, while successful in laboratory benchmarks,
consistently encounter substantial generalization issues when deployed in
real-world applications. A prevailing perspective in deep learning encourages
the use of highly complex training data, with the expectation that a richer
image content knowledge will facilitate overcoming the generalization problem.
However, through comprehensive and systematic experimentation, we discovered
that this strategy does not enhance the generalization capability of these
networks. On the contrary, it exacerbates the tendency of networks to overfit
to specific degradations. Our experiments reveal that better generalization in
a deraining network can be achieved by simplifying the complexity of the
training data. This is due to the networks are slacking off during training,
that is, learning the least complex elements in the image content and
degradation to minimize training loss. When the complexity of the background
image is less than that of the rain streaks, the network will prioritize the
reconstruction of the background, thereby avoiding overfitting to the rain
patterns and resulting in improved generalization performance. Our research not
only offers a valuable perspective and methodology for better understanding the
generalization problem in low-level vision tasks, but also displays promising
practical potential.
- Abstract(参考訳): Deep deraining Networkは、実験室のベンチマークで成功したが、現実世界のアプリケーションにデプロイすると、常にかなりの一般化問題に遭遇する。
ディープラーニングにおける一般的な視点は、よりリッチな画像コンテンツ知識が一般化問題の克服を促進することを期待しながら、高度に複雑なトレーニングデータの使用を促進する。
しかし,包括的かつ体系的な実験により,この戦略がネットワークの一般化能力を高めるものではないことを見出した。
逆に、ネットワークが特定の劣化に対して過度に適合する傾向が増す。
実験により, 学習データの複雑さを単純化することで, 分散ネットワークにおけるより良い一般化が達成できることが判明した。
これは、トレーニング中にネットワークがダウンしているため、すなわち、画像コンテンツの最も複雑な要素を学習し、トレーニング損失を最小限に抑えるために劣化することによる。
背景画像の複雑さが雨害よりも小さい場合、ネットワークは背景の復元を優先し、雨パターンへの過度な適合を回避し、一般化性能を向上させる。
我々の研究は、低レベルの視覚タスクにおける一般化問題をよりよく理解するための貴重な視点と方法論を提供するだけでなく、有望な実用的な可能性を示す。
関連論文リスト
- Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Simplifying Low-Light Image Enhancement Networks with Relative Loss
Functions [14.63586364951471]
FLW-Net(Fast and LightWeight Network)と2つの相対損失関数を導入し,低照度画像強調における学習を容易にする。
我々はまず、グローバルコントラストを得るための大きな受容領域の必要性の課題を認識した。
そこで我々は,これらの課題を克服するために,相対情報に基づく効率的なグローバル特徴情報抽出コンポーネントと2つの損失関数を提案する。
論文 参考訳(メタデータ) (2023-04-06T10:05:54Z) - Deep Generalized Unfolding Networks for Image Restoration [16.943609020362395]
画像復元のためのDeep Generalized Unfolding Network (DGUNet)を提案する。
我々は、勾配推定戦略をPGDアルゴリズムの勾配降下ステップに統合する。
我々の手法は、最先端の性能、解釈可能性、一般化可能性の点で優れている。
論文 参考訳(メタデータ) (2022-04-28T08:39:39Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Attention based Broadly Self-guided Network for Low light Image
Enhancement [0.0]
本稿では,Attention based Broadly Self-Guided Network (ABSGN) を用いて,リアルタイム低照度画像強調手法を提案する。
提案するネットワークは,多くの主流ベンチマークによって検証されている。
新たな実験結果から,提案したネットワークは,最先端の低照度画像強調ソリューションよりも優れていた。
論文 参考訳(メタデータ) (2021-12-12T13:11:29Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Towards robust vision by multi-task learning on monkey visual cortex [6.9014416935919565]
我々は,深部ネットワークを併用して画像分類を行い,マカク一次視覚野(V1)の神経活動を予測する訓練を行った。
その結果,モンキーV1データによるコトレーニングは,トレーニング中に歪みがないにもかかわらず,ロバスト性の向上につながることがわかった。
また、ネットワークの堅牢性が向上するにつれて、ネットワークの表現がより脳に似たものになることを示した。
論文 参考訳(メタデータ) (2021-07-29T21:55:48Z) - Embracing the Dark Knowledge: Domain Generalization Using Regularized
Knowledge Distillation [65.79387438988554]
十分なデータと代表データがない場合の一般化能力の欠如は、その実践的応用を妨げる課題の1つである。
我々はKDDG(Knowledge Distillation for Domain Generalization)という,シンプルで効果的な,プラグアンドプレイのトレーニング戦略を提案する。
教師ネットワークからの「より豊かな暗黒知識」と、我々が提案した勾配フィルタの両方が、マッピングの学習の難しさを軽減することができる。
論文 参考訳(メタデータ) (2021-07-06T14:08:54Z) - LEUGAN:Low-Light Image Enhancement by Unsupervised Generative
Attentional Networks [4.584570928928926]
低照度画像強調タスクを処理するために,注意誘導型教師なし生成ネットワークを提案する。
具体的には,よりシャープなエッジを復元するエッジ補助モジュールと,よりリアルなカラーを復元するアテンション誘導モジュールの2つを含む。
実験では,提案アルゴリズムが最新手法に対して好適に動作することを検証した。
論文 参考訳(メタデータ) (2020-12-24T16:49:19Z) - Single image reflection removal via learning with multi-image
constraints [50.54095311597466]
本稿では、上記のアプローチの利点を組み合わせ、その欠点を克服する新しい学習ベースソリューションを提案する。
提案アルゴリズムはディープニューラルネットワークを学習して、複数の入力画像間で強化されたジョイント制約でターゲットを最適化する。
我々のアルゴリズムは実画像上でリアルタイムかつ最先端の反射除去性能で動作する。
論文 参考訳(メタデータ) (2019-12-08T06:10:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。