論文の概要: Learning Implicit Neural Degradation Representation for Unpaired Image Dehazing
- arxiv url: http://arxiv.org/abs/2511.13110v1
- Date: Mon, 17 Nov 2025 08:07:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.987484
- Title: Learning Implicit Neural Degradation Representation for Unpaired Image Dehazing
- Title(参考訳): 難読画像復調のための暗黙的ニューラルネットワーク劣化表現の学習
- Authors: Shuaibin Fan, Senming Zhong, Wenchao Yan, Minglong Xue,
- Abstract要約: 暗黙的神経劣化表現のための教師なし脱湿法を提案する。
提案手法は,様々な公開および実世界のデータセット上での競合的脱ヘイズ性能を実現する。
- 参考スコア(独自算出の注目度): 5.7864523838262025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image dehazing is an important task in the field of computer vision, aiming at restoring clear and detail-rich visual content from haze-affected images. However, when dealing with complex scenes, existing methods often struggle to strike a balance between fine-grained feature representation of inhomogeneous haze distribution and global consistency modeling. Furthermore, to better learn the common degenerate representation of haze in spatial variations, we propose an unsupervised dehaze method for implicit neural degradation representation. Firstly, inspired by the Kolmogorov-Arnold representation theorem, we propose a mechanism combining the channel-independent and channel-dependent mechanisms, which efficiently enhances the ability to learn from nonlinear dependencies. which in turn achieves good visual perception in complex scenes. Moreover, we design an implicit neural representation to model haze degradation as a continuous function to eliminate redundant information and the dependence on explicit feature extraction and physical models. To further learn the implicit representation of the haze features, we also designed a dense residual enhancement module from it to eliminate redundant information. This achieves high-quality image restoration. Experimental results show that our method achieves competitive dehaze performance on various public and real-world datasets. This project code will be available at https://github.com/Fan-pixel/NeDR-Dehaze.
- Abstract(参考訳): 画像のデハジングはコンピュータビジョンの分野で重要な課題であり、ヘイズに影響を受けた画像から明瞭で詳細に富んだ視覚的コンテンツを復元することを目的としている。
しかし、複雑なシーンを扱う場合、既存の手法は不均一なヘイズ分布の微細な特徴表現とグローバルな一貫性のモデリングのバランスをとるのに苦労することが多い。
さらに,空間的変動におけるハゼの一般的な縮退表現をよりよく学習するために,暗黙的神経分解表現のための教師なしデヘイズ法を提案する。
まず,Kolmogorov-Arnold表現定理に着想を得て,チャネル非依存機構とチャネル依存機構を組み合わせる機構を提案する。
複雑なシーンでは 視覚的に見栄えが良くなります
さらに,ハゼ分解を連続関数としてモデル化するための暗黙的ニューラル表現を設計し,余分な情報や明示的特徴抽出や物理モデルへの依存を排除した。
迷路の特徴の暗黙的な表現をさらに学習するために,余分な情報を排除するために高密度残差拡張モジュールを設計した。
これにより高品質な画像復元が可能となる。
実験結果から,本手法は様々な公開および実世界のデータセット上での競合的脱ヘイズ性能を実現することが示された。
このプロジェクトのコードはhttps://github.com/Fan-pixel/NeDR-Dehaze.comで公開される。
関連論文リスト
- Exploiting Diffusion Prior for Real-World Image Dehazing with Unpaired Training [11.902218695900217]
未ペアトレーニングは、ぼんやりとした鮮明なイメージから学ぶことによって、現実のデハジングに最も効果的なパラダイムの1つである。
空白画像の生成における拡散モデルの強い生成能力に触発され,実世界のデハジングに先立って拡散を利用する。
本稿では,画像とテキストのモダリティの劣化を除去し,拡散モデルの表現能力を適切に活用するための新たな視点を提案する。
論文 参考訳(メタデータ) (2025-03-19T09:13:06Z) - Unpaired Image Dehazing via Kolmogorov-Arnold Transformation of Latent Features [0.0]
本稿では,Kolmogorov-Arnold Transformation, UID-KATによる教師なし画像復調のための革新的なフレームワークを提案する。
提案するUID-KATフレームワークは,実世界のデータの豊富さを活かし,ペア/クリーンな画像を作成するという課題に対処するために,教師なし環境で訓練されている。
論文 参考訳(メタデータ) (2025-02-08T12:24:49Z) - Unpaired Deblurring via Decoupled Diffusion Model [55.21345354747609]
UID-Diffは,未知領域における劣化性能の向上を目的とした生成拡散モデルである。
構造的特徴とぼかしパターン抽出器を別々に用いて, 抽出した特徴は, 合成データに対する教師付きデブロアリングタスクと教師なしのぼかし転送タスクに使用される。
実世界のデータセットの実験では、UID-Diffが既存の最先端の手法よりも、ぼやけた除去と構造保存に優れていることが示されている。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Diff-Restorer: Unleashing Visual Prompts for Diffusion-based Universal Image Restoration [19.87693298262894]
拡散モデルに基づく普遍的な画像復元手法であるDiff-Restorerを提案する。
我々は、事前学習された視覚言語モデルを用いて、劣化した画像から視覚的プロンプトを抽出する。
また、デグレーション対応デコーダを設計し、構造的補正を行い、潜在コードをピクセル領域に変換する。
論文 参考訳(メタデータ) (2024-07-04T05:01:10Z) - DiffLoss: unleashing diffusion model as constraint for training image restoration network [4.8677910801584385]
我々はDiffLossと呼ばれる画像復元ネットワークのトレーニングを支援するために拡散モデルを暗黙的に活用する新しい視点を導入する。
これら2つの設計を組み合わせることで、全体的な損失関数は画像復元の知覚的品質を改善することができ、視覚的に快く、意味的に強化された結果をもたらす。
論文 参考訳(メタデータ) (2024-06-27T09:33:24Z) - Efficient Degradation-aware Any Image Restoration [83.92870105933679]
我々は,低ランク体制下での学習者(DaLe)を用いた効率的なオールインワン画像復元システムである textitDaAIR を提案する。
モデルキャパシティを入力劣化に動的に割り当てることにより、総合学習と特定の学習を統合した効率的な復調器を実現する。
論文 参考訳(メタデータ) (2024-05-24T11:53:27Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。