論文の概要: HazeCLIP: Towards Language Guided Real-World Image Dehazing
- arxiv url: http://arxiv.org/abs/2407.13719v1
- Date: Thu, 18 Jul 2024 17:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 14:21:47.901454
- Title: HazeCLIP: Towards Language Guided Real-World Image Dehazing
- Title(参考訳): HazeCLIP: 言語ガイドによる実世界のイメージデハージングを目指す
- Authors: Ruiyi Wang, Wenhao Li, Xiaohong Liu, Chunyi Li, Zicheng Zhang, Xiongkuo Min, Guangtao Zhai,
- Abstract要約: 既存の手法は、特に合成データセットにおいて、単一画像のデハージングにおいて顕著な性能を達成した。
本稿では,事前学習型デハジングネットワークの性能向上を目的とした言語誘導適応フレームワークHazeCLIPを紹介する。
- 参考スコア(独自算出の注目度): 62.4454483961341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing methods have achieved remarkable performance in single image dehazing, particularly on synthetic datasets. However, they often struggle with real-world hazy images due to domain shift, limiting their practical applicability. This paper introduces HazeCLIP, a language-guided adaptation framework designed to enhance the real-world performance of pre-trained dehazing networks. Inspired by the Contrastive Language-Image Pre-training (CLIP) model's ability to distinguish between hazy and clean images, we utilize it to evaluate dehazing results. Combined with a region-specific dehazing technique and tailored prompt sets, CLIP model accurately identifies hazy areas, providing a high-quality, human-like prior that guides the fine-tuning process of pre-trained networks. Extensive experiments demonstrate that HazeCLIP achieves the state-of-the-art performance in real-word image dehazing, evaluated through both visual quality and no-reference quality assessments. The code is available: https://github.com/Troivyn/HazeCLIP .
- Abstract(参考訳): 既存の手法は、特に合成データセットにおいて、単一画像のデハージングにおいて顕著な性能を達成した。
しかし、ドメインシフトによって現実のぼやけたイメージに苦しむことが多く、実用性は制限される。
本稿では,事前学習型デハジングネットワークの性能向上を目的とした言語誘導適応フレームワークHazeCLIPを紹介する。
Contrastive Language-Image Pre-Training (CLIP) モデルに触発され,ハジーイメージとクリーンイメージの区別が可能となった。
CLIPモデルは、地域固有のデハージング技術と調整されたプロンプトセットを組み合わせることで、ヘイジーな領域を正確に識別し、事前訓練されたネットワークの微調整プロセスをガイドする高品質な人間のような事前を提供する。
広汎な実験により,HazeCLIPは実単語画像のデハージングにおいて,視覚的品質と非参照的品質の両面から評価され,最先端のパフォーマンスを達成することが示された。
コードは、https://github.com/Troivyn/HazeCLIP で入手できる。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Prompt-based test-time real image dehazing: a novel pipeline [9.229160145438469]
本稿では,プロンプトをベースとしたテストタイム・デハージング(PTTD)について述べる。
合成データに基づいて訓練されたデハジングモデルを用いて、符号化機能の統計(平均および標準偏差)を微調整することにより、領域ギャップを狭めることができることを実験的に観察した。
PTTDはモデルに依存しず、様々な最先端のデハージングモデルを備えており、実際の画像デハージングタスクに取り組むために合成ハジークリーンペアで訓練されている。
論文 参考訳(メタデータ) (2023-09-29T16:50:38Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z) - UCL-Dehaze: Towards Real-world Image Dehazing via Unsupervised
Contrastive Learning [57.40713083410888]
そこで本稿では, 現実の無作為かつ清潔なイメージを活用するための, 対人訓練によるコントラスト学習について検討する。
UCL-Dehazeと呼ばれる画像復調のための効果的な教師なしコントラスト学習パラダイムを提案する。
我々はUCL-Dehazeを評価するための総合的な実験を行い、最先端技術よりもその優位性を実証する。
論文 参考訳(メタデータ) (2022-05-04T03:25:13Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Mutual Learning for Domain Adaptation: Self-distillation Image Dehazing
Network with Sample-cycle [7.452382358080454]
ドメイン適応のための相互学習脱ハージングフレームワークを提案する。
具体的には、まず、合成ドメインの教師ネットワークと、実ドメインの学生ネットワークの2つのシアムネットワークを考案する。
この枠組みは, 主観的, 客観的評価の観点から, 最先端の脱ハージング技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T16:32:14Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。