論文の概要: HazeCLIP: Towards Language Guided Real-World Image Dehazing
- arxiv url: http://arxiv.org/abs/2407.13719v2
- Date: Fri, 10 Jan 2025 10:00:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:24:56.584757
- Title: HazeCLIP: Towards Language Guided Real-World Image Dehazing
- Title(参考訳): HazeCLIP: 言語ガイドによる実世界のイメージデハージングを目指す
- Authors: Ruiyi Wang, Wenhao Li, Xiaohong Liu, Chunyi Li, Zicheng Zhang, Xiongkuo Min, Guangtao Zhai,
- Abstract要約: 既存の手法は、特に合成データセットにおいて、画像のデハージングにおいて顕著な性能を達成した。
本稿では,事前学習型デハジングネットワークの性能向上を目的とした言語誘導適応フレームワークHazeCLIPを紹介する。
- 参考スコア(独自算出の注目度): 62.4454483961341
- License:
- Abstract: Existing methods have achieved remarkable performance in image dehazing, particularly on synthetic datasets. However, they often struggle with real-world hazy images due to domain shift, limiting their practical applicability. This paper introduces HazeCLIP, a language-guided adaptation framework designed to enhance the real-world performance of pre-trained dehazing networks. Inspired by the Contrastive Language-Image Pre-training (CLIP) model's ability to distinguish between hazy and clean images, we leverage it to evaluate dehazing results. Combined with a region-specific dehazing technique and tailored prompt sets, the CLIP model accurately identifies hazy areas, providing a high-quality, human-like prior that guides the fine-tuning process of pre-trained networks. Extensive experiments demonstrate that HazeCLIP achieves state-of-the-art performance in real-word image dehazing, evaluated through both visual quality and image quality assessment metrics. Codes are available at https://github.com/Troivyn/HazeCLIP.
- Abstract(参考訳): 既存の手法は、特に合成データセットにおいて、画像のデハージングにおいて顕著な性能を達成した。
しかし、ドメインシフトによって現実のぼやけたイメージに苦しむことが多く、実用性は制限される。
本稿では,事前学習型デハジングネットワークの性能向上を目的とした言語誘導適応フレームワークHazeCLIPを紹介する。
Contrastive Language-Image Pre-Training (CLIP) モデルに触発され,ハジーイメージとクリーンイメージの区別が可能となった。
CLIPモデルは、地域固有のデハージング技術と調整されたプロンプトセットを組み合わせることで、ヘイジーな領域を正確に識別し、事前訓練されたネットワークの微調整プロセスをガイドする高品質な人間のような事前を提供する。
広汎な実験により,HazeCLIPは,画像品質評価指標と画像品質評価指標の両面から,実語画像のデハージングにおける最先端のパフォーマンスを実証した。
コードはhttps://github.com/Troivyn/HazeCLIPで入手できる。
関連論文リスト
- CLIP-DQA: Blindly Evaluating Dehazed Images from Global and Local Perspectives Using CLIP [19.80268944768578]
Blind dehazed Image Quality Assessment (BDQA) は、参照情報なしでデハズド画像の視覚的品質を正確に予測することを目的としている。
本稿では,BDQAタスクに対して,大規模画像テキストペア上で事前学習したコントラスト言語画像事前学習(CLIP)を適用することを提案する。
提案手法はCLIP-DQAと呼ばれ,既存のBDQA手法よりも高精度な品質予測を実現する。
論文 参考訳(メタデータ) (2025-02-03T14:12:25Z) - Decoder Pre-Training with only Text for Scene Text Recognition [54.93037783663204]
シーンテキスト認識(STR)事前学習法は,主に合成データセットに依存し,顕著な進歩を遂げている。
STR(DPTR)用テキストのみを用いたDecoder Pre-trainingという新しい手法を提案する。
DPTRはCLIPテキストエンコーダが生成したテキスト埋め込みを擬似視覚埋め込みとして扱い、デコーダの事前訓練に使用する。
論文 参考訳(メタデータ) (2024-08-11T06:36:42Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z) - UCL-Dehaze: Towards Real-world Image Dehazing via Unsupervised
Contrastive Learning [57.40713083410888]
そこで本稿では, 現実の無作為かつ清潔なイメージを活用するための, 対人訓練によるコントラスト学習について検討する。
UCL-Dehazeと呼ばれる画像復調のための効果的な教師なしコントラスト学習パラダイムを提案する。
我々はUCL-Dehazeを評価するための総合的な実験を行い、最先端技術よりもその優位性を実証する。
論文 参考訳(メタデータ) (2022-05-04T03:25:13Z) - Mutual Learning for Domain Adaptation: Self-distillation Image Dehazing
Network with Sample-cycle [7.452382358080454]
ドメイン適応のための相互学習脱ハージングフレームワークを提案する。
具体的には、まず、合成ドメインの教師ネットワークと、実ドメインの学生ネットワークの2つのシアムネットワークを考案する。
この枠組みは, 主観的, 客観的評価の観点から, 最先端の脱ハージング技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T16:32:14Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。