論文の概要: Scaling Up Single Image Dehazing Algorithm by Cross-Data Vision Alignment for Richer Representation Learning and Beyond
- arxiv url: http://arxiv.org/abs/2407.14823v2
- Date: Thu, 20 Mar 2025 18:22:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:54:37.498632
- Title: Scaling Up Single Image Dehazing Algorithm by Cross-Data Vision Alignment for Richer Representation Learning and Beyond
- Title(参考訳): よりリッチな表現学習のためのクロスデータビジョンアライメントによる単一画像デハージングアルゴリズムのスケールアップ
- Authors: Yukai Shi, Zhipeng Weng, Yupei Lin, Cidan Shi, Xiaojun Yang, Liang Lin,
- Abstract要約: 本稿では,よりリッチな表現学習のためのクロスデータビジョンアライメント手法を提案する。
データの外部アライメントを使用することで、データセットは、しっかりと整列された異なるドメインからのサンプルを継承する。
提案手法は, 実際のヘイズフリー画像に最も近いデハズド画像のデハズ化やデハズド画像の生成において, 他の先進的手法よりも著しく優れている。
- 参考スコア(独自算出の注目度): 47.425906124301775
- License:
- Abstract: In recent years, deep neural networks tasks have increasingly relied on high-quality image inputs. With the development of high-resolution representation learning, the task of image dehazing has received significant attention. Previously, many methods collect diverse image data for large-scale training to boost the performance on a target scene. Ignoring the domain gap between different data, former de-hazing methods simply adopt multiple datasets for explicit large-scale training, which often makes the methods themselves be violated. To address this problem, we propose a novel method of cross-data vision alignment for richer representation learning to improve the existing dehazing methodology. Specifically, we call for the internal- and external knowledge should be further adapted with a self-supervised manner to fill up the domain gap. By using cross-data external alignment, the datasets inherit samples from different domains that are firmly aligned, making the model learn more robust and generalizable features. By using the internal augmentation method, the model can fully exploit local information within the images, and then obtaining more image details. To demonstrate the effectiveness of our proposed method, we conduct training on the Natural Image Dataset (NID). Experimental results show that our method clearly resolves the domain gap in different dehazing datasets and presents a new pipeline for large-scale training in the dehazing task. Our approach significantly outperforms other advanced methods in dehazing and produces dehazed images that are closest to real haze-free images.
- Abstract(参考訳): 近年、ディープニューラルネットワークタスクは、高品質の画像入力にますます依存している。
高分解能表現学習の発展に伴い,画像復調の課題が注目されている。
これまでは、大規模トレーニングのために多様な画像データを収集して、ターゲットシーンのパフォーマンスを高める方法が多かった。
異なるデータ間のドメインギャップを無視して、かつてのデハージングメソッドは、明示的な大規模トレーニングのために複数のデータセットを採用するだけで、メソッド自体に違反することが多い。
この問題に対処するために,よりリッチな表現学習のためのクロスデータビジョンアライメント手法を提案する。
具体的には、ドメインギャップを埋めるために、内部知識と外部知識をさらに自己管理的な方法で適応させなければなりません。
データの外部アライメントを使用することで、データセットは、しっかりと整列された異なるドメインからのサンプルを継承し、モデルがより堅牢で一般化可能な特徴を学習する。
内部拡張手法を用いることで、モデルが画像内のローカル情報を完全に活用し、さらに詳細な画像を取得することができる。
提案手法の有効性を示すため,Natural Image Dataset (NID) のトレーニングを行った。
実験結果から,本手法は異なるデハジングデータセットの領域ギャップを明確に解決し,デハジングタスクにおける大規模トレーニングのための新しいパイプラインを提案する。
提案手法は, 実際のヘイズフリー画像に最も近いデハズド画像のデハズ化やデハズド画像の生成において, 他の先進的手法よりも著しく優れている。
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Image Data Augmentation for Deep Learning: A Survey [8.817690876855728]
我々は、異なる画像データ拡張手法を体系的にレビューする。
本稿では,レビュー手法の分類法を提案し,これらの手法の長所と短所について述べる。
また,3種類のコンピュータビジョンタスクに対して,様々なデータ拡張手法による広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-19T02:05:56Z) - Single Image Dehazing with An Independent Detail-Recovery Network [117.86146907611054]
個別のDetail Recovery Network (DRN) を用いた単一画像デハージング手法を提案する。
DRNは、それぞれのローカルブランチとグローバルブランチを通じて、デハズドイメージの詳細を復元することを目的としている。
本手法は, 定量的, 定性的に, 最先端の脱ハージング法より優れる。
論文 参考訳(メタデータ) (2021-09-22T02:49:43Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Six-channel Image Representation for Cross-domain Object Detection [17.854940064699985]
ディープラーニングモデルはデータ駆動であり、優れたパフォーマンスは豊富で多様なデータセットに依存する。
いくつかの画像から画像への翻訳技術は、モデルを訓練するために特定のシーンの偽データを生成するために用いられる。
3チャンネル画像とそのgan生成した偽画像に刺激を与え,データセットの6チャンネル表現を作成することを提案する。
論文 参考訳(メタデータ) (2021-01-03T04:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。