論文の概要: DAMix: Density-Aware Data Augmentation for Unsupervised Domain
Adaptation on Single Image Dehazing
- arxiv url: http://arxiv.org/abs/2109.12544v1
- Date: Sun, 26 Sep 2021 09:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:27:18.312343
- Title: DAMix: Density-Aware Data Augmentation for Unsupervised Domain
Adaptation on Single Image Dehazing
- Title(参考訳): DAMix: 単一画像のデハージングにおける教師なし領域適応のための密度認識データ拡張
- Authors: Chia-Ming Chang, Chang-Sung Sung, Tsung-Nan Lin
- Abstract要約: 本研究では, 対象領域のヘイズ密度レベルに応じて合成ヘイズサンプルを生成する密度認識型データ拡張法(DAMix)を提案する。
DAMixは、さまざまなヘイズ密度を特徴とするサンプルからモデルを学習することを保証する。
本研究では,2つの枝を含む二重分岐脱ハージングネットワークを構築し,その領域のヘイズ密度に応じてヘイズを適応的に除去する。
- 参考スコア(独自算出の注目度): 2.2678980997015534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based methods have achieved great success on single image dehazing
in recent years. However, these methods are often subject to performance
degradation when domain shifts are confronted. Specifically, haze density gaps
exist among the existing datasets, often resulting in poor performance when
these methods are tested across datasets. To address this issue, we propose a
density-aware data augmentation method (DAMix) that generates synthetic hazy
samples according to the haze density level of the target domain. These samples
are generated by combining a hazy image with its corresponding ground truth by
a combination ratio sampled from a density-aware distribution. They not only
comply with the atmospheric scattering model but also bridge the haze density
gap between the source and target domains. DAMix ensures that the model learns
from examples featuring diverse haze densities. To better utilize the various
hazy samples generated by DAMix, we develop a dual-branch dehazing network
involving two branches that can adaptively remove haze according to the haze
density of the region. In addition, the dual-branch design enlarges the
learning capacity of the entire network; hence, our network can fully utilize
the DAMix-ed samples. We evaluate the effectiveness of DAMix by applying it to
the existing open-source dehazing methods. The experimental results demonstrate
that all methods show significant improvements after DAMix is applied.
Furthermore, by combining DAMix with our model, we can achieve state-of-the-art
(SOTA) performance in terms of domain adaptation.
- Abstract(参考訳): 学習に基づく手法は,近年,シングルイメージデハージングにおいて大きな成功を収めている。
しかし、これらの手法はドメインシフトに直面すると、しばしば性能が低下する。
具体的には、既存のデータセットの間にはヘイズ密度ギャップが存在し、これらのメソッドがデータセット間でテストされると、しばしばパフォーマンスが低下する。
この問題に対処するために,対象領域のヘイズ密度レベルに応じて合成ヘイズサンプルを生成する密度認識データ拡張法(DAMix)を提案する。
これらのサンプルは、密度認識分布からサンプリングされた組合せ比により、ヘイズ画像と対応する基底真理とを組合せて生成される。
これらは大気散乱モデルに従うだけでなく、ソースとターゲットドメインの間のヘイズ密度ギャップを橋渡しする。
DAMixは、さまざまなヘイズ密度を特徴とするサンプルからモデルを学習することを保証する。
DAMix が生成する様々なヘイズサンプルをよりよく活用するために,2つの枝を含む二重分岐脱ハージングネットワークを開発し,その領域のヘイズ密度に応じてヘイズを適応的に除去する。
さらに、デュアルブランチ設計によりネットワーク全体の学習能力が拡大するので、damix-edサンプルを十分に活用することができる。
既存のオープンソースデハジング手法に適用することにより,damixの有効性を評価する。
実験の結果, DAMix適用後, 全手法で大幅な改善が得られた。
さらに、DAMixと我々のモデルを組み合わせることで、ドメイン適応の観点から最先端(SOTA)の性能を実現することができる。
関連論文リスト
- Towards Effective Data-Free Knowledge Distillation via Diverse Diffusion Augmentation [20.556083321381514]
データフリー知識蒸留(DFKD)は、モデル圧縮の領域において重要な技術である。
本稿では,多種拡散増強(DDA)によるDFKDの革新的アプローチを紹介する。
CIFAR-10, CIFAR-100, Tiny-ImageNetデータセットの総合的な実験により, 本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-10-23T07:01:16Z) - LMHaze: Intensity-aware Image Dehazing with a Large-scale Multi-intensity Real Haze Dataset [14.141433473509826]
本稿では,大規模で高品質な実世界のデータセットLMHazeを紹介する。
LMHazeは、屋内および屋外の多様な環境で撮影された、ヘイズフリーとヘイズフリーの2つの画像で構成されている。
そこで本研究では,Mambaをベースとした混合実験モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T15:20:02Z) - Mitigating Embedding Collapse in Diffusion Models for Categorical Data [52.90687881724333]
我々は,学習を安定させる埋め込み空間内の連続拡散フレームワークであるCATDMを紹介する。
ベンチマーク実験により、CATDMは埋没崩壊を緩和し、FFHQ、LSUN教会、LSUNベッドルームにおいて優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-10-18T09:12:33Z) - Gaussian Mixture based Evidential Learning for Stereo Matching [20.143918649298424]
本フレームワークは,ステレオマッチングにおいて,個々の画像データが混合ガウス分布に従属することを示す。
提案手法は、ドメイン内検証データとクロスドメインデータセットの両方に対して、最先端の新たな結果を得た。
論文 参考訳(メタデータ) (2024-08-05T19:23:45Z) - DreamDA: Generative Data Augmentation with Diffusion Models [68.22440150419003]
本稿では,新しい分類指向フレームワークDreamDAを提案する。
DreamDAは、オリジナルのデータのトレーニングイメージを種として考慮して、オリジナルのデータ分布に準拠する多様なサンプルを生成する。
また、生成したデータのラベルは、対応するシード画像のラベルと一致しない可能性があるため、擬似ラベルを生成するための自己学習パラダイムを導入する。
論文 参考訳(メタデータ) (2024-03-19T15:04:35Z) - A Novel Approach to Industrial Defect Generation through Blended Latent Diffusion Model with Online Adaptation [10.422501665725902]
本稿では,欠陥サンプルを増大させ,工業的異常検出(AD)性能を向上させる新しいアルゴリズムを提案する。
具体的には、広く知られているMVTec ADデータセットに基づいて、提案手法は、ADの最先端(SOTA)パフォーマンスを、ADメトリクスAP、IAP、IAP90に対してそれぞれ1.5%、1.9%、および3.1%向上させる。
論文 参考訳(メタデータ) (2024-02-29T16:33:12Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - CoSMix: Compositional Semantic Mix for Domain Adaptation in 3D LiDAR
Segmentation [62.259239847977014]
我々は,点雲UDA,すなわちコンポジション・セマンティック・ミックス(CoSMix)に対する試料混合の新しい手法を提案する。
CoSMixは2分岐対称ネットワークで構成されており、ラベル付き合成データ(ソース)と現実世界の非競合点雲(ターゲット)を同時に処理することができる。
我々はCoSMixを2つの大規模データセット上で評価し、最先端の手法よりも大きなマージンで優れていることを示した。
論文 参考訳(メタデータ) (2022-07-20T09:33:42Z) - Perceiving and Modeling Density is All You Need for Image Dehazing [10.864016211811025]
現実の世界では、ヘイズの下で撮影された画像の劣化は非常に複雑である。
近年の手法では、深層ニューラルネットワークを用いて、ぼんやりとした画像から直接クリーンなシーンを復元している。
本研究では,不均一なヘイズ分布に対する密度の知覚とモデル化により,実世界のヘイズ劣化をモデル化する問題を解くことを提案する。
論文 参考訳(メタデータ) (2021-11-18T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。