論文の概要: Depth-agnostic Single Image Dehazing
- arxiv url: http://arxiv.org/abs/2401.07213v1
- Date: Sun, 14 Jan 2024 06:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:22:40.995799
- Title: Depth-agnostic Single Image Dehazing
- Title(参考訳): 深度非依存単一画像デハジング
- Authors: Honglei Xu and Yan Shu and Shaohui Liu
- Abstract要約: 本研究では, 深度に依存しないデータセット(DA-HAZE)を生成することで, ヘイズ密度とシーン深度の関係を分離する, 単純かつ斬新な合成法を提案する。
実験によると、DA-HAZEでトレーニングされたモデルは、SOTSとDA-SOTSの相違が少なく、実世界のベンチマークで大幅に改善されている。
我々は、専用に設計されたブロックが組み込まれているデハジングのために、U-Netベースのアーキテクチャを再考する。
- 参考スコア(独自算出の注目度): 12.51359372069387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single image dehazing is a challenging ill-posed problem. Existing datasets
for training deep learning-based methods can be generated by hand-crafted or
synthetic schemes. However, the former often suffers from small scales, while
the latter forces models to learn scene depth instead of haze distribution,
decreasing their dehazing ability. To overcome the problem, we propose a simple
yet novel synthetic method to decouple the relationship between haze density
and scene depth, by which a depth-agnostic dataset (DA-HAZE) is generated.
Meanwhile, a Global Shuffle Strategy (GSS) is proposed for generating
differently scaled datasets, thereby enhancing the generalization ability of
the model. Extensive experiments indicate that models trained on DA-HAZE
achieve significant improvements on real-world benchmarks, with less
discrepancy between SOTS and DA-SOTS (the test set of DA-HAZE). Additionally,
Depth-agnostic dehazing is a more complicated task because of the lack of depth
prior. Therefore, an efficient architecture with stronger feature modeling
ability and fewer computational costs is necessary. We revisit the U-Net-based
architectures for dehazing, in which dedicatedly designed blocks are
incorporated. However, the performances of blocks are constrained by limited
feature fusion methods. To this end, we propose a Convolutional Skip Connection
(CSC) module, allowing vanilla feature fusion methods to achieve promising
results with minimal costs. Extensive experimental results demonstrate that
current state-of-the-art methods. equipped with CSC can achieve better
performance and reasonable computational expense, whether the haze distribution
is relevant to the scene depth.
- Abstract(参考訳): 単一画像デハジングは困難な不適切な問題である。
ディープラーニングベースのメソッドをトレーニングするための既存のデータセットは、手作りまたは合成スキームによって生成される。
しかし、前者は小さなスケールに悩まされることが多く、後者はヘイズ分布ではなくシーン深度を学習させ、デハジング能力を低下させる。
そこで本研究では,深度に依存しないデータセット(DA-HAZE)を生成することで,ヘイズ密度とシーン深度の関係を分離する合成手法を提案する。
一方、異なるスケールのデータセットを生成するため、Global Shuffle Strategy(GSS)が提案され、モデルの一般化能力が向上する。
DA-HAZEでトレーニングされたモデルは、SOTSとDA-SOTS(DA-HAZEのテストセット)の差が少なく、現実世界のベンチマークで大幅に改善されている。
さらに、深さに依存しないデハジングは、より複雑なタスクである。
したがって、より強力な特徴モデリング能力と計算コストの少ない効率的なアーキテクチャが必要である。
我々は、専用に設計されたブロックを組み込んだデハージングのために、U-Netベースのアーキテクチャを再考する。
しかし,ブロックの性能は限定的な特徴融合法によって制限される。
この目的のために我々は,バニラ特徴融合法により最小限のコストで有望な結果が得られるConvolutional Skip Connection (CSC) モジュールを提案する。
広範な実験結果から,最先端の手法が証明された。
CSCを備えることで、シーンの深さに関係のあるヘイズ分布であっても、より優れたパフォーマンスと合理的な計算コストを達成することができる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Adv-KD: Adversarial Knowledge Distillation for Faster Diffusion Sampling [2.91204440475204]
拡散確率モデル(DPM)は、深層生成モデルの強力なクラスとして登場した。
それらは、サンプル生成中にシーケンシャルなデノイングステップに依存している。
モデルアーキテクチャに直接位相を分解する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:19:44Z) - Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation [33.140210057065644]
本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
論文 参考訳(メタデータ) (2024-03-08T05:06:31Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Towards Efficient Deep Hashing Retrieval: Condensing Your Data via
Feature-Embedding Matching [7.908244841289913]
最先端の深層ハッシュ検索モデルのトレーニングに要する費用は増加している。
最先端のデータセット蒸留法は、すべての深層ハッシュ検索法に拡張できない。
合成集合と実集合との特徴埋め込みをマッチングすることにより,これらの制約に対処する効率的な凝縮フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T13:23:55Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Perceptron Synthesis Network: Rethinking the Action Scale Variances in
Videos [48.57686258913474]
ビデオアクション認識は、固定サイズの3Dカーネルを積み重ねたCNNによって部分的に解決されている。
データから最適なスケールのカーネルを学習することを提案する。
固定サイズのカーネルの袋からカーネルを生成するために,テキスト分割パーセプトロンシンセサイザーを提案する。
論文 参考訳(メタデータ) (2020-07-22T14:22:29Z) - DeeSCo: Deep heterogeneous ensemble with Stochastic Combinatory loss for
gaze estimation [7.09232719022402]
本研究では,2D/3D視線推定のためのヒートマップに基づく弱い予測器を,エンドツーエンドで訓練可能なアンサンブルとして導入する。
我々は,複数のデータセット上での2D/3D視線推定における最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-15T14:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。