論文の概要: Towards Domain Invariant Single Image Dehazing
- arxiv url: http://arxiv.org/abs/2101.10449v1
- Date: Sat, 9 Jan 2021 14:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:22:34.448791
- Title: Towards Domain Invariant Single Image Dehazing
- Title(参考訳): ドメイン不変の単一画像デハージングを目指して
- Authors: Pranjay Shyam, Kuk-Jin Yoon and Kyung-Soo Kim
- Abstract要約: 画像中のヘイズの存在は、正確な環境情報を必要とするアプリケーションでは望ましくない基礎となる情報を隠蔽する。
本稿では,エンコーダ・デコーダを用いたネットワークアーキテクチャを用いてデヘイジングを行う。
- 参考スコア(独自算出の注目度): 34.075765763305235
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Presence of haze in images obscures underlying information, which is
undesirable in applications requiring accurate environment information. To
recover such an image, a dehazing algorithm should localize and recover
affected regions while ensuring consistency between recovered and its
neighboring regions. However owing to fixed receptive field of convolutional
kernels and non uniform haze distribution, assuring consistency between regions
is difficult. In this paper, we utilize an encoder-decoder based network
architecture to perform the task of dehazing and integrate an spatially aware
channel attention mechanism to enhance features of interest beyond the
receptive field of traditional conventional kernels. To ensure performance
consistency across diverse range of haze densities, we utilize greedy localized
data augmentation mechanism. Synthetic datasets are typically used to ensure a
large amount of paired training samples, however the methodology to generate
such samples introduces a gap between them and real images while accounting for
only uniform haze distribution and overlooking more realistic scenario of
non-uniform haze distribution resulting in inferior dehazing performance when
evaluated on real datasets. Despite this, the abundance of paired samples
within synthetic datasets cannot be ignored. Thus to ensure performance
consistency across diverse datasets, we train the proposed network within an
adversarial prior-guided framework that relies on a generated image along with
its low and high frequency components to determine if properties of dehazed
images matches those of ground truth. We preform extensive experiments to
validate the dehazing and domain invariance performance of proposed framework
across diverse domains and report state-of-the-art (SoTA) results.
- Abstract(参考訳): 画像中のヘイズの存在は、正確な環境情報を必要とするアプリケーションでは望ましくない基礎となる情報を隠蔽する。
このような画像の復元には,回復領域と隣接領域との一貫性を確保しつつ,対象領域の局所化と復元を行う必要がある。
しかし、畳み込みカーネルの固定受容場や非均一なヘイズ分布のため、領域間の一貫性の確保は困難である。
本稿では,エンコーダ・デコーダをベースとしたネットワークアーキテクチャを用いて,従来のカーネルの受容領域を超えて,関心事の特徴を高めるために,空間的に認識されたチャネルアテンション機構を統合した。
様々なhaze密度におけるパフォーマンスの一貫性を確保するために,局所的なデータ拡張機構を用いた。
合成データセットは、通常、大量のペアトレーニングサンプルを確保するために使用されるが、そのようなサンプルを生成する手法は、均一なヘイズ分布のみを考慮し、非均一なヘイズ分布のより現実的なシナリオを見越しながら、それらと実際のイメージのギャップを導入する。
それにもかかわらず、合成データセット内のペアサンプルの豊富さは無視できない。
したがって、多様なデータセット間で性能の整合性を確保するため、生成した画像と低周波成分に依存した逆方向の事前誘導フレームワーク内で提案するネットワークをトレーニングし、デハズド画像の特性が地上の真実と一致するかどうかを判断する。
提案するフレームワークが多様なドメインにまたがるデハージングとドメイン不変性を検証するために,広範囲にわたる実験を行い,その成果を報告する。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Weakly-supervised deepfake localization in diffusion-generated images [4.548755617115687]
本稿では,Xception ネットワークをバックボーンアーキテクチャとして用いた弱教師付きローカライズ問題を提案する。
本研究では,(局所スコアに基づく)最良動作検出法は,データセットやジェネレータのミスマッチよりも,より緩やかな監視に敏感であることを示す。
論文 参考訳(メタデータ) (2023-11-08T10:27:36Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - ScoreNet: Learning Non-Uniform Attention and Augmentation for
Transformer-Based Histopathological Image Classification [11.680355561258427]
高解像度画像はデジタル病理の進歩を妨げる。
パッチベースの処理は、しばしば複数のインスタンス学習(MIL)を組み込んで、画像レベルの予測をもたらす局所的なパッチレベルの表現を集約する。
本稿では,組織像分類に適したトランスフォーマーアーキテクチャを提案する。
局所的なきめ細かな注意と粗いグローバルな注意機構を組み合わせることで、高解像度画像の意味的な表現を効率的な計算コストで学習する。
論文 参考訳(メタデータ) (2022-02-15T16:55:09Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。