論文の概要: SDDNet: Style-guided Dual-layer Disentanglement Network for Shadow
Detection
- arxiv url: http://arxiv.org/abs/2308.08935v1
- Date: Thu, 17 Aug 2023 12:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 16:55:14.070494
- Title: SDDNet: Style-guided Dual-layer Disentanglement Network for Shadow
Detection
- Title(参考訳): SDDNet:シャドウ検出のためのスタイル誘導デュアル層ディスタングルネットワーク
- Authors: Runmin Cong, Yuchen Guan, Jinpeng Chen, Wei Zhang, Yao Zhao, and Sam
Kwong
- Abstract要約: 入力シャドウ画像を背景層と影層の合成として扱い、これらの層を独立にモデル化するためのスタイル誘導デュアル層ディスタングルネットワークを設計する。
提案モデルは背景色による有害な効果を効果的に最小化し,32FPSのリアルタイム推論速度を持つ3つの公開データセットに対して優れた性能を示す。
- 参考スコア(独自算出の注目度): 85.16141353762445
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite significant progress in shadow detection, current methods still
struggle with the adverse impact of background color, which may lead to errors
when shadows are present on complex backgrounds. Drawing inspiration from the
human visual system, we treat the input shadow image as a composition of a
background layer and a shadow layer, and design a Style-guided Dual-layer
Disentanglement Network (SDDNet) to model these layers independently. To
achieve this, we devise a Feature Separation and Recombination (FSR) module
that decomposes multi-level features into shadow-related and background-related
components by offering specialized supervision for each component, while
preserving information integrity and avoiding redundancy through the
reconstruction constraint. Moreover, we propose a Shadow Style Filter (SSF)
module to guide the feature disentanglement by focusing on style
differentiation and uniformization. With these two modules and our overall
pipeline, our model effectively minimizes the detrimental effects of background
color, yielding superior performance on three public datasets with a real-time
inference speed of 32 FPS.
- Abstract(参考訳): 影検出の大幅な進歩にもかかわらず、現在の手法は背景色の悪影響に苦慮しており、複雑な背景に影が存在する場合の誤りにつながる可能性がある。
人間の視覚システムからインスピレーションを得て,入力シャドウ画像を背景層と影層の合成として扱い,これらの層を独立にモデル化するためのスタイル誘導デュアル層ディスタングルネットワーク(SDDNet)を設計する。
そこで我々は,情報整合性を保ち,再構成制約を通した冗長性を回避するとともに,複数レベルの特徴を影関連および背景関連コンポーネントに分解する機能分離・再結合(FSR)モジュールを考案した。
さらに,スタイルの微分と均一化に着目し,特徴の絡み合いを誘導するシャドウスタイルフィルタ(SSF)モジュールを提案する。
これら2つのモジュールとパイプライン全体のモデルにより、背景色による有害な効果を効果的に最小化し、32FPSのリアルタイム推論速度を持つ3つの公開データセットに対して優れた性能が得られる。
関連論文リスト
- Neural Spline Fields for Burst Image Fusion and Layer Separation [40.9442467471977]
ニューラルスプライン場を用いた2層α合成画像とフローモデルを用いた多目的中間表現を提案する。
提案手法では, バースト画像を高分解能な再構成に融合し, 透過層と閉塞層に分解することができる。
後処理のステップや事前学習がないため、当社の一般化可能なモデルは、既存の専用イメージやマルチビューの障害物除去アプローチよりも優れています。
論文 参考訳(メタデータ) (2023-12-21T18:54:19Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Learning Physical-Spatio-Temporal Features for Video Shadow Removal [42.95422940263425]
データ駆動型ビデオシャドウ除去モデルであるedNetを提案する。
具体的には、複雑な照明テクスチャを持つシーンに適用可能な局所照明推定を行うために、専用の物理的ブランチが設けられた。
シャドウビデオと組み合わせたデータセットの欠如に対処するため、シャドウのスイッチを制御することで、人気のあるゲームGTAVの助けを借りてデータセットを合成する。
論文 参考訳(メタデータ) (2023-03-16T14:55:31Z) - Structure-Informed Shadow Removal Networks [67.57092870994029]
既存のディープラーニングベースのシャドウ除去手法は、依然として影の残像を持つ画像を生成する。
本稿では,影残差問題に対処するために,画像構造情報を活用する構造インフォームド・シャドウ除去ネットワーク(StructNet)を提案する。
我々の手法は既存のシャドウ除去方法よりも優れており、StructNetは既存の手法と統合してさらに改善することができる。
論文 参考訳(メタデータ) (2023-01-09T06:31:52Z) - LAB-Net: LAB Color-Space Oriented Lightweight Network for Shadow Removal [82.15476792337529]
本稿では,LAB色空間における影画像を処理する,軽量な深層ニューラルネットワークを提案する。
提案したネットワークは "LAB-Net" と呼ばれ、以下の3つの観測から動機づけられている。
実験の結果,LAB-Netは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-27T15:34:15Z) - SLIDE: Single Image 3D Photography with Soft Layering and Depth-aware
Inpainting [54.419266357283966]
シングルイメージの3D写真は、視聴者が新しい視点から静止画を見ることを可能にする。
最近のアプローチでは、単分子深度ネットワークと塗装ネットワークを組み合わせることで、説得力のある結果が得られる。
単一画像3D撮影のためのモジュール・統一システムであるSLIDEについて述べる。
論文 参考訳(メタデータ) (2021-09-02T16:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。