論文の概要: From Shadow Generation to Shadow Removal
- arxiv url: http://arxiv.org/abs/2103.12997v1
- Date: Wed, 24 Mar 2021 05:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 14:01:23.068192
- Title: From Shadow Generation to Shadow Removal
- Title(参考訳): シャドウ生成からシャドウ除去へ
- Authors: Zhihao Liu, Hui Yin, Xinyi Wu, Zhenyao Wu, Yang Mi, Song Wang
- Abstract要約: シャドウ生成を弱教師付きシャドウ除去に活用するG2R-ShadowNetを提案する。
提案されたG2R-ShadowNetは3つのサブネットワークで構成されている。
特に、シャドウ生成サブネットは非シャドウ領域をシャドウ領域とスタイリングし、シャドウ除去サブネットをトレーニングするためのペアデータを生成する。
- 参考スコア(独自算出の注目度): 19.486543304598264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shadow removal is a computer-vision task that aims to restore the image
content in shadow regions. While almost all recent shadow-removal methods
require shadow-free images for training, in ECCV 2020 Le and Samaras introduces
an innovative approach without this requirement by cropping patches with and
without shadows from shadow images as training samples. However, it is still
laborious and time-consuming to construct a large amount of such unpaired
patches. In this paper, we propose a new G2R-ShadowNet which leverages shadow
generation for weakly-supervised shadow removal by only using a set of shadow
images and their corresponding shadow masks for training. The proposed
G2R-ShadowNet consists of three sub-networks for shadow generation, shadow
removal and refinement, respectively and they are jointly trained in an
end-to-end fashion. In particular, the shadow generation sub-net stylises
non-shadow regions to be shadow ones, leading to paired data for training the
shadow-removal sub-net. Extensive experiments on the ISTD dataset and the Video
Shadow Removal dataset show that the proposed G2R-ShadowNet achieves
competitive performances against the current state of the arts and outperforms
Le and Samaras' patch-based shadow-removal method.
- Abstract(参考訳): シャドー削除は、シャドー領域のイメージコンテンツを復元することを目的としたコンピュータビジョンタスクである。
最近のシャドウ除去法のほとんどは訓練のためにシャドウフリーの画像を必要とするが、ECCV 2020ではLe and Samaras氏が、シャドウイメージからシャドウを採取して、この要件を満たさない革新的なアプローチを導入している。
しかし、そのような未完成のパッチを大量に構築するのには、依然として努力と時間を要する。
本稿では,シャドウ画像の集合とそれに対応するシャドウマスクのみを用いて,シャドウ生成を弱教師付きシャドウ除去に活用する新しいG2R-シャドウネットを提案する。
提案したG2R-ShadowNetは,それぞれシャドー生成,シャドー除去,精細化の3つのサブネットワークで構成され,エンドツーエンドで共同で訓練されている。
特に、シャドウ生成サブネットは非シャドウ領域をシャドウ領域とスタイリングし、シャドウ除去サブネットをトレーニングするためのペアデータを生成する。
istdデータセットとビデオシャドウ削除データセットに関する広範囲な実験により、提案されたg2r-shadownetが現在の芸術と競合するパフォーマンスを達成し、leとsamarsのパッチベースのシャドウ削除法を上回った。
関連論文リスト
- Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - ShaDocNet: Learning Spatial-Aware Tokens in Transformer for Document
Shadow Removal [53.01990632289937]
本稿では,文書陰影除去のためのトランスフォーマーモデルを提案する。
シャドウとシャドウフリーの両方の領域で、シャドウコンテキストエンコーディングとデコードを使用する。
論文 参考訳(メタデータ) (2022-11-30T01:46:29Z) - DeS3: Adaptive Attention-driven Self and Soft Shadow Removal using ViT Similarity [54.831083157152136]
本稿では,適応的注意とViT類似性に基づいて,ハード,ソフト,セルフシャドーを除去する手法を提案する。
提案手法はSRD, AISTD, LRSS, USR, UIUCデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-11-15T12:15:29Z) - DC-ShadowNet: Single-Image Hard and Soft Shadow Removal Using
Unsupervised Domain-Classifier Guided Network [28.6541488555978]
教師なしドメイン分類器ガイド付きシャドー除去ネットワークDC-ShadowNetを提案する。
物理に基づく無影色度, シャドウロスの知覚的特徴, 境界の滑らかさに基づく新しい損失を導入した。
実験の結果,これらすべての新しいコンポーネントは,ソフトシャドウの処理だけでなく,ハードシャドウの処理にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-07-21T12:04:16Z) - UnShadowNet: Illumination Critic Guided Contrastive Learning For Shadow
Removal [14.898039056038789]
弱教師付きシャドウ除去フレームワークUnShadowNetを導入する。
イルミネーションネットワークの誘導の下で抽出した影を除去するDeShadowerネットワークで構成されている。
We show that UnShadowNet can be extended to a full-supervised set-up to to exploit the ground-truth when available。
論文 参考訳(メタデータ) (2022-03-29T11:17:02Z) - Learning from Synthetic Shadows for Shadow Detection and Removal [43.53464469097872]
最近のシャドウ除去は、実対のシャドウ/シャドウフリーまたはシャドウ/シャドウ/マスクイメージデータセット上のすべてのトレイン畳み込みニューラルネットワーク(CNN)にアプローチしている。
今回紹介するSynShadowは、新しい大規模合成影/影なし/マット画像トリプレットデータセットと合成パイプラインである。
論文 参考訳(メタデータ) (2021-01-05T18:56:34Z) - Physics-based Shadow Image Decomposition for Shadow Removal [36.41558227710456]
陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルにインスパイアされ、線形照明変換を用いて画像内の影効果をモデル化する。
最も困難なシャドウ除去データセットでフレームワークをトレーニングし、テストします。
論文 参考訳(メタデータ) (2020-12-23T23:06:38Z) - Self-Supervised Shadow Removal [130.6657167667636]
条件付きマスクを用いた自己教師付き学習による教師なしシングルイメージシャドウ除去ソリューションを提案する。
既存の文献とは対照的に、一対のシャドウとシャドウのない画像は必要とせず、自己スーパービジョンに頼り、画像にシャドウを取り除いて追加するために深いモデルを共同で学習する。
論文 参考訳(メタデータ) (2020-10-22T11:33:41Z) - From Shadow Segmentation to Shadow Removal [34.762493656937366]
シャドウとシャドウフリーの画像のペアの必要性は、シャドウ除去データセットのサイズと多様性を制限している。
本研究では,影画像から抽出した陰影と非陰影パッチのみを用いて,陰影除去法を提案する。
論文 参考訳(メタデータ) (2020-08-01T14:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。