論文の概要: Physics-based Shadow Image Decomposition for Shadow Removal
- arxiv url: http://arxiv.org/abs/2012.13018v1
- Date: Wed, 23 Dec 2020 23:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 19:25:11.191976
- Title: Physics-based Shadow Image Decomposition for Shadow Removal
- Title(参考訳): シャドウ除去のための物理に基づくシャドウ画像分解
- Authors: Hieu Le and Dimitris Samaras
- Abstract要約: 陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルにインスパイアされ、線形照明変換を用いて画像内の影効果をモデル化する。
最も困難なシャドウ除去データセットでフレームワークをトレーニングし、テストします。
- 参考スコア(独自算出の注目度): 36.41558227710456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel deep learning method for shadow removal. Inspired by
physical models of shadow formation, we use a linear illumination
transformation to model the shadow effects in the image that allows the shadow
image to be expressed as a combination of the shadow-free image, the shadow
parameters, and a matte layer. We use two deep networks, namely SP-Net and
M-Net, to predict the shadow parameters and the shadow matte respectively. This
system allows us to remove the shadow effects from images. We then employ an
inpainting network, I-Net, to further refine the results. We train and test our
framework on the most challenging shadow removal dataset (ISTD). Our method
improves the state-of-the-art in terms of root mean square error (RMSE) for the
shadow area by 20\%. Furthermore, this decomposition allows us to formulate a
patch-based weakly-supervised shadow removal method. This model can be trained
without any shadow-free images (that are cumbersome to acquire) and achieves
competitive shadow removal results compared to state-of-the-art methods that
are trained with fully paired shadow and shadow-free images. Last, we introduce
SBU-Timelapse, a video shadow removal dataset for evaluating shadow removal
methods.
- Abstract(参考訳): 陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルに着想を得て,影像を影のない画像,影パラメータ,マット層の組み合わせとして表現できる画像の影効果を線形照明変換によりモデル化する。
我々はSP-NetとM-Netという2つの深いネットワークを用いてそれぞれ影パラメータと影行列を予測する。
このシステムにより、画像から影効果を除去できる。
次に、インペイントネットワークであるI-Netを使って結果をさらに洗練します。
私たちは、最も難しいシャドウ除去データセット(ISTD)でフレームワークをトレーニングし、テストします。
本手法は,影領域の根平均二乗誤差(RMSE)を20 %改善する。
さらに,この分解により,パッチベースの弱教師付きシャドウ除去法を定式化できる。
このモデルは、(取得しづらい)シャドウフリーの画像なしでトレーニングでき、完全にペアのシャドウとシャドウフリーの画像で訓練された最先端の手法と比較して、競合するシャドウ除去結果が得られる。
最後に、シャドウ除去手法を評価するためのビデオシャドウ除去データセットであるSBU-Timelapseを紹介する。
関連論文リスト
- Shadow Removal Refinement via Material-Consistent Shadow Edges [33.8383848078524]
同じ材料で領域を横断する影の縁の両側には、影を適切に取り除けば、原色とテクスチャは同一であるべきである。
画像セグメンテーション基盤モデルであるSAMを微調整し、影不変セグメンテーションを生成し、材料一貫性のあるシャドウエッジを抽出する。
本手法は,より難易度の高い画像に対して,影除去結果の改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-09-10T20:16:28Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Structure-Informed Shadow Removal Networks [67.57092870994029]
既存のディープラーニングベースのシャドウ除去手法は、依然として影の残像を持つ画像を生成する。
本稿では,影残差問題に対処するために,画像構造情報を活用する構造インフォームド・シャドウ除去ネットワーク(StructNet)を提案する。
我々の手法は既存のシャドウ除去方法よりも優れており、StructNetは既存の手法と統合してさらに改善することができる。
論文 参考訳(メタデータ) (2023-01-09T06:31:52Z) - DeS3: Adaptive Attention-driven Self and Soft Shadow Removal using ViT Similarity [54.831083157152136]
本稿では,適応的注意とViT類似性に基づいて,ハード,ソフト,セルフシャドーを除去する手法を提案する。
提案手法はSRD, AISTD, LRSS, USR, UIUCデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-11-15T12:15:29Z) - R2D: Learning Shadow Removal to Enhance Fine-Context Shadow Detection [64.10636296274168]
現在のシャドウ検出方法は、小さく、不明瞭で、ぼやけたエッジを持つシャドウ領域を検出する際には、性能が良くない。
本稿では,深層ニューラルネットワークを修復訓練(シャドウ除去)するRestore to Detect(R2D)という新しい手法を提案する。
提案手法は,近年の手法に比べて微妙なコンテキストの検出が可能でありながら,影検出性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-20T15:09:22Z) - Unsupervised Portrait Shadow Removal via Generative Priors [37.46753287881341]
トレーニングデータなしで肖像画の影を除去するための最初の教師なし手法を提案する。
私たちのキーとなるアイデアは、既成のStyleGAN2に埋め込まれた生成的な顔の事前情報を活用することです。
私たちのアプローチは、ポートレートタトゥーの削除や透かしの除去にも適用できます。
論文 参考訳(メタデータ) (2021-08-07T15:09:36Z) - From Shadow Generation to Shadow Removal [19.486543304598264]
シャドウ生成を弱教師付きシャドウ除去に活用するG2R-ShadowNetを提案する。
提案されたG2R-ShadowNetは3つのサブネットワークで構成されている。
特に、シャドウ生成サブネットは非シャドウ領域をシャドウ領域とスタイリングし、シャドウ除去サブネットをトレーニングするためのペアデータを生成する。
論文 参考訳(メタデータ) (2021-03-24T05:49:08Z) - Learning from Synthetic Shadows for Shadow Detection and Removal [43.53464469097872]
最近のシャドウ除去は、実対のシャドウ/シャドウフリーまたはシャドウ/シャドウ/マスクイメージデータセット上のすべてのトレイン畳み込みニューラルネットワーク(CNN)にアプローチしている。
今回紹介するSynShadowは、新しい大規模合成影/影なし/マット画像トリプレットデータセットと合成パイプラインである。
論文 参考訳(メタデータ) (2021-01-05T18:56:34Z) - Self-Supervised Shadow Removal [130.6657167667636]
条件付きマスクを用いた自己教師付き学習による教師なしシングルイメージシャドウ除去ソリューションを提案する。
既存の文献とは対照的に、一対のシャドウとシャドウのない画像は必要とせず、自己スーパービジョンに頼り、画像にシャドウを取り除いて追加するために深いモデルを共同で学習する。
論文 参考訳(メタデータ) (2020-10-22T11:33:41Z) - From Shadow Segmentation to Shadow Removal [34.762493656937366]
シャドウとシャドウフリーの画像のペアの必要性は、シャドウ除去データセットのサイズと多様性を制限している。
本研究では,影画像から抽出した陰影と非陰影パッチのみを用いて,陰影除去法を提案する。
論文 参考訳(メタデータ) (2020-08-01T14:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。