論文の概要: Learning from Synthetic Shadows for Shadow Detection and Removal
- arxiv url: http://arxiv.org/abs/2101.01713v2
- Date: Sat, 13 Feb 2021 06:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:33:21.769653
- Title: Learning from Synthetic Shadows for Shadow Detection and Removal
- Title(参考訳): 陰影検出・除去のための合成影からの学習
- Authors: Naoto Inoue, Toshihiko Yamasaki
- Abstract要約: 最近のシャドウ除去は、実対のシャドウ/シャドウフリーまたはシャドウ/シャドウ/マスクイメージデータセット上のすべてのトレイン畳み込みニューラルネットワーク(CNN)にアプローチしている。
今回紹介するSynShadowは、新しい大規模合成影/影なし/マット画像トリプレットデータセットと合成パイプラインである。
- 参考スコア(独自算出の注目度): 43.53464469097872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shadow removal is an essential task in computer vision and computer graphics.
Recent shadow removal approaches all train convolutional neural networks (CNN)
on real paired shadow/shadow-free or shadow/shadow-free/mask image datasets.
However, obtaining a large-scale, diverse, and accurate dataset has been a big
challenge, and it limits the performance of the learned models on shadow images
with unseen shapes/intensities. To overcome this challenge, we present
SynShadow, a novel large-scale synthetic shadow/shadow-free/matte image
triplets dataset and a pipeline to synthesize it. We extend a
physically-grounded shadow illumination model and synthesize a shadow image
given an arbitrary combination of a shadow-free image, a matte image, and
shadow attenuation parameters. Owing to the diversity, quantity, and quality of
SynShadow, we demonstrate that shadow removal models trained on SynShadow
perform well in removing shadows with diverse shapes and intensities on some
challenging benchmarks. Furthermore, we show that merely fine-tuning from a
SynShadow-pre-trained model improves existing shadow detection and removal
models. Codes are publicly available at https://github.com/naoto0804/SynShadow.
- Abstract(参考訳): シャドウ除去はコンピュータビジョンとコンピュータグラフィックスにおいて重要な課題である。
最近のシャドウ除去は、実対のシャドウ/シャドウフリーまたはシャドウ/シャドウ/マスクイメージデータセット上のすべてのトレイン畳み込みニューラルネットワーク(CNN)にアプローチしている。
しかし、大規模で多様で正確なデータセットを得ることは大きな課題であり、未知の形状/強度を持つ影画像上の学習モデルの性能を制限する。
この課題を克服するために,synshadowという,新しい大規模合成シャドウ・シャドウフリー・マット画像トリプレットデータセットと合成パイプラインを提案する。
物理的に接地した影照明モデルを拡張し、影のない画像、マット画像、影減衰パラメータを任意に組み合わせた影画像を合成する。
SynShadowの多様性,量,品質から,SynShadowで訓練されたシャドウ除去モデルが,様々な形状や強度のシャドウ除去に有効であることを示す。
さらに,synshadow-pre-trainedモデルからの微調整だけで,既存のシャドウ検出と削除モデルが改善されることを示す。
コードはhttps://github.com/naoto0804/SynShadowで公開されている。
関連論文リスト
- SoftShadow: Leveraging Penumbra-Aware Soft Masks for Shadow Removal [35.16957947180504]
シャドウ除去に特化して設計された新しいソフトシャドウマスクを導入する。
このようなソフトマスクを実現するために,事前学習されたSAMの事前知識を活用したtextitSoftShadowフレームワークを提案する。
このフレームワークは、端から端までのシャドウ除去を同時に容易にしながら、ペナムブラ(部分陰影領域)とウンブラ(完全に陰影領域)の正確な予測を可能にする。
論文 参考訳(メタデータ) (2024-09-11T06:12:26Z) - Shadow Removal Refinement via Material-Consistent Shadow Edges [33.8383848078524]
同じ材料で領域を横断する影の縁の両側には、影を適切に取り除けば、原色とテクスチャは同一であるべきである。
画像セグメンテーション基盤モデルであるSAMを微調整し、影不変セグメンテーションを生成し、材料一貫性のあるシャドウエッジを抽出する。
本手法は,より難易度の高い画像に対して,影除去結果の改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-09-10T20:16:28Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - ShaDocNet: Learning Spatial-Aware Tokens in Transformer for Document
Shadow Removal [53.01990632289937]
本稿では,文書陰影除去のためのトランスフォーマーモデルを提案する。
シャドウとシャドウフリーの両方の領域で、シャドウコンテキストエンコーディングとデコードを使用する。
論文 参考訳(メタデータ) (2022-11-30T01:46:29Z) - Shadow-Aware Dynamic Convolution for Shadow Removal [80.82708225269684]
シャドウ領域と非シャドウ領域間の相互依存を分離するための新しいシャドウ・アウェア・ダイナミック・コンボリューション(SADC)モジュールを提案する。
我々のSADCは、非シャドウ領域の色マッピングが学習しやすいという事実に触発され、軽量な畳み込みモジュールで非シャドウ領域を処理する。
我々は,非シャドウ地域からシャドウ地域への情報フローを強化するために,新しいコンボリューション内蒸留損失を開発した。
論文 参考訳(メタデータ) (2022-05-10T14:00:48Z) - From Shadow Generation to Shadow Removal [19.486543304598264]
シャドウ生成を弱教師付きシャドウ除去に活用するG2R-ShadowNetを提案する。
提案されたG2R-ShadowNetは3つのサブネットワークで構成されている。
特に、シャドウ生成サブネットは非シャドウ領域をシャドウ領域とスタイリングし、シャドウ除去サブネットをトレーニングするためのペアデータを生成する。
論文 参考訳(メタデータ) (2021-03-24T05:49:08Z) - Physics-based Shadow Image Decomposition for Shadow Removal [36.41558227710456]
陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルにインスパイアされ、線形照明変換を用いて画像内の影効果をモデル化する。
最も困難なシャドウ除去データセットでフレームワークをトレーニングし、テストします。
論文 参考訳(メタデータ) (2020-12-23T23:06:38Z) - Self-Supervised Shadow Removal [130.6657167667636]
条件付きマスクを用いた自己教師付き学習による教師なしシングルイメージシャドウ除去ソリューションを提案する。
既存の文献とは対照的に、一対のシャドウとシャドウのない画像は必要とせず、自己スーパービジョンに頼り、画像にシャドウを取り除いて追加するために深いモデルを共同で学習する。
論文 参考訳(メタデータ) (2020-10-22T11:33:41Z) - From Shadow Segmentation to Shadow Removal [34.762493656937366]
シャドウとシャドウフリーの画像のペアの必要性は、シャドウ除去データセットのサイズと多様性を制限している。
本研究では,影画像から抽出した陰影と非陰影パッチのみを用いて,陰影除去法を提案する。
論文 参考訳(メタデータ) (2020-08-01T14:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。