論文の概要: UnShadowNet: Illumination Critic Guided Contrastive Learning For Shadow
Removal
- arxiv url: http://arxiv.org/abs/2203.15441v1
- Date: Tue, 29 Mar 2022 11:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 16:33:24.520659
- Title: UnShadowNet: Illumination Critic Guided Contrastive Learning For Shadow
Removal
- Title(参考訳): UnShadowNet:照明批判的指導によるシャドー除去のためのコントラスト学習
- Authors: Subhrajyoti Dasgupta, Arindam Das, Sudip Das, Andrei Bursuc, Ujjwal
Bhattacharya and Senthil Yogamani
- Abstract要約: 弱教師付きシャドウ除去フレームワークUnShadowNetを導入する。
イルミネーションネットワークの誘導の下で抽出された影を除去するDeShadowerネットワークで構成されている。
完全に教師された設定に容易に拡張でき、利用可能な場合の地平を活用できる。
- 参考スコア(独自算出の注目度): 8.80429308066271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shadows are frequently encountered natural phenomena that significantly
hinder the performance of computer vision perception systems in practical
settings, e.g., autonomous driving. A solution to this would be to eliminate
shadow regions from the images before the processing of the perception system.
Yet, training such a solution requires pairs of aligned shadowed and
non-shadowed images which are difficult to obtain. We introduce a novel weakly
supervised shadow removal framework UnShadowNet trained using contrastive
learning. It comprises of a DeShadower network responsible for removal of the
extracted shadow under the guidance of an Illumination network which is trained
adversarially by the illumination critic and a Refinement network to further
remove artifacts. We show that UnShadowNet can also be easily extended to a
fully-supervised setup to exploit the ground-truth when available. UnShadowNet
outperforms existing state-of-the-art approaches on three publicly available
shadow datasets (ISTD, adjusted ISTD, SRD) in both the weakly and fully
supervised setups.
- Abstract(参考訳): シャドウはしばしば自然現象に遭遇し、例えば自動運転のような実用的な環境でのコンピュータビジョン知覚システムの性能を著しく阻害する。
これに対する解決策は、知覚系の処理の前に画像から影領域を取り除くことである。
しかし、そのようなソリューションのトレーニングには、取得が難しいアライメントされたシャドウ画像と非シャドウ画像のペアが必要となる。
対照学習を用いて訓練した弱教師付きシャドウ除去フレームワークUnShadowNetを導入する。
本発明は、照明評論家に逆らって訓練された照明ネットワークの指導の下、抽出した影を除去するDeShadowerネットワークと、アーティファクトをさらに除去するRefinementネットワークとから構成される。
我々は,unshadownet を完全な教師付き設定に拡張して,利用可能であれば基盤を活用できることを示した。
UnShadowNetは、3つの公開シャドウデータセット(ISTD、調整されたISTD、SRD)に対して、弱い設定と完全に管理された設定の両方において、既存の最先端のアプローチより優れている。
関連論文リスト
- OmniSR: Shadow Removal under Direct and Indirect Lighting [16.90413085184936]
間接照明からのシャドウ除去における重要な課題は、シャドウ除去ネットワークを訓練するためのシャドウフリー画像を取得することである。
直接的および間接的な照明下で影のない画像を生成するための新しいレンダリングパイプラインを提案する。
また,結合と注意機構を通じて意味的および幾何学的先行を明示的に統合する,革新的なシャドウ除去ネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:30:10Z) - ShadowRemovalNet: Efficient Real-Time Shadow Removal [3.0516727053033392]
ShadowRemovalNetは、リソース制約のあるハードウェア上でリアルタイム画像処理を行う新しい方法である。
既存の手法に比べてフレームレートが大幅に向上する。
推論中に別のシャドウマスクを必要としない。
論文 参考訳(メタデータ) (2024-03-13T00:04:07Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Structure-Informed Shadow Removal Networks [67.57092870994029]
既存のディープラーニングベースのシャドウ除去手法は、依然として影の残像を持つ画像を生成する。
本稿では,影残差問題に対処するために,画像構造情報を活用する構造インフォームド・シャドウ除去ネットワーク(StructNet)を提案する。
我々の手法は既存のシャドウ除去方法よりも優れており、StructNetは既存の手法と統合してさらに改善することができる。
論文 参考訳(メタデータ) (2023-01-09T06:31:52Z) - ShaDocNet: Learning Spatial-Aware Tokens in Transformer for Document
Shadow Removal [53.01990632289937]
本稿では,文書陰影除去のためのトランスフォーマーモデルを提案する。
シャドウとシャドウフリーの両方の領域で、シャドウコンテキストエンコーディングとデコードを使用する。
論文 参考訳(メタデータ) (2022-11-30T01:46:29Z) - DeS3: Adaptive Attention-driven Self and Soft Shadow Removal using ViT Similarity [54.831083157152136]
本稿では,適応的注意とViT類似性に基づいて,ハード,ソフト,セルフシャドーを除去する手法を提案する。
提案手法はSRD, AISTD, LRSS, USR, UIUCデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-11-15T12:15:29Z) - DC-ShadowNet: Single-Image Hard and Soft Shadow Removal Using
Unsupervised Domain-Classifier Guided Network [28.6541488555978]
教師なしドメイン分類器ガイド付きシャドー除去ネットワークDC-ShadowNetを提案する。
物理に基づく無影色度, シャドウロスの知覚的特徴, 境界の滑らかさに基づく新しい損失を導入した。
実験の結果,これらすべての新しいコンポーネントは,ソフトシャドウの処理だけでなく,ハードシャドウの処理にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-07-21T12:04:16Z) - R2D: Learning Shadow Removal to Enhance Fine-Context Shadow Detection [64.10636296274168]
現在のシャドウ検出方法は、小さく、不明瞭で、ぼやけたエッジを持つシャドウ領域を検出する際には、性能が良くない。
本稿では,深層ニューラルネットワークを修復訓練(シャドウ除去)するRestore to Detect(R2D)という新しい手法を提案する。
提案手法は,近年の手法に比べて微妙なコンテキストの検出が可能でありながら,影検出性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-20T15:09:22Z) - From Shadow Generation to Shadow Removal [19.486543304598264]
シャドウ生成を弱教師付きシャドウ除去に活用するG2R-ShadowNetを提案する。
提案されたG2R-ShadowNetは3つのサブネットワークで構成されている。
特に、シャドウ生成サブネットは非シャドウ領域をシャドウ領域とスタイリングし、シャドウ除去サブネットをトレーニングするためのペアデータを生成する。
論文 参考訳(メタデータ) (2021-03-24T05:49:08Z) - Self-Supervised Shadow Removal [130.6657167667636]
条件付きマスクを用いた自己教師付き学習による教師なしシングルイメージシャドウ除去ソリューションを提案する。
既存の文献とは対照的に、一対のシャドウとシャドウのない画像は必要とせず、自己スーパービジョンに頼り、画像にシャドウを取り除いて追加するために深いモデルを共同で学習する。
論文 参考訳(メタデータ) (2020-10-22T11:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。