論文の概要: CANet: A Context-Aware Network for Shadow Removal
- arxiv url: http://arxiv.org/abs/2108.09894v1
- Date: Mon, 23 Aug 2021 02:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:42:33.340192
- Title: CANet: A Context-Aware Network for Shadow Removal
- Title(参考訳): CANet: シャドー除去のためのコンテキスト認識ネットワーク
- Authors: Zipei Chen, Chengjiang Long, Ling Zhang, Chunxia Xiao
- Abstract要約: 本稿では,影除去のためのコンテキスト認識ネットワークCANetを提案する。
非シャドウ領域からのコンテキスト情報は、埋め込み特徴空間の影領域に転送される。
提案したCANetを,2つのベンチマークデータセットと,複雑なシーンを持つ実世界の影画像を用いて評価した。
- 参考スコア(独自算出の注目度): 27.73332935893127
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a novel two-stage context-aware network named CANet
for shadow removal, in which the contextual information from non-shadow regions
is transferred to shadow regions at the embedded feature spaces. At Stage-I, we
propose a contextual patch matching (CPM) module to generate a set of potential
matching pairs of shadow and non-shadow patches. Combined with the potential
contextual relationships between shadow and non-shadow regions, our
well-designed contextual feature transfer (CFT) mechanism can transfer
contextual information from non-shadow to shadow regions at different scales.
With the reconstructed feature maps, we remove shadows at L and A/B channels
separately. At Stage-II, we use an encoder-decoder to refine current results
and generate the final shadow removal results. We evaluate our proposed CANet
on two benchmark datasets and some real-world shadow images with complex
scenes. Extensive experimental results strongly demonstrate the efficacy of our
proposed CANet and exhibit superior performance to state-of-the-arts.
- Abstract(参考訳): 本稿では,非シャドー領域からのコンテキスト情報を埋め込み特徴空間のシャドウ領域に転送する,シャドウ除去のための2段階のコンテキスト認識ネットワークcanetを提案する。
ステージiでは,シャドウパッチと非シャドウパッチの潜在的なマッチングペアを生成するためのcpm(contextual patch matching)モジュールを提案する。
シャドウ領域と非シャドウ領域間の潜在的なコンテキスト関係と組み合わせることで、よく設計されたコンテキスト特徴伝達(CFT)機構は、異なるスケールで非シャドウ領域からシャドウ領域へコンテキスト情報を転送することができる。
再構成された特徴写像により、LとA/Bチャネルの影を別々に除去する。
ステージIIでは、エンコーダデコーダを用いて現在の結果を洗練し、最終的なシャドウ除去結果を生成する。
提案したCANetを2つのベンチマークデータセットと複雑なシーンを持つ実世界の影画像で評価した。
提案したCANetの有効性を強く実証し,最先端技術に優れた性能を示した。
関連論文リスト
- MetaShadow: Object-Centered Shadow Detection, Removal, and Synthesis [64.00425120075045]
シャドウは画像編集アプリケーションでは過小評価されるか無視されることが多く、編集結果のリアリズムが制限される。
本稿では,自然画像中の影の検出・除去・制御が可能な3-in-one多元性フレームワークであるMetaShadowを紹介する。
論文 参考訳(メタデータ) (2024-12-03T18:04:42Z) - SwinShadow: Shifted Window for Ambiguous Adjacent Shadow Detection [90.4751446041017]
スウィンシャドウ(SwinShadow)は、隣接する影を検出するための強力なシフトウインドウ機構をフル活用したトランスフォーマーベースのアーキテクチャである。
プロセス全体は、エンコーダ、デコーダ、機能統合の3つの部分に分けられる。
SBU, UCF, ISTDの3つのシャドウ検出ベンチマークデータセットの実験により, ネットワークがバランスエラー率(BER)の点で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-07T03:16:33Z) - SILT: Shadow-aware Iterative Label Tuning for Learning to Detect Shadows
from Noisy Labels [53.30604926018168]
本稿では,シャドウラベルのノイズを明示的に考慮し,自己学習で深層モデルを訓練する,シャドウ対応反復ラベルチューニングフレームワークSILTを提案する。
また,グローバルな局所融合とシャドウ・アウェア・フィルタリングを併用した簡易かつ効果的なラベルチューニング戦略を考案し,ノイズラベルの大幅な改善を図った。
その結果,SILTで訓練した単純なU-Netでさえ,最先端の手法を大きなマージンで上回ることができることがわかった。
論文 参考訳(メタデータ) (2023-08-23T11:16:36Z) - Learning Restoration is Not Enough: Transfering Identical Mapping for
Single-Image Shadow Removal [19.391619888009064]
最先端のシャドウ除去方法は、収集されたシャドウとシャドウフリーの画像ペアでディープニューラルネットワークを訓練する。
2つのタスクは互換性が低く、これらの2つのタスクの共有重み付けを使用することで、モデルが1つのタスクに最適化される可能性がある。
本稿では,これら2つのタスクを個別に処理し,同一のマッピング結果を利用して,影の復元を反復的に導くことを提案する。
論文 参考訳(メタデータ) (2023-05-18T01:36:23Z) - ShadowFormer: Global Context Helps Image Shadow Removal [41.742799378751364]
シャドウ領域と非シャドウ領域のグローバルな文脈的相関を利用して、ディープシャドウ除去モデルを構築することは依然として困難である。
そこで我々はまず、ShandowFormerと呼ばれる新しいトランスフォーマーベースのネットワークを導出するRetinexベースのシャドウモデルを提案する。
グローバル情報を階層的にキャプチャするために,マルチスケールチャネルアテンションフレームワークが使用される。
本稿では,影と非陰影領域のコンテキスト相関を効果的にモデル化するために,影の相互作用を考慮したSIM(Shadow-Interaction Module)を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:54:52Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - ShaDocNet: Learning Spatial-Aware Tokens in Transformer for Document
Shadow Removal [53.01990632289937]
本稿では,文書陰影除去のためのトランスフォーマーモデルを提案する。
シャドウとシャドウフリーの両方の領域で、シャドウコンテキストエンコーディングとデコードを使用する。
論文 参考訳(メタデータ) (2022-11-30T01:46:29Z) - CRFormer: A Cross-Region Transformer for Shadow Removal [27.67680052355886]
影除去のための新しいクロスリージョントランス、CRFormerを提案する。
これは、慎重に設計された地域対応のクロスアテンション操作によって実現される。
ISTD, AISTD, SRD, およびビデオシャドウ除去データセットの実験により, 本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-07-04T17:33:02Z) - Shadow-Aware Dynamic Convolution for Shadow Removal [80.82708225269684]
シャドウ領域と非シャドウ領域間の相互依存を分離するための新しいシャドウ・アウェア・ダイナミック・コンボリューション(SADC)モジュールを提案する。
我々のSADCは、非シャドウ領域の色マッピングが学習しやすいという事実に触発され、軽量な畳み込みモジュールで非シャドウ領域を処理する。
我々は,非シャドウ地域からシャドウ地域への情報フローを強化するために,新しいコンボリューション内蒸留損失を開発した。
論文 参考訳(メタデータ) (2022-05-10T14:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。