論文の概要: ShadowHack: Hacking Shadows via Luminance-Color Divide and Conquer
- arxiv url: http://arxiv.org/abs/2412.02545v1
- Date: Tue, 03 Dec 2024 16:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:18.593670
- Title: ShadowHack: Hacking Shadows via Luminance-Color Divide and Conquer
- Title(参考訳): ShadowHack:Luminance-Color DivideとConquerでシャドウをハック
- Authors: Jin Hu, Mingjia Li, Xiaojie Guo,
- Abstract要約: シャドーは、画像の明るさの低減、テクスチャ劣化、色歪みなどの課題を導入する。
本研究は,従来のタスクを輝度回復と色修復に分解することで,これらの複雑さに対処する分割型戦略である textbfShadowHack を提案する。
- 参考スコア(独自算出の注目度): 10.575174563308046
- License:
- Abstract: Shadows introduce challenges such as reduced brightness, texture deterioration, and color distortion in images, complicating a holistic solution. This study presents \textbf{ShadowHack}, a divide-and-conquer strategy that tackles these complexities by decomposing the original task into luminance recovery and color remedy. To brighten shadow regions and repair the corrupted textures in the luminance space, we customize LRNet, a U-shaped network with a rectified outreach attention module, to enhance information interaction and recalibrate contaminated attention maps. With luminance recovered, CRNet then leverages cross-attention mechanisms to revive vibrant colors, producing visually compelling results. Extensive experiments on multiple datasets are conducted to demonstrate the superiority of ShadowHack over existing state-of-the-art solutions both quantitatively and qualitatively, highlighting the effectiveness of our design. Our code will be made publicly available at https://github.com/lime-j/ShadowHack
- Abstract(参考訳): シャドウは、明るさの低減、テクスチャ劣化、画像の色歪みといった課題を導入し、全体解を複雑化する。
本研究は、これらの複雑さに対処し、元のタスクを輝度回復と色修復に分解することで、分割・分散戦略である「textbf{ShadowHack}」を提示する。
輝度空間の影領域を明るくし,劣化したテクスチャを修復するために,修正されたアウトリーチアテンションモジュールを備えたU字型ネットワークであるLRNetをカスタマイズし,情報相互作用を強化し,汚染されたアテンションマップを校正する。
輝度が回復すると、CRNetはクロスアテンション機構を利用して鮮やかな色を再現し、視覚的に魅力的な結果を生み出す。
複数のデータセットに対する大規模な実験を行い、既存の最先端ソリューションよりもShadowHackの方が定量的かつ質的に優れていることを示し、設計の有効性を強調した。
私たちのコードはhttps://github.com/lime-j/ShadowHackで公開されます。
関連論文リスト
- Single-Image Shadow Removal Using Deep Learning: A Comprehensive Survey [78.84004293081631]
影のパターンは任意で変化しており、しばしば非常に複雑な痕跡構造を持つ。
影による劣化は空間的に不均一であり、照度と影と非陰影領域間の色に矛盾が生じている。
この分野での最近の開発は、主にディープラーニングベースのソリューションによって進められている。
論文 参考訳(メタデータ) (2024-07-11T20:58:38Z) - Cross-Modal Spherical Aggregation for Weakly Supervised Remote Sensing Shadow Removal [22.4845448174729]
本研究では,S2-ShadowNetと呼ばれる球面特徴空間を持つ弱教師付きシャドウ除去ネットワークを提案する。
具体的には、クロスドメインマッピングを学習するために、モーダル変換(可視赤外)モデルを使用し、現実的な赤外線サンプルを生成する。
シャドウマスクを用いた4000個のシャドウ画像を含む,大規模に監督されたシャドウ除去ベンチマークに寄与する。
論文 参考訳(メタデータ) (2024-06-25T11:14:09Z) - ShadowRefiner: Towards Mask-free Shadow Removal via Fast Fourier Transformer [41.008740643546226]
影に影響された画像は、しばしば色と照明の空間的な違いが顕著に現れる。
我々はFast Fourier Transformerを介してマスクレスシャドウ除去・精細ネットワーク(ShadowRefiner)を導入する。
本手法は,NTIRE 2024画像シャドウ除去チャレンジのフィデリティトラックにおいて,第2位を達成し,パーセプチュアルトラックのタイトルを獲得した。
論文 参考訳(メタデータ) (2024-04-18T03:53:33Z) - Recasting Regional Lighting for Shadow Removal [41.107191352835315]
影領域では、物体テクスチャの劣化度は局所照明に依存する。
影領域の照明層と反射層を推定するシャドーアウェア分解ネットワークを提案する。
次に、照明層における影領域の照明をリキャストする新たな二元補正ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T05:08:39Z) - SDDNet: Style-guided Dual-layer Disentanglement Network for Shadow
Detection [85.16141353762445]
入力シャドウ画像を背景層と影層の合成として扱い、これらの層を独立にモデル化するためのスタイル誘導デュアル層ディスタングルネットワークを設計する。
提案モデルは背景色による有害な効果を効果的に最小化し,32FPSのリアルタイム推論速度を持つ3つの公開データセットに対して優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-17T12:10:51Z) - Leveraging Inpainting for Single-Image Shadow Removal [29.679542372017373]
本研究では,画像インペイントデータセットにおける影除去ネットワークの事前学習により,影の残差を著しく低減できることを示す。
単純エンコーダ・デコーダネットワークは、10%のシャドウとシャドウフリーの画像ペアで、最先端の手法で競合する復元品質を得る。
これらの観測から着想を得て,影の除去と画像の塗装を両立させる適応融合タスクとして,影の除去を定式化する。
論文 参考訳(メタデータ) (2023-02-10T16:21:07Z) - Shadow-Aware Dynamic Convolution for Shadow Removal [80.82708225269684]
シャドウ領域と非シャドウ領域間の相互依存を分離するための新しいシャドウ・アウェア・ダイナミック・コンボリューション(SADC)モジュールを提案する。
我々のSADCは、非シャドウ領域の色マッピングが学習しやすいという事実に触発され、軽量な畳み込みモジュールで非シャドウ領域を処理する。
我々は,非シャドウ地域からシャドウ地域への情報フローを強化するために,新しいコンボリューション内蒸留損失を開発した。
論文 参考訳(メタデータ) (2022-05-10T14:00:48Z) - R2D: Learning Shadow Removal to Enhance Fine-Context Shadow Detection [64.10636296274168]
現在のシャドウ検出方法は、小さく、不明瞭で、ぼやけたエッジを持つシャドウ領域を検出する際には、性能が良くない。
本稿では,深層ニューラルネットワークを修復訓練(シャドウ除去)するRestore to Detect(R2D)という新しい手法を提案する。
提案手法は,近年の手法に比べて微妙なコンテキストの検出が可能でありながら,影検出性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-20T15:09:22Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Learning from Synthetic Shadows for Shadow Detection and Removal [43.53464469097872]
最近のシャドウ除去は、実対のシャドウ/シャドウフリーまたはシャドウ/シャドウ/マスクイメージデータセット上のすべてのトレイン畳み込みニューラルネットワーク(CNN)にアプローチしている。
今回紹介するSynShadowは、新しい大規模合成影/影なし/マット画像トリプレットデータセットと合成パイプラインである。
論文 参考訳(メタデータ) (2021-01-05T18:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。