論文の概要: Shadow Generation for Composite Image in Real-world Scenes
- arxiv url: http://arxiv.org/abs/2104.10338v1
- Date: Wed, 21 Apr 2021 03:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:17:34.433210
- Title: Shadow Generation for Composite Image in Real-world Scenes
- Title(参考訳): 実世界シーンにおける複合画像の影生成
- Authors: Yan Hong, Li Niu, Jianfu Zhang, Liqing Zhang
- Abstract要約: 本稿では,シャドウマスク予測段階とシャドウマスク充填段階からなる新しいシャドウ生成ネットワークsgrnetを提案する。
シャドウマスク予測段階では、フォアグラウンドと背景情報が徹底的に相互作用してフォアグラウンドシャドウマスクを生成する。
シャドウ充填段階では、シャドウパラメータがシャドウ領域を満たすように予測される。
- 参考スコア(独自算出の注目度): 23.532079444113528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image composition targets at inserting a foreground object on a background
image. Most previous image composition methods focus on adjusting the
foreground to make it compatible with background while ignoring the shadow
effect of foreground on the background. In this work, we focus on generating
plausible shadow for the foreground object in the composite image. First, we
contribute a real-world shadow generation dataset DESOBA by generating
synthetic composite images based on paired real images and deshadowed images.
Then, we propose a novel shadow generation network SGRNet, which consists of a
shadow mask prediction stage and a shadow filling stage. In the shadow mask
prediction stage, foreground and background information are thoroughly
interacted to generate foreground shadow mask. In the shadow filling stage,
shadow parameters are predicted to fill the shadow area. Extensive experiments
on our DESOBA dataset and real composite images demonstrate the effectiveness
of our proposed method.
- Abstract(参考訳): 画像合成は、背景画像に前景オブジェクトを挿入するターゲットとなる。
従来の画像合成手法では,前景の影効果を無視しつつ,背景との互換性を保たせるために前景の調整に重点を置いていた。
本研究では,合成画像における前景オブジェクトに対する可塑性影の生成に焦点をあてる。
まず,実画像とデシャドー画像に基づいて合成合成画像を生成することで,実世界の影生成データセットDESOBAを提案する。
そこで我々は,シャドーマスク予測ステージとシャドーフィリングステージからなる新しいシャドー生成ネットワークSGRNetを提案する。
シャドウマスク予測段階では、フォアグラウンドと背景情報が徹底的に相互作用してフォアグラウンドシャドウマスクを生成する。
シャドウ充填段階では、シャドウパラメータがシャドウ領域を満たすように予測される。
desobaデータセットと実合成画像の広範な実験を行い,提案手法の有効性を示した。
関連論文リスト
- Shadow Generation for Composite Image Using Diffusion model [16.316311264197324]
我々は、自然影画像の知識が豊富な基礎モデルに頼っている。
まず、タスクにControlNetを適応させ、次にシャドーインテンシティを改善するためにインテンシティ変調モジュールを提案する。
DESOBAとDESOBAv2データセットと実合成画像の両方の実験結果から,影生成タスクにおけるモデルの有効性が示された。
論文 参考訳(メタデータ) (2024-03-22T14:27:58Z) - DESOBAv2: Towards Large-scale Real-world Dataset for Shadow Generation [19.376935979734714]
本研究では,合成画像をよりリアルにするために,挿入された前景オブジェクトに対する可塑性影の生成に焦点をあてる。
既存の小規模なデータセットであるDESOBAを補完するために、DESOBAv2と呼ばれる大規模なデータセットを作成します。
論文 参考訳(メタデータ) (2023-08-19T10:21:23Z) - SDDNet: Style-guided Dual-layer Disentanglement Network for Shadow
Detection [85.16141353762445]
入力シャドウ画像を背景層と影層の合成として扱い、これらの層を独立にモデル化するためのスタイル誘導デュアル層ディスタングルネットワークを設計する。
提案モデルは背景色による有害な効果を効果的に最小化し,32FPSのリアルタイム推論速度を持つ3つの公開データセットに対して優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-17T12:10:51Z) - Shadow Generation with Decomposed Mask Prediction and Attentive Shadow
Filling [26.780859992812186]
我々は、合成画像をよりリアルにするために、挿入された前景オブジェクトに対して可塑性影を生成することに重点を置いている。
既存の小規模データセットを補完するために、レンダリング技術を備えたRdSOBAと呼ばれる大規模データセットを作成します。
我々は、マスク予測と注意影の埋め合わせを備えたDMASNetという2段階ネットワークを設計する。
論文 参考訳(メタデータ) (2023-06-30T01:32:16Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Shadow-Aware Dynamic Convolution for Shadow Removal [80.82708225269684]
シャドウ領域と非シャドウ領域間の相互依存を分離するための新しいシャドウ・アウェア・ダイナミック・コンボリューション(SADC)モジュールを提案する。
我々のSADCは、非シャドウ領域の色マッピングが学習しやすいという事実に触発され、軽量な畳み込みモジュールで非シャドウ領域を処理する。
我々は,非シャドウ地域からシャドウ地域への情報フローを強化するために,新しいコンボリューション内蒸留損失を開発した。
論文 参考訳(メタデータ) (2022-05-10T14:00:48Z) - SIDNet: Learning Shading-aware Illumination Descriptor for Image
Harmonization [10.655037947250516]
画像調和は、背景との互換性を高めるために前景の外観を調整することを目的としている。
画像調和タスクを,1)背景画像の照度推定と2)背景照明下の前景オブジェクトの再レンダリングの2つのサブプロブレムに分解する。
論文 参考訳(メタデータ) (2021-12-02T15:18:29Z) - Making Images Real Again: A Comprehensive Survey on Deep Image Composition [34.09380539557308]
画像合成タスクは複数のサブタスクに分割でき、各サブタスクは1つ以上の課題を目標とすることができる。
本稿では,サブタスクの包括的調査と画像合成のブレンディングを行う。
それぞれについて、既存のメソッド、利用可能なデータセット、一般的な評価指標を要約する。
論文 参考訳(メタデータ) (2021-06-28T09:09:14Z) - Adversarial Image Composition with Auxiliary Illumination [53.89445873577062]
本稿では,現実的な画像合成を実現するためのAIC-Netを提案する。
影の発生と前景の移動を両立させる新しい分岐生成機構を提案する。
歩行者と自動車のコンポジションタスクに関する実験により,提案したAIC-Netが優れたコンポジション性能を実現することを示す。
論文 参考訳(メタデータ) (2020-09-17T12:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。