論文の概要: Shadow Generation with Decomposed Mask Prediction and Attentive Shadow
Filling
- arxiv url: http://arxiv.org/abs/2306.17358v3
- Date: Thu, 4 Jan 2024 09:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 17:28:47.513730
- Title: Shadow Generation with Decomposed Mask Prediction and Attentive Shadow
Filling
- Title(参考訳): 分解マスク予測と注意型シャドウフィリングによるシャドウ生成
- Authors: Xinhao Tao, Junyan Cao, Yan Hong, Li Niu
- Abstract要約: 我々は、合成画像をよりリアルにするために、挿入された前景オブジェクトに対して可塑性影を生成することに重点を置いている。
既存の小規模データセットを補完するために、レンダリング技術を備えたRdSOBAと呼ばれる大規模データセットを作成します。
我々は、マスク予測と注意影の埋め合わせを備えたDMASNetという2段階ネットワークを設計する。
- 参考スコア(独自算出の注目度): 26.780859992812186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image composition refers to inserting a foreground object into a background
image to obtain a composite image. In this work, we focus on generating
plausible shadows for the inserted foreground object to make the composite
image more realistic. To supplement the existing small-scale dataset, we create
a large-scale dataset called RdSOBA with rendering techniques. Moreover, we
design a two-stage network named DMASNet with decomposed mask prediction and
attentive shadow filling. Specifically, in the first stage, we decompose shadow
mask prediction into box prediction and shape prediction. In the second stage,
we attend to reference background shadow pixels to fill the foreground shadow.
Abundant experiments prove that our DMASNet achieves better visual effects and
generalizes well to real composite images.
- Abstract(参考訳): 画像構成は、背景画像に前景オブジェクトを挿入して合成画像を得る。
本研究では,合成画像をよりリアルにするために,挿入された前景オブジェクトに対する可塑性影の生成に焦点をあてる。
既存の小規模データセットを補完するために、レンダリング技術を備えたRdSOBAと呼ばれる大規模データセットを作成します。
さらに,マスク予測と注意影の充満を分離した2段階ネットワークDMASNetを設計した。
具体的には,第1段階でシャドウマスク予測をボックス予測と形状予測に分解する。
第2段階では、前景影を埋めるために背景影画素を参照する。
DMASNetはより優れた視覚効果を達成し、実際の合成画像によく応用できることを示す。
関連論文リスト
- SoftShadow: Leveraging Penumbra-Aware Soft Masks for Shadow Removal [35.16957947180504]
シャドウ除去に特化して設計された新しいソフトシャドウマスクを導入する。
このようなソフトマスクを実現するために,事前学習されたSAMの事前知識を活用したtextitSoftShadowフレームワークを提案する。
このフレームワークは、端から端までのシャドウ除去を同時に容易にしながら、ペナムブラ(部分陰影領域)とウンブラ(完全に陰影領域)の正確な予測を可能にする。
論文 参考訳(メタデータ) (2024-09-11T06:12:26Z) - Shadow Generation for Composite Image Using Diffusion model [16.316311264197324]
我々は、自然影画像の知識が豊富な基礎モデルに頼っている。
まず、タスクにControlNetを適応させ、次にシャドーインテンシティを改善するためにインテンシティ変調モジュールを提案する。
DESOBAとDESOBAv2データセットと実合成画像の両方の実験結果から,影生成タスクにおけるモデルの有効性が示された。
論文 参考訳(メタデータ) (2024-03-22T14:27:58Z) - Seeing the Unseen: Visual Common Sense for Semantic Placement [71.76026880991245]
画像が与えられたら、視覚システムは、その物体が置かれたり、人間によって配置される可能性がある画像の意味論的に意味のある領域(マスクまたは境界ボックス)を予測するように要求される。
セマンティック・プレースメント(SP)と呼ばれるこのタスクは、ロボットやARデバイス(ユーザーの空間内でオブジェクトを自動レンダリングする)にとって、このような常識的な視覚的理解が重要であると信じている。
論文 参考訳(メタデータ) (2024-01-15T15:28:30Z) - DESOBAv2: Towards Large-scale Real-world Dataset for Shadow Generation [19.376935979734714]
本研究では,合成画像をよりリアルにするために,挿入された前景オブジェクトに対する可塑性影の生成に焦点をあてる。
既存の小規模なデータセットであるDESOBAを補完するために、DESOBAv2と呼ばれる大規模なデータセットを作成します。
論文 参考訳(メタデータ) (2023-08-19T10:21:23Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Layered Depth Refinement with Mask Guidance [61.10654666344419]
汎用マスクを用いてSIDEモデルの深度予測を洗練させるマスク誘導深度改善の新しい問題を定式化する。
本フレームワークは,奥行きマップをマスクと逆マスクで表される2つの別々の層に分解し,層状改質・塗装・塗装を行う。
本手法は,内面境界領域と外面境界領域の深度を正確に補正し,異なる種類のマスクや初期深度予測に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-06-07T06:42:44Z) - SIDNet: Learning Shading-aware Illumination Descriptor for Image
Harmonization [10.655037947250516]
画像調和は、背景との互換性を高めるために前景の外観を調整することを目的としている。
画像調和タスクを,1)背景画像の照度推定と2)背景照明下の前景オブジェクトの再レンダリングの2つのサブプロブレムに分解する。
論文 参考訳(メタデータ) (2021-12-02T15:18:29Z) - Shadow Generation for Composite Image in Real-world Scenes [23.532079444113528]
本稿では,シャドウマスク予測段階とシャドウマスク充填段階からなる新しいシャドウ生成ネットワークsgrnetを提案する。
シャドウマスク予測段階では、フォアグラウンドと背景情報が徹底的に相互作用してフォアグラウンドシャドウマスクを生成する。
シャドウ充填段階では、シャドウパラメータがシャドウ領域を満たすように予測される。
論文 参考訳(メタデータ) (2021-04-21T03:30:02Z) - Adversarial Image Composition with Auxiliary Illumination [53.89445873577062]
本稿では,現実的な画像合成を実現するためのAIC-Netを提案する。
影の発生と前景の移動を両立させる新しい分岐生成機構を提案する。
歩行者と自動車のコンポジションタスクに関する実験により,提案したAIC-Netが優れたコンポジション性能を実現することを示す。
論文 参考訳(メタデータ) (2020-09-17T12:58:16Z) - BachGAN: High-Resolution Image Synthesis from Salient Object Layout [78.51640906030244]
本稿では、より実用的な画像生成のための新しい課題である、有能なオブジェクトレイアウトからの高品質な画像合成を提案する。
i) セグメンテーションマップ入力なしできめ細かい詳細と現実的なテクスチャを生成する方法、(ii) バックグラウンドを作成してスタンドアロンのオブジェクトにシームレスに織り込む方法である。
幻影背景表現を動的に生成することにより,高解像度画像をフォトリアリスティック・フォアグラウンドと積分背景の両方で合成することができる。
論文 参考訳(メタデータ) (2020-03-26T00:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。