論文の概要: SSN: Soft Shadow Network for Image Compositing
- arxiv url: http://arxiv.org/abs/2007.08211v3
- Date: Thu, 1 Apr 2021 19:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 00:18:23.135174
- Title: SSN: Soft Shadow Network for Image Compositing
- Title(参考訳): SSN:画像合成のためのソフトシャドウネットワーク
- Authors: Yichen Sheng, Jianming Zhang, Bedrich Benes
- Abstract要約: 画像合成のための制御可能なソフトシャドウを生成するためのインタラクティブなソフトシャドウネットワーク(SSN)を導入する。
SSNは2Dオブジェクトマスクを入力として取り、ペインティングやベクトルアートのようなイメージタイプに依存しない。
環境光マップは、角度や柔らかさなどの影の特性を制御するために用いられる。
- 参考スコア(独自算出の注目度): 26.606890595862826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an interactive Soft Shadow Network (SSN) to generates
controllable soft shadows for image compositing. SSN takes a 2D object mask as
input and thus is agnostic to image types such as painting and vector art. An
environment light map is used to control the shadow's characteristics, such as
angle and softness. SSN employs an Ambient Occlusion Prediction module to
predict an intermediate ambient occlusion map, which can be further refined by
the user to provides geometric cues to modulate the shadow generation. To train
our model, we design an efficient pipeline to produce diverse soft shadow
training data using 3D object models. In addition, we propose an inverse shadow
map representation to improve model training. We demonstrate that our model
produces realistic soft shadows in real-time. Our user studies show that the
generated shadows are often indistinguishable from shadows calculated by a
physics-based renderer and users can easily use SSN through an interactive
application to generate specific shadow effects in minutes.
- Abstract(参考訳): 画像合成のための制御可能なソフトシャドウを生成するためのインタラクティブなソフトシャドウネットワーク(SSN)を導入する。
SSNは2Dオブジェクトマスクを入力として取り、ペインティングやベクトルアートのようなイメージタイプに依存しない。
環境光マップは、角度や柔らかさなどの影の特性を制御するために用いられる。
ssnは、中間的環境オクルージョンマップを予測するためにアンビエントオクルージョン予測モジュールを使用しており、ユーザがさらに洗練し、シャドー生成を変調する幾何学的手がかりを提供することができる。
モデルを訓練するために,3次元オブジェクトモデルを用いた多様なソフトシャドウ訓練データを生成するための効率的なパイプラインを設計する。
さらに,モデルトレーニングを改善するために,逆影マップ表現を提案する。
我々のモデルが現実のソフトシャドウをリアルタイムで生成できることを実証する。
ユーザスタディによると、生成した影は物理ベースのレンダラーによって計算された影と区別できないことが多く、ユーザは対話的なアプリケーションを通じてSSNを使って数分で特定の影効果を発生させることができる。
関連論文リスト
- SwinShadow: Shifted Window for Ambiguous Adjacent Shadow Detection [90.4751446041017]
スウィンシャドウ(SwinShadow)は、隣接する影を検出するための強力なシフトウインドウ機構をフル活用したトランスフォーマーベースのアーキテクチャである。
プロセス全体は、エンコーダ、デコーダ、機能統合の3つの部分に分けられる。
SBU, UCF, ISTDの3つのシャドウ検出ベンチマークデータセットの実験により, ネットワークがバランスエラー率(BER)の点で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-07T03:16:33Z) - SDDNet: Style-guided Dual-layer Disentanglement Network for Shadow
Detection [85.16141353762445]
入力シャドウ画像を背景層と影層の合成として扱い、これらの層を独立にモデル化するためのスタイル誘導デュアル層ディスタングルネットワークを設計する。
提案モデルは背景色による有害な効果を効果的に最小化し,32FPSのリアルタイム推論速度を持つ3つの公開データセットに対して優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-17T12:10:51Z) - SENS: Part-Aware Sketch-based Implicit Neural Shape Modeling [124.3266213819203]
SENSは手描きスケッチから3Dモデルを生成し編集するための新しい手法である。
SENSはスケッチを分析し、部品をViTパッチエンコーディングにエンコードする。
SENSは部分再構成による精細化をサポートし、微調整とアーティファクトの除去を可能にする。
論文 参考訳(メタデータ) (2023-06-09T17:50:53Z) - Learning Physical-Spatio-Temporal Features for Video Shadow Removal [42.95422940263425]
データ駆動型ビデオシャドウ除去モデルであるedNetを提案する。
具体的には、複雑な照明テクスチャを持つシーンに適用可能な局所照明推定を行うために、専用の物理的ブランチが設けられた。
シャドウビデオと組み合わせたデータセットの欠如に対処するため、シャドウのスイッチを制御することで、人気のあるゲームGTAVの助けを借りてデータセットを合成する。
論文 参考訳(メタデータ) (2023-03-16T14:55:31Z) - Shadow Removal by High-Quality Shadow Synthesis [78.56549207362863]
HQSSでは、擬似画像を合成するためにシャドウ機能エンコーダとジェネレータを使用している。
HQSSは、ISTDデータセット、ビデオシャドウ除去データセット、SRDデータセットの最先端メソッドよりも優れたパフォーマンスを発揮する。
論文 参考訳(メタデータ) (2022-12-08T06:52:52Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Towards Learning Neural Representations from Shadows [11.60149896896201]
本稿では,シーンに存在する影のみから,ニューラルシーンの表現を学習する手法を提案する。
我々のフレームワークは高度に一般化可能であり、既存の3D再構成技術と協調して動作する。
論文 参考訳(メタデータ) (2022-03-29T23:13:41Z) - R2D: Learning Shadow Removal to Enhance Fine-Context Shadow Detection [64.10636296274168]
現在のシャドウ検出方法は、小さく、不明瞭で、ぼやけたエッジを持つシャドウ領域を検出する際には、性能が良くない。
本稿では,深層ニューラルネットワークを修復訓練(シャドウ除去)するRestore to Detect(R2D)という新しい手法を提案する。
提案手法は,近年の手法に比べて微妙なコンテキストの検出が可能でありながら,影検出性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-20T15:09:22Z) - Learning from Synthetic Shadows for Shadow Detection and Removal [43.53464469097872]
最近のシャドウ除去は、実対のシャドウ/シャドウフリーまたはシャドウ/シャドウ/マスクイメージデータセット上のすべてのトレイン畳み込みニューラルネットワーク(CNN)にアプローチしている。
今回紹介するSynShadowは、新しい大規模合成影/影なし/マット画像トリプレットデータセットと合成パイプラインである。
論文 参考訳(メタデータ) (2021-01-05T18:56:34Z) - Physics-based Shadow Image Decomposition for Shadow Removal [36.41558227710456]
陰影除去のための新しい深層学習法を提案する。
影形成の物理モデルにインスパイアされ、線形照明変換を用いて画像内の影効果をモデル化する。
最も困難なシャドウ除去データセットでフレームワークをトレーニングし、テストします。
論文 参考訳(メタデータ) (2020-12-23T23:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。