論文の概要: People as Scene Probes
- arxiv url: http://arxiv.org/abs/2007.09209v1
- Date: Fri, 17 Jul 2020 19:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:23:56.055465
- Title: People as Scene Probes
- Title(参考訳): シーンプローブとしての人々
- Authors: Yifan Wang, Brian Curless, Steve Seitz
- Abstract要約: 我々は、高度な自動化とリアリズムで、新しいオブジェクトを同じシーンに合成する方法を示す。
特に、ユーザが画像に新しい物体(2Dカットアウト)を配置すると、自動的に再スケールされ、信頼され、隠蔽され、太陽に対して正しい方向に現実的な影を放つ。
- 参考スコア(独自算出の注目度): 9.393640749709999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By analyzing the motion of people and other objects in a scene, we
demonstrate how to infer depth, occlusion, lighting, and shadow information
from video taken from a single camera viewpoint. This information is then used
to composite new objects into the same scene with a high degree of automation
and realism. In particular, when a user places a new object (2D cut-out) in the
image, it is automatically rescaled, relit, occluded properly, and casts
realistic shadows in the correct direction relative to the sun, and which
conform properly to scene geometry. We demonstrate results (best viewed in
supplementary video) on a range of scenes and compare to alternative methods
for depth estimation and shadow compositing.
- Abstract(参考訳): シーン内の人物や物体の動きを解析することにより、一つのカメラ視点から撮影した映像から深度、咬合、照明、シャドー情報を推測する方法を示す。
この情報は、新しいオブジェクトを同じシーンに高レベルの自動化とリアリズムで合成するために使用されます。
特に、ユーザが画像に新しいオブジェクト(2dカットアウト)を配置すると、自動的にリスケールされ、リライトされ、適切にオクルードされ、太陽に対して正しい方向にリアルな影が配置され、シーン形状に適合する。
我々は,様々な場面で結果(補足映像で見る)を実証し,奥行き推定や影合成の代替手法と比較した。
関連論文リスト
- Generative Omnimatte: Learning to Decompose Video into Layers [29.098471541412113]
本報告では,全方位問題に対処する新しい生成階層化ビデオ分解フレームワークを提案する。
私たちの中核となる考え方は、特定の物体によって引き起こされるシーン効果を識別し除去するために、ビデオ拡散モデルを訓練することです。
我々は,このモデルを,小さく,慎重にキュレートしたデータセットを用いて,既存のビデオインペイントモデルから微調整できることを示す。
論文 参考訳(メタデータ) (2024-11-25T18:59:57Z) - Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Moving SLAM: Fully Unsupervised Deep Learning in Non-Rigid Scenes [85.56602190773684]
従来のカメラ幾何学を用いて異なる視点からソースイメージを再レンダリングするビュー合成という考え方に基づいている。
映像中の合成画像と対応する実画像との誤差を最小化することにより、ポーズや深さを予測するディープネットワークを完全に教師なしで訓練することができる。
論文 参考訳(メタデータ) (2021-05-05T17:08:10Z) - A New Dimension in Testimony: Relighting Video with Reflectance Field
Exemplars [1.069384486725302]
本研究では,同じ被験者の平坦な環境下で照らされた映像の4次元反射場を推定する学習手法を提案する。
入力映像の照明環境を推定し、被写体の反射場を用いて入力照明環境によって照らされた被写体の合成画像を作成する。
本手法はホロコーストの生存者の映像上で評価し,現実性と速度の両面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-06T20:29:06Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z) - RELATE: Physically Plausible Multi-Object Scene Synthesis Using
Structured Latent Spaces [77.07767833443256]
RELATEは、複数の対話オブジェクトの物理的に可視なシーンとビデオを生成することを学習するモデルである。
オブジェクト中心生成モデリングにおける最先端の手法とは対照的に、RELATEは自然に動的なシーンに拡張し、高い視覚的忠実度のビデオを生成する。
論文 参考訳(メタデータ) (2020-07-02T17:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。