論文の概要: Neural Scene Decoration from a Single Photograph
- arxiv url: http://arxiv.org/abs/2108.01806v1
- Date: Wed, 4 Aug 2021 01:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:14:04.230783
- Title: Neural Scene Decoration from a Single Photograph
- Title(参考訳): 単一写真からのニューラルシーンのデコレーション
- Authors: Hong-Wing Pang, Yingshu Chen, Binh-Son Hua, Sai-Kit Yeung
- Abstract要約: 本稿では,生成モデルを用いた領域固有の画像合成の新しい問題,すなわちニューラルシーンの装飾を導入する。
空の屋内空間の写真が与えられた場合、我々は、完全に装飾された同じ空間の新たなイメージを合成することを目的としている。
我々のネットワークには、初期点ベースのオブジェクトレイアウトをリアルな写真に変換する新しい画像生成装置が含まれている。
- 参考スコア(独自算出の注目度): 24.794743085391953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Furnishing and rendering an indoor scene is a common but tedious task for
interior design: an artist needs to observe the space, create a conceptual
design, build a 3D model, and perform rendering. In this paper, we introduce a
new problem of domain-specific image synthesis using generative modeling,
namely neural scene decoration. Given a photograph of an empty indoor space, we
aim to synthesize a new image of the same space that is fully furnished and
decorated. Neural scene decoration can be applied in practice to efficiently
generate conceptual but realistic interior designs, bypassing the traditional
multi-step and time-consuming pipeline. Our attempt to neural scene decoration
in this paper is a generative adversarial neural network that takes the input
photograph and directly produce the image of the desired furnishing and
decorations. Our network contains a novel image generator that transforms an
initial point-based object layout into a realistic photograph. We demonstrate
the performance of our proposed method by showing that it outperforms the
baselines built upon previous works on image translations both qualitatively
and quantitatively. Our user study further validates the plausibility and
aesthetics in the generated designs.
- Abstract(参考訳): 屋内シーンの家具化とレンダリングは、インテリアデザインの退屈な作業である。アーティストは空間を観察し、概念デザインを作成し、3Dモデルを構築し、レンダリングを実行する必要がある。
本稿では,生成モデルを用いた領域固有画像合成の新しい問題,すなわちニューラルシーンの装飾について紹介する。
空の屋内空間の写真が与えられた場合、我々は、完全に装飾された同じ空間の新たなイメージを合成することを目指している。
ニューラルシーンの装飾は、概念的だが現実的なインテリアデザインを効率よく生成するために、伝統的な多段階および時間を要するパイプラインをバイパスするために、実際に適用することができる。
本論文では,ニューラルネットワークを用いて,入力された写真を撮影し,所望の調度品や装飾品の画像を直接生成する。
このネットワークには,初期点に基づくオブジェクトレイアウトをリアルな写真に変換する,新たなイメージジェネレータが含まれている。
提案手法の性能は,従来の画像翻訳において,定性的かつ定量的に構築されたベースラインよりも優れていることを示すことで実証する。
ユーザスタディでは、生成した設計の妥当性と審美性をさらに検証する。
関連論文リスト
- I-Design: Personalized LLM Interior Designer [57.00412237555167]
I-Designはパーソナライズされたインテリアデザイナで、自然言語によるコミュニケーションを通じて設計目標の生成と視覚化を可能にする。
I-Designは、対話や論理的推論に従事する大きな言語モデルエージェントのチームから始まる。
最終的な設計は、既存のオブジェクトデータベースから資産を取り出し、統合することで、3Dで構築されます。
論文 参考訳(メタデータ) (2024-04-03T16:17:53Z) - Unveiling Spaces: Architecturally meaningful semantic descriptions from
images of interior spaces [0.0]
本研究の目的は,内部空間の2次元シーンからアーキテクチャ的に意味のある意味記述を抽出することである。
画像から画像への変換のためのGAN(Generative Adversarial Network)は,これらの囲いを合成的に生成した画像に対して,高レベルの構造構造を表す画像抽象化を訓練する。
また,既存の室内囲いの写真にも同様のモデル評価を行い,実環境における性能評価を行った。
論文 参考訳(メタデータ) (2023-12-19T16:03:04Z) - SparseGNV: Generating Novel Views of Indoor Scenes with Sparse Input
Views [16.72880076920758]
SparseGNVは3次元構造と画像生成モデルを組み合わせて新しいビューを生成する学習フレームワークである。
SparseGNVは、大規模な屋内シーンデータセットでトレーニングされ、一般化可能な事前学習を行う。
フィードフォワード方式で、見えない屋内シーンの斬新なビューを効率よく生成することができる。
論文 参考訳(メタデータ) (2023-05-11T17:58:37Z) - Neural Rendering in a Room: Amodal 3D Understanding and Free-Viewpoint
Rendering for the Closed Scene Composed of Pre-Captured Objects [40.59508249969956]
閉シーンに対するニューラルレンダリングを用いたアモーダル3次元シーン理解の新しいパラダイムに基づいて、そのような人間の知覚能力を模倣する新しいソリューションを提案する。
まず, 閉鎖シーンにおける物体の事前の知識を, オフラインステージを通じて学習し, オンラインステージにおいて, 家具の配置のない部屋の理解を容易にする。
オンライン段階において、異なるレイアウトのシーンのパノラマ画像が与えられた場合、我々は、全体論的ニューラルネットワークに基づく最適化フレームワークを使用して、正しい3Dシーンレイアウトを効率的に推定し、リアルな自由視点レンダリングを提供する。
論文 参考訳(メタデータ) (2022-05-05T15:34:09Z) - EgoRenderer: Rendering Human Avatars from Egocentric Camera Images [87.96474006263692]
EgoRendererは、ウェアラブルでエゴ中心の魚眼カメラで捉えた人の全身神経アバターをレンダリングするシステムである。
このようなエゴセントリックなイメージからフルボディのアバターをレンダリングすることは、トップダウンのビューと大きな歪みのために、ユニークな課題を生んでいる。
レンダリング処理をテクスチャ合成,ポーズ構築,ニューラルイメージ変換など,いくつかのステップに分解することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2021-11-24T18:33:02Z) - Advances in Neural Rendering [115.05042097988768]
本稿では,古典的レンダリングと学習された3Dシーン表現を組み合わせた手法について述べる。
これらの手法の重要な利点は、これらが3D一貫性を持ち、キャプチャされたシーンの新たな視点のようなアプリケーションを可能にすることである。
静的なシーンを扱う方法に加えて、非厳密な変形オブジェクトをモデル化するためのニューラルシーン表現についても取り上げる。
論文 参考訳(メタデータ) (2021-11-10T18:57:01Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - CONFIG: Controllable Neural Face Image Generation [10.443563719622645]
ConfigNetは、出力画像の個々の側面を意味のある方法で制御できる、ニューラルフェイスモデルである。
提案手法では,合成データを用いて遅延空間を従来のレンダリングパイプラインの入力に対応する要素に分解する。
論文 参考訳(メタデータ) (2020-05-06T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。