論文の概要: Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition
- arxiv url: http://arxiv.org/abs/2006.16011v3
- Date: Mon, 29 Mar 2021 10:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:05:46.310260
- Title: Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition
- Title(参考訳): ニューラルレンダリングと固有画像分解のための固有オートエンコーダ
- Authors: Hassan Abu Alhaija, Siva Karthik Mustikovela, Justus Thies, Varun
Jampani, Matthias Nie{\ss}ner, Andreas Geiger, Carsten Rother
- Abstract要約: 合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
- 参考スコア(独自算出の注目度): 67.9464567157846
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural rendering techniques promise efficient photo-realistic image synthesis
while at the same time providing rich control over scene parameters by learning
the physical image formation process. While several supervised methods have
been proposed for this task, acquiring a dataset of images with accurately
aligned 3D models is very difficult. The main contribution of this work is to
lift this restriction by training a neural rendering algorithm from unpaired
data. More specifically, we propose an autoencoder for joint generation of
realistic images from synthetic 3D models while simultaneously decomposing real
images into their intrinsic shape and appearance properties. In contrast to a
traditional graphics pipeline, our approach does not require to specify all
scene properties, such as material parameters and lighting by hand. Instead, we
learn photo-realistic deferred rendering from a small set of 3D models and a
larger set of unaligned real images, both of which are easy to acquire in
practice. Simultaneously, we obtain accurate intrinsic decompositions of real
images while not requiring paired ground truth. Our experiments confirm that a
joint treatment of rendering and decomposition is indeed beneficial and that
our approach outperforms state-of-the-art image-to-image translation baselines
both qualitatively and quantitatively.
- Abstract(参考訳): ニューラルレンダリング技術は、物理的画像形成過程を学習することでシーンパラメータをリッチに制御しながら、効率的なフォトリアリスティック画像合成を約束する。
この課題にはいくつかの教師付き手法が提案されているが、正確な3dモデルによる画像のデータセットの取得は非常に困難である。
この研究の主な貢献は、未ペアデータからニューラルネットワークレンダリングアルゴリズムをトレーニングすることで、この制限を解除することである。
より具体的には,合成3dモデルから実像を同時生成するオートエンコーダを提案し,同時に実像を固有形状と外観特性に分解する。
従来のグラフィックスパイプラインとは対照的に,本手法では,材料パラメータや照明などのシーン特性を手動で指定する必要はない。
代わりに、私たちは小さな3dモデルとより大きな非整合の実画像セットから、フォトリアリスティックな遅延レンダリングを学びます。
同時に、対の基底真理を必要とせず、実画像の正確な内在分解を得る。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
関連論文リスト
- FashionR2R: Texture-preserving Rendered-to-Real Image Translation with Diffusion Models [14.596090302381647]
本稿では,レンダリングの制御に基づく拡散モデルから生成するパワーを利用して,レンダリング画像のフォトリアリズム向上について検討する。
ドメイン知識注入(Domain Knowledge Injection, DKI)と現実画像生成(Realistic Image Generation, RIG)という2つの段階から構成される。
論文 参考訳(メタデータ) (2024-10-18T12:48:22Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - IT3D: Improved Text-to-3D Generation with Explicit View Synthesis [71.68595192524843]
本研究では、これらの問題に対処するために、明示的に合成されたマルチビュー画像を活用する新しい戦略を提案する。
我々のアプローチは、高画質画像を生成するために、LCDによって強化されたイメージ・ツー・イメージ・パイプラインを活用することである。
組込み判別器では、合成したマルチビュー画像は実データと見なされ、最適化された3Dモデルのレンダリングは偽データとして機能する。
論文 参考訳(メタデータ) (2023-08-22T14:39:17Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Synthetic Image Data for Deep Learning [0.294944680995069]
3次元モデルからレンダリングされたリアルな合成画像データを使用して、画像集合を拡大し、画像分類セグメンテーションモデルを訓練することができる。
実車の生産3次元CADモデルに基づく大規模合成データセットを,高品質な物理ベースレンダリングとドメインランダム化により効率的に作成できることを示す。
論文 参考訳(メタデータ) (2022-12-12T20:28:13Z) - Realistic Image Synthesis with Configurable 3D Scene Layouts [59.872657806747576]
本稿では,3次元シーンレイアウトに基づくリアルな画像合成手法を提案する。
提案手法では, セマンティッククラスラベルを入力として3Dシーンを抽出し, 3Dシーンの描画ネットワークを訓練する。
訓練された絵画ネットワークにより、入力された3Dシーンのリアルな外観の画像を描画し、操作することができる。
論文 参考訳(メタデータ) (2021-08-23T09:44:56Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。