論文の概要: Generative Modelling of BRDF Textures from Flash Images
- arxiv url: http://arxiv.org/abs/2102.11861v1
- Date: Tue, 23 Feb 2021 18:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 14:03:52.899617
- Title: Generative Modelling of BRDF Textures from Flash Images
- Title(参考訳): フラッシュ画像からのBRDFテクスチャの生成モデリング
- Authors: Philipp Henzler, Valentin Deschaintre, Niloy J. Mitra, Tobias Ritschel
- Abstract要約: 我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
- 参考スコア(独自算出の注目度): 50.660026124025265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We learn a latent space for easy capture, semantic editing, consistent
interpolation, and efficient reproduction of visual material appearance. When
users provide a photo of a stationary natural material captured under flash
light illumination, it is converted in milliseconds into a latent material
code. In a second step, conditioned on the material code, our method, again in
milliseconds, produces an infinite and diverse spatial field of BRDF model
parameters (diffuse albedo, specular albedo, roughness, normals) that allows
rendering in complex scenes and illuminations, matching the appearance of the
input picture. Technically, we jointly embed all flash images into a latent
space using a convolutional encoder, and -- conditioned on these latent codes
-- convert random spatial fields into fields of BRDF parameters using a
convolutional neural network (CNN). We condition these BRDF parameters to match
the visual characteristics (statistics and spectra of visual features) of the
input under matching light. A user study confirms that the semantics of the
latent material space agree with user expectations and compares our approach
favorably to previous work.
- Abstract(参考訳): 我々は,可読性,セマンティクス編集,一貫性のある補間,視覚的な外観の効率的な再現のための潜在空間を学習する。
フラッシュライト照明下で捕獲された静止天然物の写真が提供されると、ミリ秒単位で潜伏する物質コードに変換される。
2番目のステップでは、材料コードに基づいて、我々の手法はミリ秒で、BRDFモデルパラメータ(拡散アルベド、スペクトルアルベド、粗さ、正規化)の無限かつ多様な空間場を生成し、複雑なシーンや照明のレンダリングを可能にし、入力画像の外観と一致する。
技術的には、畳み込みエンコーダを用いてすべてのフラッシュ画像を潜伏空間に共同で埋め込み、これらの潜伏符号を条件に、ランダムな空間場を畳み込みニューラルネットワーク(CNN)を用いてBRDFパラメータのフィールドに変換する。
これらのBRDFパラメータは、マッチング光の下で入力の視覚特性(視覚的特徴の統計とスペクトル)に一致するように調整します。
ユーザ調査は、潜在素材空間の意味論がユーザの期待に合致していることを確認し、このアプローチを以前の作業と好意的に比較する。
関連論文リスト
- Neural Appearance Modeling From Single Images [3.3090362820994526]
多様な視界と照明条件下で可視で空間的に変化する物質を可視化するための物質外見モデリングニューラルネットワークを提案する。
我々のネットワークは,1枚の入力写真から1ピクセルあたりのニューラルネットワークパラメータを推定するネットワークと,その素材を描画するネットワークという2つのネットワークステージで構成されている。
論文 参考訳(メタデータ) (2024-06-08T18:56:03Z) - Unified Multi-Modal Latent Diffusion for Joint Subject and Text
Conditional Image Generation [63.061871048769596]
本稿では, 特定対象を含む画像と共同テキストを入力シーケンスとして用いた, Unified Multi-Modal Latent Diffusion (UMM-Diffusion) を提案する。
より具体的には、入力テキストと画像の両方を1つの統一マルチモーダル潜在空間に符号化する。
入力テキストと画像の両面から複雑な意味を持つ高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2023-03-16T13:50:20Z) - Light Field Implicit Representation for Flexible Resolution
Reconstruction [9.173467982128514]
入力ビューのスパースセットに条件付き4次元光場を暗黙的に表現するモデルを提案する。
我々のモデルは、連続的な座標の光場値を出力するように訓練されている。
実験により,本手法は,高速かつ高速なビュー合成のための最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-30T23:59:02Z) - Cycle-Consistent Inverse GAN for Text-to-Image Synthesis [101.97397967958722]
本稿では,テキスト・ツー・イメージ・ジェネレーションとテキスト・ガイドによる画像操作を行うために,Cycle-Consistent Inverse GANの統一フレームワークを提案する。
我々は、GANの反転モデルを学び、画像をGANの潜在空間に変換し、各画像の反転潜在符号を得る。
テキスト誘導最適化モジュールでは、反転潜在符号を最適化することにより、所望のセマンティック属性を持つ画像を生成する。
論文 参考訳(メタデータ) (2021-08-03T08:38:16Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z) - Convolutional Autoencoder for Blind Hyperspectral Image Unmixing [0.0]
スペクトルアンミックス(英: spectrum unmixing)は、混合ピクセルを2つの基本的代表、すなわちエンドメンバーとアブリダンスに分解する技法である。
本稿では,ハイパースペクトル画像にブラインドアンミックスを行う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-18T17:41:31Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。