論文の概要: LiTo: Surface Light Field Tokenization
- arxiv url: http://arxiv.org/abs/2603.11047v1
- Date: Wed, 11 Mar 2026 17:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.100021
- Title: LiTo: Surface Light Field Tokenization
- Title(参考訳): LiTo: 表面光フィールドトークン化
- Authors: Jen-Hao Rick Chang, Xiaoming Zhao, Dorian Chan, Oncel Tuzel,
- Abstract要約: オブジェクト形状とビュー依存外観を協調的にモデル化する3次元潜在表現を提案する。
提案手法は既存の手法よりも高い視覚的品質と入力忠実度を実現する。
- 参考スコア(独自算出の注目度): 27.584805504757824
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a 3D latent representation that jointly models object geometry and view-dependent appearance. Most prior works focus on either reconstructing 3D geometry or predicting view-independent diffuse appearance, and thus struggle to capture realistic view-dependent effects. Our approach leverages that RGB-depth images provide samples of a surface light field. By encoding random subsamples of this surface light field into a compact set of latent vectors, our model learns to represent both geometry and appearance within a unified 3D latent space. This representation reproduces view-dependent effects such as specular highlights and Fresnel reflections under complex lighting. We further train a latent flow matching model on this representation to learn its distribution conditioned on a single input image, enabling the generation of 3D objects with appearances consistent with the lighting and materials in the input. Experiments show that our approach achieves higher visual quality and better input fidelity than existing methods.
- Abstract(参考訳): オブジェクト形状とビュー依存外観を協調的にモデル化する3次元潜在表現を提案する。
これまでのほとんどの研究は、3D幾何学の再構築や、ビュー非依存の拡散外観の予測に重点を置いており、現実的なビュー依存効果を捉えるのに苦労している。
我々のアプローチでは、RGB深度画像が表面光場のサンプルを提供する。
この表面光場のランダムなサブサンプルを、コンパクトな潜在ベクトル集合に符号化することにより、我々のモデルは、統一された3次元潜在空間内の幾何学と外観の両方を表現することを学ぶ。
この表現は、複雑な照明下でのスペクトルハイライトやフレネル反射のようなビュー依存効果を再現する。
さらに、この表現の潜在フローマッチングモデルをトレーニングし、単一の入力画像上に設定された分布条件を学習し、入力中の照明や材料と整合した外観の3Dオブジェクトの生成を可能にする。
実験により,本手法は既存の手法よりも視覚的品質が高く,入力忠実度が高いことがわかった。
関連論文リスト
- 3DPR: Single Image 3D Portrait Relight using Generative Priors [101.74130664920868]
3DPRは画像ベースのリライティングモデルであり、マルチビューのOne-Light-at-A-Time (OLAT)イメージから学習した生成的事前情報を活用する。
我々は,事前学習した画像データセットから学習した顔の幾何に先立ってリッチな情報を提供する,事前学習された生成ヘッドモデルの潜時空間を活用する。
我々のリフレクタンスネットワークは生成ヘッドモデルの潜在空間で動作し、比較的少数の光ステージ画像でリフレクタンスモデルを訓練することが可能である。
論文 参考訳(メタデータ) (2025-10-17T17:37:42Z) - BiGS: Bidirectional Gaussian Primitives for Relightable 3D Gaussian Splatting [10.918133974256913]
本稿では、画像に基づく新規ビュー合成技術である双方向ガウスプリミティブについて述べる。
提案手法はガウススプラッティングフレームワークに光の内在分解を取り入れ,3次元物体のリアルタイムリライティングを可能にする。
論文 参考訳(メタデータ) (2024-08-23T21:04:40Z) - PBIR-NIE: Glossy Object Capture under Non-Distant Lighting [30.325872237020395]
グロッシーオブジェクトは自然光下での多視点入力画像から3次元再構成を行う上で重要な課題となる。
PBIR-NIEは, 物体の形状, 材料特性, 周囲の照明を均等に捉えるために設計された逆レンダリングフレームワークである。
論文 参考訳(メタデータ) (2024-08-13T13:26:24Z) - PT43D: A Probabilistic Transformer for Generating 3D Shapes from Single Highly-Ambiguous RGB Images [26.900974153235456]
本稿では,1枚のRGB画像から3次元形状を生成するトランスフォーマーを用いた自己回帰モデルを提案する。
フィールド・オブ・ビュー・トランケーションのような現実的なシナリオを扱うために、シミュレーション画像と形状のトレーニングペアを作成します。
次に、入力画像から最も関連性の高い領域を効果的に識別し、形状生成を行う。
論文 参考訳(メタデータ) (2024-05-20T09:49:13Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z) - Learning Implicit Surface Light Fields [34.89812112073539]
近年,3次元オブジェクトの暗示表現は,学習に基づく3次元再構成作業において顕著な成果を上げている。
本研究では,物体の視覚的外観を表面光界で捉えるための新しい暗黙表現を提案する。
我々のモデルは、影や鏡面反射を含むリッチな視覚的外観を推測することができる。
論文 参考訳(メタデータ) (2020-03-27T13:17:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。