論文の概要: DiffTrans: Differentiable Geometry-Materials Decomposition for Reconstructing Transparent Objects
- arxiv url: http://arxiv.org/abs/2603.00413v1
- Date: Sat, 28 Feb 2026 02:21:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.178761
- Title: DiffTrans: Differentiable Geometry-Materials Decomposition for Reconstructing Transparent Objects
- Title(参考訳): DiffTrans:微分幾何学-透明物体再構成のための材料分解
- Authors: Changpu Li, Shuang Wu, Songlin Tang, Guangming Lu, Jun Yu, Wenjie Pei,
- Abstract要約: 多視点画像から透明な物体を再構成することは、光伝搬の複雑な性質と不確定な振る舞いのために難しい課題である。
本稿では,透明物体の形状や材料を効率よく分解・再構成できる,DiffTransと呼ばれる透明物体の識別可能なレンダリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.83670041249326
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Reconstructing transparent objects from a set of multi-view images is a challenging task due to the complicated nature and indeterminate behavior of light propagation. Typical methods are primarily tailored to specific scenarios, such as objects following a uniform topology, exhibiting ideal transparency and surface specular reflections, or with only surface materials, which substantially constrains their practical applicability in real-world settings. In this work, we propose a differentiable rendering framework for transparent objects, dubbed DiffTrans, which allows for efficient decomposition and reconstruction of the geometry and materials of transparent objects, thereby reconstructing transparent objects accurately in intricate scenes with diverse topology and complex texture. Specifically, we first utilize FlexiCubes with dilation and smoothness regularization as the iso-surface representation to reconstruct an initial geometry efficiently from the multi-view object silhouette. Meanwhile, we employ the environment light radiance field to recover the environment of the scene. Then we devise a recursive differentiable ray tracer to further optimize the geometry, index of refraction and absorption rate simultaneously in a unified and end-to-end manner, leading to high-quality reconstruction of transparent objects in intricate scenes. A prominent advantage of the designed ray tracer is that it can be implemented in CUDA, enabling a significantly reduced computational cost. Extensive experiments on multiple benchmarks demonstrate the superior reconstruction performance of our DiffTrans compared with other methods, especially in intricate scenes involving transparent objects with diverse topology and complex texture. The code is available at https://github.com/lcp29/DiffTrans.
- Abstract(参考訳): 多視点画像から透明な物体を再構成することは、光伝搬の複雑な性質と不確定な振る舞いのために難しい課題である。
典型的な手法は主に、均一なトポロジーに従う物体や、理想的な透明度や表面の特異な反射を示す物体、または実際の環境における実用性を大幅に制限する表面材料など、特定のシナリオに合わせたものである。
そこで本研究では,透明物体の形状と材料を効率的に分解・再構成し,多様なトポロジと複雑なテクスチャを持つ複雑なシーンにおいて,透明物体を正確に再構成する,DiffTransという,透明物体の識別可能なレンダリングフレームワークを提案する。
具体的には、まずFlexiCubesの拡散と滑らか性正則化を等曲面表現として利用し、マルチビューオブジェクトシルエットから初期幾何学を効率的に再構築する。
一方,環境光放射場を用いて景観の環境を復元する。
そして、再帰的微分可能な光線トレーサを考案し、幾何、屈折率、吸収率を統一的かつエンドツーエンドに同時に最適化し、複雑なシーンにおける透明物体の高品質な再構成を実現する。
設計されたレイトレーサの顕著な利点は、CUDAで実装でき、計算コストを大幅に削減できることである。
複数のベンチマークでの大規模な実験では、DiffTransの再現性能は他の手法と比較して優れていることが示され、特に、多彩なトポロジーと複雑なテクスチャを持つ透明な物体を含む複雑なシーンでは顕著である。
コードはhttps://github.com/lcp29/DiffTransで入手できる。
関連論文リスト
- RMAFF-PSN: A Residual Multi-Scale Attention Feature Fusion Photometric Stereo Network [37.759675702107586]
複雑な構造空間材料変化領域における2次元画像からの物体の正確な地図の予測は困難である。
画像の解像度の異なるステージとスケールから特徴情報を校正する手法を提案する。
このアプローチは、複雑な領域における物体のテクスチャや幾何学といった、より物理的な情報を保存する。
論文 参考訳(メタデータ) (2024-04-11T14:05:37Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - NEMTO: Neural Environment Matting for Novel View and Relighting Synthesis of Transparent Objects [28.62468618676557]
我々は3次元透明物体をモデル化する最初のエンドツーエンドニューラルネットワークパイプラインであるNEMTOを提案する。
透明物体の2次元像を入力として, 高品質な新規ビューと光合成が可能となる。
論文 参考訳(メタデータ) (2023-03-21T15:50:08Z) - NDJIR: Neural Direct and Joint Inverse Rendering for Geometry, Lights,
and Materials of Real Object [5.665283675533071]
我々はニューラルダイレクトおよびジョイントリバースレンダリング(NDJIR)を提案する。
提案手法は, 実際のオブジェクトに対して, フォトグラム設定で意味論的に分解することができる。
論文 参考訳(メタデータ) (2023-02-02T13:21:03Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z) - Shape From Tracing: Towards Reconstructing 3D Object Geometry and SVBRDF
Material from Images via Differentiable Path Tracing [16.975014467319443]
識別可能なパストレースは、複雑な外観効果を再現できるため、魅力的なフレームワークである。
本稿では,初期粗いメッシュとメッシュファセット単位の材料表現を改良するために,微分可能なレイトレーシングを利用する方法を示す。
また、制約のない環境下での現実世界の物体の初期再構成を洗練させる方法についても示す。
論文 参考訳(メタデータ) (2020-12-06T18:55:35Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。