論文の概要: OpenMaterial: A Large-scale Dataset of Complex Materials for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2406.08894v2
- Date: Sun, 02 Nov 2025 14:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 18:19:02.64429
- Title: OpenMaterial: A Large-scale Dataset of Complex Materials for 3D Reconstruction
- Title(参考訳): OpenMaterial:3D再構成のための大規模複合材料データセット
- Authors: Zheng Dang, Jialu Huang, Fei Wang, Mathieu Salzmann,
- Abstract要約: 材料認識型3D再構成のための大規模半合成データセットであるOpenMaterialを紹介する。
導体、誘電体、プラスチックを含む295の異なる材料にまたがる1,001の物体と、その粗い変種が含まれ、714の異なる照明条件下で捕獲される。
マルチビュー画像、3D形状モデル、カメラポーズ、深度マップ、およびオブジェクトマスクを提供し、挑戦的な材料上で3D再構成を評価するための最初の広範囲なベンチマークを確立する。
- 参考スコア(独自算出の注目度): 55.052637670485716
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in deep learning, such as neural radiance fields and implicit neural representations, have significantly advanced 3D reconstruction. However, accurately reconstructing objects with complex optical properties, such as metals, glass, and plastics, remains challenging due to the breakdown of multi-view color consistency in the presence of specular reflections, refractions, and transparency. This limitation is further exacerbated by the lack of benchmark datasets that explicitly model material-dependent light transport. To address this, we introduce OpenMaterial, a large-scale semi-synthetic dataset for benchmarking material-aware 3D reconstruction. It comprises 1,001 objects spanning 295 distinct materials, including conductors, dielectrics, plastics, and their roughened variants, captured under 714 diverse lighting conditions. By integrating lab-measured Index of Refraction (IOR) spectra, OpenMaterial enables the generation of high-fidelity multi-view images that accurately simulate complex light-matter interactions. It provides multi-view images, 3D shape models, camera poses, depth maps, and object masks, establishing the first extensive benchmark for evaluating 3D reconstruction on challenging materials. We evaluate 11 state-of-the-art methods for 3D reconstruction and novel view synthesis, conducting ablation studies to assess the impact of material type, shape complexity, and illumination on reconstruction performance. Our results indicate that OpenMaterial provides a strong and fair basis for developing more robust, physically-informed 3D reconstruction techniques to better handle real-world optical complexities.
- Abstract(参考訳): ニューラルレイディアンス場や暗黙のニューラル表現など、近年のディープラーニングの進歩は、3D再構成に大きく進歩している。
しかし、金属、ガラス、プラスチックなどの複雑な光学特性を持つ物体を正確に再構成することは、分光反射、屈折、透明度の存在下で多面的な色の一貫性が損なわれているため、依然として困難である。
この制限は、物質に依存した光輸送を明示的にモデル化するベンチマークデータセットの欠如によってさらに悪化する。
この問題を解決するために,物質を意識した3D再構成をベンチマークするための大規模半合成データセットであるOpenMaterialを紹介する。
導体、誘電体、プラスチックを含む295の異なる材料にまたがる1,001の物体と、その粗い変種が含まれ、714の異なる照明条件下で捕獲される。
実験室で測定された屈折率(IOR)スペクトルを統合することで、OpenMaterialは複雑な光-物質相互作用を正確にシミュレートする高忠実なマルチビュー画像を生成することができる。
マルチビュー画像、3D形状モデル、カメラポーズ、深度マップ、およびオブジェクトマスクを提供し、挑戦的な材料上で3D再構成を評価するための最初の広範囲なベンチマークを確立する。
材料の種類, 形状の複雑さ, 照明が再現性に与える影響を評価するためのアブレーション研究を行い, 3次元再構成と新しいビュー合成のための11の最先端手法を評価した。
以上の結果から,OpenMaterialはより堅牢で物理的にインフォームドされた3D再構成技術を開発し,実世界の光学的複雑さをよりよく扱うための,強力で公正な基盤を提供することが示された。
関連論文リスト
- MatDecompSDF: High-Fidelity 3D Shape and PBR Material Decomposition from Multi-View Images [20.219010684946888]
MatDecompSDFは、高忠実度3D形状を復元し、その物理的特性を多視点画像から分解するフレームワークである。
本手法は,標準のグラフィックスパイプラインにシームレスに統合可能な,編集可能で再生可能なアセットを生成する。
論文 参考訳(メタデータ) (2025-07-07T08:22:32Z) - Object-X: Learning to Reconstruct Multi-Modal 3D Object Representations [112.29763628638112]
Object-Xは多目的なマルチモーダル3D表現フレームワークである。
リッチなオブジェクトの埋め込みをエンコードして、幾何学的および視覚的再構成に復号することができる。
シーンアライメント、シングルイメージの3Dオブジェクト再構成、ローカライゼーションなど、さまざまなダウンストリームタスクをサポートする。
論文 参考訳(メタデータ) (2025-06-05T09:14:42Z) - ArtGS: Building Interactable Replicas of Complex Articulated Objects via Gaussian Splatting [66.29782808719301]
コンピュータビジョンにおいて、音声で表現されたオブジェクトを構築することが重要な課題である。
既存のメソッドは、しばしば異なるオブジェクト状態間で効果的に情報を統合できない。
3次元ガウスを柔軟かつ効率的な表現として活用する新しいアプローチであるArtGSを紹介する。
論文 参考訳(メタデータ) (2025-02-26T10:25:32Z) - IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - GlossyGS: Inverse Rendering of Glossy Objects with 3D Gaussian Splatting [21.23724172779984]
GlossyGSは、光沢のある物体の形状と素材を、素材の先行要素を統合することによって正確に再構築することを目的としている。
定量的解析と定性的可視化により, 提案手法は高忠実度ジオメトリーと光沢物体の材料を再構成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-10-17T09:00:29Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - Neural-PBIR Reconstruction of Shape, Material, and Illumination [26.628189591572074]
ニューラルネットワークを用いた物体再構成と物理ベースの逆レンダリング(PBIR)を組み合わせた高精度かつ高効率な物体再構成パイプラインを提案する。
我々のパイプラインは、まず、ニューラルネットワークSDFに基づく形状再構成を利用して、高品質であるが、潜在的に不完全な物体形状を生成する。
最終段階では、ニューラルネットワークによる予測により、PBIRを行い、初期結果を洗練し、オブジェクトの形状、材料、照明の最終的な高品質な再構築を得る。
論文 参考訳(メタデータ) (2023-04-26T11:02:04Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Shape From Tracing: Towards Reconstructing 3D Object Geometry and SVBRDF
Material from Images via Differentiable Path Tracing [16.975014467319443]
識別可能なパストレースは、複雑な外観効果を再現できるため、魅力的なフレームワークである。
本稿では,初期粗いメッシュとメッシュファセット単位の材料表現を改良するために,微分可能なレイトレーシングを利用する方法を示す。
また、制約のない環境下での現実世界の物体の初期再構成を洗練させる方法についても示す。
論文 参考訳(メタデータ) (2020-12-06T18:55:35Z) - 3DMaterialGAN: Learning 3D Shape Representation from Latent Space for
Materials Science Applications [7.449993399792031]
3DMaterialGANは、モルフォロジーが与えられた3D多結晶材料の微細構造に適合する個々の粒を認識合成することができる。
提案手法は, ベンチマークアノテートした3次元データセット上で, 最先端の3次元データよりも比較可能か, あるいは優れていることを示す。
この枠組みは多結晶材料の認識と合成の基礎を築いた。
論文 参考訳(メタデータ) (2020-07-27T21:55:16Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z) - Multiview Neural Surface Reconstruction by Disentangling Geometry and
Appearance [46.488713939892136]
我々は、未知の幾何学、カメラパラメータ、および表面からカメラに向かって反射された光を近似するニューラルネットワークを同時に学習するニューラルネットワークを導入する。
我々は、DTU MVSデータセットから、異なる素材特性、照明条件、ノイズの多いカメラ素材を実世界の2D画像でトレーニングした。
論文 参考訳(メタデータ) (2020-03-22T10:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。