論文の概要: Material Anything: Generating Materials for Any 3D Object via Diffusion
- arxiv url: http://arxiv.org/abs/2411.15138v1
- Date: Fri, 22 Nov 2024 18:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 18:36:18.819943
- Title: Material Anything: Generating Materials for Any 3D Object via Diffusion
- Title(参考訳): 材料何か:拡散による任意の3Dオブジェクトのための材料生成
- Authors: Xin Huang, Tengfei Wang, Ziwei Liu, Qing Wang,
- Abstract要約: 本稿では,3次元オブジェクトのための物理的材料を生成するための,完全自動統合拡散フレームワークを提案する。
Material Anythingは、多様な照明条件下でオブジェクトに適応可能な堅牢でエンドツーエンドのソリューションを提供する。
- 参考スコア(独自算出の注目度): 39.46553064506517
- License:
- Abstract: We present Material Anything, a fully-automated, unified diffusion framework designed to generate physically-based materials for 3D objects. Unlike existing methods that rely on complex pipelines or case-specific optimizations, Material Anything offers a robust, end-to-end solution adaptable to objects under diverse lighting conditions. Our approach leverages a pre-trained image diffusion model, enhanced with a triple-head architecture and rendering loss to improve stability and material quality. Additionally, we introduce confidence masks as a dynamic switcher within the diffusion model, enabling it to effectively handle both textured and texture-less objects across varying lighting conditions. By employing a progressive material generation strategy guided by these confidence masks, along with a UV-space material refiner, our method ensures consistent, UV-ready material outputs. Extensive experiments demonstrate our approach outperforms existing methods across a wide range of object categories and lighting conditions.
- Abstract(参考訳): 本稿では,3次元オブジェクトのための物理的材料を生成するための,完全自動統合拡散フレームワークであるMaterial Anythingを提案する。
複雑なパイプラインやケース固有の最適化に依存する既存の方法とは異なり、Material Anythingは多様な照明条件下でオブジェクトに適応可能な堅牢でエンドツーエンドのソリューションを提供する。
提案手法は,3重ヘッドアーキテクチャとレンダリング損失で強化された事前学習画像拡散モデルを利用して,安定性と材料品質を向上する。
さらに,拡散モデル内の動的切換器として信頼性マスクを導入し,様々な照明条件でテクスチャやテクスチャのない物体を効果的に扱えるようにした。
これらの信頼性マスクによって導かれるプログレッシブな物質生成戦略と、UV空間の材料精製器を併用することにより、我々の方法では、一貫したUV対応材料出力が保証される。
大規模な実験により,本手法は様々な対象カテゴリや照明条件において,既存手法よりも優れていた。
関連論文リスト
- Boosting 3D Object Generation through PBR Materials [32.732511476490316]
物理ベースレンダリング(PBR)材料の観点から,生成した3Dオブジェクトの品質を高める新しい手法を提案する。
アルベドやバンプマップでは、合成データに微調整された安定拡散を利用してこれらの値を抽出する。
粗さと金属度マップについては,対話的な調整を行うためのセミオートマチックなプロセスを採用する。
論文 参考訳(メタデータ) (2024-11-25T04:20:52Z) - MaterialFusion: Enhancing Inverse Rendering with Material Diffusion Priors [67.74705555889336]
本稿では,テクスチャと材料特性に先立って2Dを組み込んだ,従来の3次元逆レンダリングパイプラインであるMaterialFusionを紹介する。
本稿では,2次元拡散モデルであるStableMaterialについて述べる。
種々の照明条件下で, 合成および実物体の4つのデータセット上でのMaterialFusionの照度特性を検証した。
論文 参考訳(メタデータ) (2024-09-23T17:59:06Z) - OpenMaterial: A Comprehensive Dataset of Complex Materials for 3D Reconstruction [54.706361479680055]
295個の異なる材料からなる1001個のオブジェクトからなるOpenMaterialデータセットを紹介した。
OpenMaterialは3D形状、マテリアルタイプ、カメラポーズ、深さ、オブジェクトマスクなど、包括的なアノテーションを提供する。
これは、多様で挑戦的な材料を持つオブジェクト上で、既存のアルゴリズムの定量的評価を可能にする最初の大規模データセットである。
論文 参考訳(メタデータ) (2024-06-13T07:46:17Z) - MaterialSeg3D: Segmenting Dense Materials from 2D Priors for 3D Assets [63.284244910964475]
本稿では,2次元のセマンティクスから基礎となる物質を推定する3次元アセット素材生成フレームワークを提案する。
このような先行モデルに基づいて,材料を三次元空間で解析する機構を考案する。
論文 参考訳(メタデータ) (2024-04-22T07:00:17Z) - IntrinsicAnything: Learning Diffusion Priors for Inverse Rendering Under Unknown Illumination [37.96484120807323]
本稿では,未知の静止照明条件下で撮影されたポーズ画像から対象物質を回収することを目的とする。
我々は、最適化プロセスの正規化のための生成モデルを用いて、その材料を事前に学習する。
実世界および合成データセットを用いた実験により,本手法が材料回収における最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-04-17T17:45:08Z) - ControlMat: A Controlled Generative Approach to Material Capture [7.641962898125423]
写真からの材料再構成は、3Dコンテンツ生成の民主化の鍵となる要素である。
制御不能な照明を入力とする1枚の写真に拡散モデルを適用し, 可塑性, タイル状, 高解像度の物理ベースデジタル材料を生成する。
論文 参考訳(メタデータ) (2023-09-04T16:18:49Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - NeILF: Neural Incident Light Field for Physically-based Material
Estimation [31.230609753253713]
本稿では,多視点画像と再構成幾何から物質と照明を推定するための微分可能なレンダリングフレームワークを提案する。
本フレームワークでは,シーン照明をニューラルインシデント光電場(NeILF)と表現し,多層パーセプトロンでモデル化した表面BRDFとして材料特性を示す。
論文 参考訳(メタデータ) (2022-03-14T15:23:04Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。