論文の概要: Geometry-Aware Preference Learning for 3D Texture Generation
- arxiv url: http://arxiv.org/abs/2506.18331v1
- Date: Mon, 23 Jun 2025 06:24:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.88352
- Title: Geometry-Aware Preference Learning for 3D Texture Generation
- Title(参考訳): 3次元テクスチャ生成のための幾何学的嗜好学習
- Authors: AmirHossein Zamani, Tianhao Xie, Amir G. Aghdam, Tiberiu Popa, Eugene Belilovsky,
- Abstract要約: 本稿では,3次元生成パイプライン全体を通じて人間の嗜好をバックプロパガンダする,エンドツーエンドで微分可能な選好学習フレームワークを提案する。
提案する4つの新しい幾何認識報酬関数を用いて,本フレームワークの有効性を実証する。
- 参考スコア(独自算出の注目度): 8.953379216683732
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in 3D generative models have achieved impressive results but 3D contents generated by these models may not align with subjective human preferences or task-specific criteria. Moreover, a core challenge in the 3D texture generation domain remains: most existing approaches rely on repeated calls to 2D text-to-image generative models, which lack an inherent understanding of the 3D structure of the input 3D mesh object. To address this, we propose an end-to-end differentiable preference learning framework that back-propagates human preferences, represented by differentiable reward functions, through the entire 3D generative pipeline, making the process inherently geometry-aware. We demonstrate the effectiveness of our framework using four proposed novel geometry-aware reward functions, offering a more controllable and interpretable pathway for high-quality 3D content creation from natural language.
- Abstract(参考訳): 近年の3D生成モデルの進歩は目覚ましい結果を得たが、これらのモデルによって生成された3Dコンテンツは、主観的な人間の嗜好やタスク固有の基準と一致しない可能性がある。
既存のほとんどのアプローチは、入力された3Dメッシュオブジェクトの3D構造に関する固有の理解が欠如している2Dテキスト・ツー・イメージ生成モデルへの繰り返し呼び出しに依存している。
そこで本研究では,3次元生成パイプライン全体を通して,人間の嗜好をバック・プロパガンダで表現する,エンドツーエンドの選好学習フレームワークを提案する。
提案する4つの新しい幾何認識報酬関数を用いて,自然言語から高品質な3Dコンテンツを作成するための,より制御可能な,解釈可能な経路を提供することにより,フレームワークの有効性を実証する。
関連論文リスト
- Learning 3D Representations from Procedural 3D Programs [6.915871213703219]
簡単なプリミティブと拡張を使って3次元形状を自動的に生成する手続き型3Dプログラムから3次元表現を学習する。
注目すべきは、手続き的に生成された3D形状から得られた3D表現は、意味的に認識可能な3Dモデルから学んだ最先端の3D表現と同等に実行されることである。
論文 参考訳(メタデータ) (2024-11-25T18:59:57Z) - GaussianAnything: Interactive Point Cloud Flow Matching For 3D Object Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,単一画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。