論文の概要: Unifi3D: A Study on 3D Representations for Generation and Reconstruction in a Common Framework
- arxiv url: http://arxiv.org/abs/2509.02474v1
- Date: Tue, 02 Sep 2025 16:25:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.101999
- Title: Unifi3D: A Study on 3D Representations for Generation and Reconstruction in a Common Framework
- Title(参考訳): Unifi3D:共通フレームワークにおける生成と再構成のための3次元表現に関する研究
- Authors: Nina Wiedemann, Sainan Liu, Quentin Leboutet, Katelyn Gao, Benjamin Ummenhofer, Michael Paulitsch, Kai Yuan,
- Abstract要約: 本稿では,再構成・生成における3次元表現の性能を評価するための統合評価フレームワークを提案する。
プリプロセスやメッシュ再構築,オートエンコーダによる圧縮,生成など,3D生成パイプラインに関わるすべてのステップに対して,ベストプラクティスを導出します。
- 参考スコア(独自算出の注目度): 12.995265721478132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Following rapid advancements in text and image generation, research has increasingly shifted towards 3D generation. Unlike the well-established pixel-based representation in images, 3D representations remain diverse and fragmented, encompassing a wide variety of approaches such as voxel grids, neural radiance fields, signed distance functions, point clouds, or octrees, each offering distinct advantages and limitations. In this work, we present a unified evaluation framework designed to assess the performance of 3D representations in reconstruction and generation. We compare these representations based on multiple criteria: quality, computational efficiency, and generalization performance. Beyond standard model benchmarking, our experiments aim to derive best practices over all steps involved in the 3D generation pipeline, including preprocessing, mesh reconstruction, compression with autoencoders, and generation. Our findings highlight that reconstruction errors significantly impact overall performance, underscoring the need to evaluate generation and reconstruction jointly. We provide insights that can inform the selection of suitable 3D models for various applications, facilitating the development of more robust and application-specific solutions in 3D generation. The code for our framework is available at https://github.com/isl-org/unifi3d.
- Abstract(参考訳): テキストと画像生成の急速な進歩に続いて、研究はますます3D世代へと移行している。
画像におけるよく確立されたピクセルベースの表現とは異なり、3D表現は多様で断片化されており、ボクセルグリッド、ニューラルラディアンスフィールド、符号付き距離関数、点雲、オクツリーなど、様々なアプローチを包含している。
本研究では,再構成・生成における3次元表現の性能評価を目的とした統合評価フレームワークを提案する。
我々は,これらの表現を,品質,計算効率,一般化性能の3つの基準に基づいて比較する。
標準モデルベンチマーク以外にも,前処理やメッシュ再構築,オートエンコーダによる圧縮,生成など,3D生成パイプラインに関わるすべてのステップに対して,ベストプラクティスの導出を目標としています。
以上の結果から,再建の誤りが全体のパフォーマンスに大きく影響していることが示唆された。
我々は、様々なアプリケーションに適した3Dモデルの選択を通知し、より堅牢でアプリケーション固有の3D生成ソリューションの開発を容易にする洞察を提供する。
私たちのフレームワークのコードはhttps://github.com/isl-org/unifi3d.comで公開されています。
関連論文リスト
- End-to-End Fine-Tuning of 3D Texture Generation using Differentiable Rewards [8.953379216683732]
本稿では,人間のフィードバックを3次元テクスチャパイプラインに直接埋め込む,エンドツーエンドの微分可能・強化学習不要なフレームワークを提案する。
幾何学的および外見的モジュールによる好み信号のバックプロパゲーションにより、3次元幾何学的構造を尊重し、所望の基準と整合するテクスチャを生成する。
論文 参考訳(メタデータ) (2025-06-23T06:24:12Z) - Flex3D: Feed-Forward 3D Generation with Flexible Reconstruction Model and Input View Curation [61.040832373015014]
テキスト, 単一画像, スパース画像から高品質な3Dコンテンツを生成するための新しいフレームワークFlex3Dを提案する。
我々は、微調整された多視点画像拡散モデルとビデオ拡散モデルを用いて、候補視のプールを生成し、ターゲット3Dオブジェクトのリッチな表現を可能にする。
第2段階では、キュレートされたビューは、任意の数の入力を効果的に処理できるトランスフォーマーアーキテクチャ上に構築されたフレキシブルリコンストラクションモデル(FlexRM)に入力されます。
論文 参考訳(メタデータ) (2024-10-01T17:29:43Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Efficient Geometry-aware 3D Generative Adversarial Networks [50.68436093869381]
既存の3D GANは計算集約的であるか、3D一貫性のない近似を行う。
本研究では、3D GANの計算効率と画質をこれらの近似に頼らずに改善する。
本稿では,高解像度のマルチビュー一貫性画像だけでなく,高品質な3次元形状をリアルタイムに合成する,表現型ハイブリッド・明示型ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T08:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。