論文の概要: Artist-Created Mesh Generation from Raw Observation
- arxiv url: http://arxiv.org/abs/2509.12501v1
- Date: Mon, 15 Sep 2025 23:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.799146
- Title: Artist-Created Mesh Generation from Raw Observation
- Title(参考訳): RAW観測によるアーティスト・クリートメッシュ生成
- Authors: Yao He, Youngjoong Kwon, Wenxiao Cai, Ehsan Adeli,
- Abstract要約: ノイズや不完全な点群からアーティストスタイルのメッシュを生成するためのエンドツーエンドフレームワークを提案する。
予備的な結果は、クリーンで完全なメッシュで生成するクラウドレンダリング手法の可能性を実証している。
- 参考スコア(独自算出の注目度): 12.302321529515268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an end-to-end framework for generating artist-style meshes from noisy or incomplete point clouds, such as those captured by real-world sensors like LiDAR or mobile RGB-D cameras. Artist-created meshes are crucial for commercial graphics pipelines due to their compatibility with animation and texturing tools and their efficiency in rendering. However, existing approaches often assume clean, complete inputs or rely on complex multi-stage pipelines, limiting their applicability in real-world scenarios. To address this, we propose an end-to-end method that refines the input point cloud and directly produces high-quality, artist-style meshes. At the core of our approach is a novel reformulation of 3D point cloud refinement as a 2D inpainting task, enabling the use of powerful generative models. Preliminary results on the ShapeNet dataset demonstrate the promise of our framework in producing clean, complete meshes.
- Abstract(参考訳): 我々は、LiDARやモバイルRGB-Dカメラのような現実世界のセンサーで捉えたような、ノイズや不完全点の雲からアーティストスタイルのメッシュを生成するエンドツーエンドのフレームワークを提案する。
アーティストが作ったメッシュは、アニメーションやテクスチャツールとの互換性とレンダリングの効率性のために、商用のグラフィクスパイプラインにとって不可欠である。
しかしながら、既存のアプローチでは、クリーンで完全なインプットを前提としたり、複雑なマルチステージパイプラインに依存して、現実のシナリオにおける適用性を制限したりすることが多い。
そこで本研究では,入力点クラウドを改良し,高品質なアーティストスタイルのメッシュを直接生成するエンドツーエンド手法を提案する。
我々のアプローチの核心は、強力な生成モデルの使用を可能にする2次元インペイントタスクとして、3Dポイントの雲の微細化を新たに改善することである。
ShapeNetデータセットの予備的な結果は、クリーンで完全なメッシュを生成する上での私たちのフレームワークの約束を示しています。
関連論文リスト
- PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models [73.4445896872942]
PacTureは、未ドメインの3Dメッシュから物理ベースのレンダリング(PBR)素材テクスチャを生成するためのフレームワークである。
ビューパッキング(View Packing)は、ビュー毎の有効解像度を高める新しいテクニックである。
論文 参考訳(メタデータ) (2025-05-28T14:23:30Z) - RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - PointDreamer: Zero-shot 3D Textured Mesh Reconstruction from Colored Point Cloud [21.224318910715777]
優れたテクスチャ品質に先立って2次元拡散を利用する新しいフレームワークであるPointDreamerを提案する。
PointDreamerはゼロショットだが、 SoTAパフォーマンス(LPIPSスコアが0.118から0.068に30%改善)を示し、ノイズ、スパース、さらには不完全な入力データに対して堅牢である。
論文 参考訳(メタデータ) (2024-06-22T10:33:14Z) - Breathing New Life into 3D Assets with Generative Repainting [74.80184575267106]
拡散ベースのテキスト・ツー・イメージ・モデルは、ビジョン・コミュニティ、アーティスト、コンテンツ・クリエーターから大きな注目を集めた。
近年の研究では、拡散モデルとニューラルネットワークの絡み合いを利用した様々なパイプラインが提案されている。
予備訓練された2次元拡散モデルと標準3次元ニューラルラジアンスフィールドのパワーを独立したスタンドアロンツールとして検討する。
我々のパイプラインはテクスチャ化されたメッシュや無テクスチャのメッシュのような、レガシなレンダリング可能な幾何学を受け入れ、2D生成の洗練と3D整合性強化ツール間の相互作用をオーケストレーションします。
論文 参考訳(メタデータ) (2023-09-15T16:34:51Z) - TextMesh: Generation of Realistic 3D Meshes From Text Prompts [56.2832907275291]
リアルな3Dメッシュを生成するための新しい手法を提案する。
この目的のために、NeRFをSDFバックボーンに拡張し、3Dメッシュ抽出を改善した。
論文 参考訳(メタデータ) (2023-04-24T20:29:41Z) - HyperPocket: Generative Point Cloud Completion [19.895219420937938]
遅延表現をアンタングルするHyperPocketという,新しいオートエンコーダベースのアーキテクチャを導入する。
ハイパーネットワークのパラダイムを活用して、欠落したオブジェクト部分によって残された、ポケットと呼ばれる空間を埋めます。
我々の手法は、他の最先端モデルと競合する性能を提供する。
論文 参考訳(メタデータ) (2021-02-11T12:30:03Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。