論文の概要: ViewCraft3D: High-Fidelity and View-Consistent 3D Vector Graphics Synthesis
- arxiv url: http://arxiv.org/abs/2505.19492v1
- Date: Mon, 26 May 2025 04:21:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.162799
- Title: ViewCraft3D: High-Fidelity and View-Consistent 3D Vector Graphics Synthesis
- Title(参考訳): ViewCraft3D:高精細・高精細・高精細3次元ベクトルグラフィクス合成
- Authors: Chuang Wang, Haitao Zhou, Ling Luo, Qian Yu,
- Abstract要約: 3次元ベクトルグラフィックスは、3次元形状検索、概念設計、バーチャルリアリティーの相互作用など、様々なアプリケーションにおいて重要な役割を果たす。
近年のアプローチでは、3Dベクターグラフィックスの生成が期待できるが、長い処理時間とビューの一貫性維持に苦慮することが多い。
本研究では, 3次元ベクトルグラフィックスを生成するために, 3次元先行画像を利用する効率的な方法であるViewCraft3D(VC3D)を提案する。
- 参考スコア(独自算出の注目度): 15.46513076132538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D vector graphics play a crucial role in various applications including 3D shape retrieval, conceptual design, and virtual reality interactions due to their ability to capture essential structural information with minimal representation. While recent approaches have shown promise in generating 3D vector graphics, they often suffer from lengthy processing times and struggle to maintain view consistency. To address these limitations, we propose ViewCraft3D (VC3D), an efficient method that leverages 3D priors to generate 3D vector graphics. Specifically, our approach begins with 3D object analysis, employs a geometric extraction algorithm to fit 3D vector graphics to the underlying structure, and applies view-consistent refinement process to enhance visual quality. Our comprehensive experiments demonstrate that VC3D outperforms previous methods in both qualitative and quantitative evaluations, while significantly reducing computational overhead. The resulting 3D sketches maintain view consistency and effectively capture the essential characteristics of the original objects.
- Abstract(参考訳): 3次元ベクトルグラフィックスは、3次元形状検索、概念設計、バーチャルリアリティーの相互作用など様々なアプリケーションにおいて重要な役割を担っている。
最近のアプローチでは、3Dベクターグラフィックスの生成が約束されているが、長い処理時間とビューの一貫性維持に苦慮することが多い。
これらの制約に対処するため,3次元ベクターグラフィックスを生成するために,3次元先行処理を利用する効率的な方法であるViewCraft3D(VC3D)を提案する。
具体的には、3次元オブジェクト解析から始まり、幾何学的抽出アルゴリズムを用いて3次元ベクトルグラフィックスを基礎構造に適合させ、視覚的品質を高めるためにビュー一貫性改善プロセスを適用する。
包括的実験により,VC3Dは計算オーバーヘッドを著しく低減しつつ,定性評価と定量的評価の両方において従来の手法よりも優れた性能を示した。
結果として得られた3Dスケッチはビューの一貫性を維持し、元のオブジェクトの本質的な特性を効果的にキャプチャする。
関連論文リスト
- TAR3D: Creating High-Quality 3D Assets via Next-Part Prediction [137.34863114016483]
TAR3Dは、3D対応ベクトル量子可変オートエンコーダ(VQ-VAE)と生成事前学習トランス(GPT)で構成される新しいフレームワークである。
TAR3Dは,テキスト・ツー・3Dタスクや画像・ツー・3Dタスクにおいて,既存の手法よりも優れた生成品質が得られることを示す。
論文 参考訳(メタデータ) (2024-12-22T08:28:20Z) - Learning 3D Representations from Procedural 3D Programs [6.915871213703219]
自己教師付き学習は、ラベルのない3Dポイントクラウドから転送可能な3D表現を取得するための有望なアプローチとして登場した。
簡単なプリミティブと拡張を使って3次元形状を自動的に生成する手続き型3Dプログラムから3次元表現を学習する。
論文 参考訳(メタデータ) (2024-11-25T18:59:57Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - Learning 3D Scene Priors with 2D Supervision [37.79852635415233]
本研究では,3次元の地平を必要とせず,レイアウトや形状の3次元シーンを学習するための新しい手法を提案する。
提案手法は, 3次元シーンを潜在ベクトルとして表現し, クラスカテゴリを特徴とするオブジェクト列に段階的に復号化することができる。
3D-FRONT と ScanNet による実験により,本手法は単一視点再構成における技術状況よりも優れていた。
論文 参考訳(メタデータ) (2022-11-25T15:03:32Z) - Graph-DETR3D: Rethinking Overlapping Regions for Multi-View 3D Object
Detection [17.526914782562528]
グラフ構造学習(GSL)による多視点画像情報を自動的に集約するグラフDETR3Dを提案する。
我々の最良のモデルは、nuScenesテストリーダーボード上で49.5 NDSを達成し、様々な画像ビュー3Dオブジェクト検出器と比較して新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2022-04-25T12:10:34Z) - CoCoNets: Continuous Contrastive 3D Scene Representations [21.906643302668716]
本稿では,RGBとRGB-Dの画像とビデオから非モーダルな3D特徴表現を自己監督的に学習する。
得られた3次元視覚特徴表現は,オブジェクトやシーンにまたがって効果的にスケールし,入力視点から逸脱した情報を想像し,時間とともにオブジェクトを追跡し,意味的に関連したオブジェクトを3dで調整し,3dオブジェクト検出を改善する。
論文 参考訳(メタデータ) (2021-04-08T15:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。