論文の概要: S3D: Sketch-Driven 3D Model Generation
- arxiv url: http://arxiv.org/abs/2505.04185v1
- Date: Wed, 07 May 2025 07:34:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.999067
- Title: S3D: Sketch-Driven 3D Model Generation
- Title(参考訳): S3D: スケッチ駆動型3Dモデル生成
- Authors: Hail Song, Wonsik Shin, Naeun Lee, Soomin Chung, Nojun Kwak, Woontack Woo,
- Abstract要約: S3Dは単純な手描きスケッチを詳細な3Dモデルに変換するフレームワークである。
提案手法では,U-Netベースのエンコーダデコーダアーキテクチャを用いてスケッチを顔分割マスクに変換する。
- 参考スコア(独自算出の注目度): 26.557326163693215
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating high-quality 3D models from 2D sketches is a challenging task due to the inherent ambiguity and sparsity of sketch data. In this paper, we present S3D, a novel framework that converts simple hand-drawn sketches into detailed 3D models. Our method utilizes a U-Net-based encoder-decoder architecture to convert sketches into face segmentation masks, which are then used to generate a 3D representation that can be rendered from novel views. To ensure robust consistency between the sketch domain and the 3D output, we introduce a novel style-alignment loss that aligns the U-Net bottleneck features with the initial encoder outputs of the 3D generation module, significantly enhancing reconstruction fidelity. To further enhance the network's robustness, we apply augmentation techniques to the sketch dataset. This streamlined framework demonstrates the effectiveness of S3D in generating high-quality 3D models from sketch inputs. The source code for this project is publicly available at https://github.com/hailsong/S3D.
- Abstract(参考訳): 2Dスケッチから高品質な3Dモデルを生成することは、スケッチデータの本質的な曖昧さと空間性のために難しい課題である。
本稿では,手描きスケッチを詳細な3Dモデルに変換する新しいフレームワークであるS3Dを提案する。
提案手法では,U-Netベースのエンコーダデコーダアーキテクチャを用いてスケッチを顔分割マスクに変換し,新しいビューから描画可能な3D表現を生成する。
スケッチ領域と3D出力との堅牢な整合性を確保するため,U-Netボトルネック特徴と3D生成モジュールの初期エンコーダ出力とを整合させる新しいスタイルアライメント損失を導入し,再現性を大幅に向上させる。
ネットワークの堅牢性をさらに向上するため,スケッチデータセットに拡張手法を適用した。
この合理化フレームワークは,スケッチ入力から高品質な3Dモデルを生成する上で,S3Dの有効性を示す。
プロジェクトのソースコードはhttps://github.com/hailsong/S3D.comで公開されている。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Diff3DS: Generating View-Consistent 3D Sketch via Differentiable Curve Rendering [17.918603435615335]
3Dスケッチは、オブジェクトやシーンの3D形状と構造を視覚的に表現するために広く使用されている。
Diff3DSは、ビュー一貫性のある3Dスケッチを生成するための、新しい差別化可能なフレームワークである。
我々のフレームワークは3Dスケッチと画像のドメインをブリッジし、3Dスケッチのエンドツーエンド最適化を実現する。
論文 参考訳(メタデータ) (2024-05-24T07:48:14Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Sketch2NeRF: Multi-view Sketch-guided Text-to-3D Generation [37.93542778715304]
スケッチ誘導型テキストから3D生成フレームワーク(Sketch2NeRF)を提案し、3D生成にスケッチ制御を追加する。
本手法は,スケッチの類似性やテキストアライメントの観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-01-25T15:49:12Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。