論文の概要: Sketch2Cloth: Sketch-based 3D Garment Generation with Unsigned Distance
Fields
- arxiv url: http://arxiv.org/abs/2303.00167v1
- Date: Wed, 1 Mar 2023 01:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:29:36.846534
- Title: Sketch2Cloth: Sketch-based 3D Garment Generation with Unsigned Distance
Fields
- Title(参考訳): Sketch2Cloth: 符号なし距離場を用いたSketchベースの3次元ガーメント生成
- Authors: Yi He, Haoran Xie and Kazunori Miyata
- Abstract要約: ユーザのスケッチ入力から符号なし距離場を用いたスケッチベースの3D衣料生成システムであるSketch2Clothを提案する。
Sketch2Clothはまず、スケッチ入力からターゲット3Dモデルの符号なし距離関数を推定し、マーチングキューブを用いて推定フィールドからメッシュを抽出する。
また、生成されたメッシュを修正するためのモデル編集機能も提供します。
- 参考スコア(独自算出の注目度): 12.013968508918634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D model reconstruction from a single image has achieved great progress with
the recent deep generative models. However, the conventional reconstruction
approaches with template mesh deformation and implicit fields have difficulty
in reconstructing non-watertight 3D mesh models, such as garments. In contrast
to image-based modeling, the sketch-based approach can help users generate 3D
models to meet the design intentions from hand-drawn sketches. In this study,
we propose Sketch2Cloth, a sketch-based 3D garment generation system using the
unsigned distance fields from the user's sketch input. Sketch2Cloth first
estimates the unsigned distance function of the target 3D model from the sketch
input, and extracts the mesh from the estimated field with Marching Cubes. We
also provide the model editing function to modify the generated mesh. We
verified the proposed Sketch2Cloth with quantitative evaluations on garment
generation and editing with a state-of-the-art approach.
- Abstract(参考訳): 単一画像からの3次元モデル再構成は,最近の深層生成モデルで大きな進歩を遂げている。
しかし,従来のテンプレートメッシュの変形や暗黙のフィールドによる再構成手法では,衣服などの非水密な3Dメッシュモデルの再構築が困難である。
画像ベースのモデリングとは対照的に、スケッチベースのアプローチは、手描きのスケッチからデザイン意図を満たす3Dモデルを作成するのに役立つ。
本研究では,スケッチ入力からの符号なし距離場を用いたスケッチベース3D衣料生成システムであるSketch2Clothを提案する。
Sketch2Clothはまず、スケッチ入力からターゲット3Dモデルの符号なし距離関数を推定し、マーチングキューブを用いて推定フィールドからメッシュを抽出する。
生成されたメッシュを修正するためのモデル編集機能も提供します。
提案したSketch2Clothを,最先端アプローチによる衣服生成と編集の定量的評価により検証した。
関連論文リスト
- Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Doodle Your 3D: From Abstract Freehand Sketches to Precise 3D Shapes [118.406721663244]
本稿では,抽象モデリングとクロスモーダル対応を容易にする,新しい部分レベルモデリング・アライメントフレームワークを提案する。
提案手法は,CLIPassoエッジマップと投影された3次元部分領域との対応性を確立することで,スケッチモデリングにシームレスに拡張する。
論文 参考訳(メタデータ) (2023-12-07T05:04:33Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z) - SENS: Part-Aware Sketch-based Implicit Neural Shape Modeling [124.3266213819203]
SENSは手描きスケッチから3Dモデルを生成し編集するための新しい手法である。
SENSはスケッチを分析し、部品をViTパッチエンコーディングにエンコードする。
SENSは部分再構成による精細化をサポートし、微調整とアーティファクトの除去を可能にする。
論文 参考訳(メタデータ) (2023-06-09T17:50:53Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - TreeSketchNet: From Sketch To 3D Tree Parameters Generation [4.234843176066354]
スタイリングされたスケッチからの非線形オブジェクトの3Dモデリングは、コンピュータグラフィックスの専門家にとっても難しい課題である。
本稿では,モデラーと3Dモデリングソフトウェアを仲介するブローカーシステムを提案する。
論文 参考訳(メタデータ) (2022-07-25T16:08:05Z) - SingleSketch2Mesh : Generating 3D Mesh model from Sketch [1.6973426830397942]
スケッチから3Dモデルを生成する現在の方法は、手動またはタイトに3Dモデリングプラットフォームと結合されている。
我々は手描きスケッチから3Dモデルを生成するための新しいAIベースのアンサンブルアプローチであるSingleSketch2Meshを提案する。
論文 参考訳(メタデータ) (2022-03-07T06:30:36Z) - Sketch2Model: View-Aware 3D Modeling from Single Free-Hand Sketches [4.781615891172263]
初心者向けの高速な3Dモデリングを目指し、自由自在なスケッチから3Dメッシュを生成する問題を調査します。
曖昧さを克服するための視点仕様の重要性に対処し,新しい視点認識生成手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T06:27:48Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。