論文の概要: Sketch2Model: View-Aware 3D Modeling from Single Free-Hand Sketches
- arxiv url: http://arxiv.org/abs/2105.06663v1
- Date: Fri, 14 May 2021 06:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 21:42:04.147993
- Title: Sketch2Model: View-Aware 3D Modeling from Single Free-Hand Sketches
- Title(参考訳): Sketch2Model:ビュー対応3Dモデリング
- Authors: Song-Hai Zhang, Yuan-Chen Guo, Qing-Wen Gu
- Abstract要約: 初心者向けの高速な3Dモデリングを目指し、自由自在なスケッチから3Dメッシュを生成する問題を調査します。
曖昧さを克服するための視点仕様の重要性に対処し,新しい視点認識生成手法を提案する。
- 参考スコア(独自算出の注目度): 4.781615891172263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the problem of generating 3D meshes from single free-hand
sketches, aiming at fast 3D modeling for novice users. It can be regarded as a
single-view reconstruction problem, but with unique challenges, brought by the
variation and conciseness of sketches. Ambiguities in poorly-drawn sketches
could make it hard to determine how the sketched object is posed. In this
paper, we address the importance of viewpoint specification for overcoming such
ambiguities, and propose a novel view-aware generation approach. By explicitly
conditioning the generation process on a given viewpoint, our method can
generate plausible shapes automatically with predicted viewpoints, or with
specified viewpoints to help users better express their intentions. Extensive
evaluations on various datasets demonstrate the effectiveness of our view-aware
design in solving sketch ambiguities and improving reconstruction quality.
- Abstract(参考訳): 初心者向け高速な3Dモデリングを目的としたフリーハンドスケッチから3Dメッシュを生成する問題について検討する。
単視点復元問題と見なすこともできるが、スケッチのバリエーションと簡潔さによってもたらされる独特の課題がある。
貧弱なスケッチの曖昧さは、スケッチされたオブジェクトの配置を決定するのを難しくする。
本稿では,このような曖昧さを克服するための視点仕様の重要性を論じ,新しい視点認識手法を提案する。
任意の視点で生成プロセスを明示的に条件づけすることにより、予測された視点で、あるいは特定の視点で自動的に妥当な形状を生成し、ユーザの意図の表現に役立てることができる。
様々なデータセットに対する広範囲な評価は、スケッチの曖昧さを解消し、再構築品質を改善するための視点認識設計の有効性を示す。
関連論文リスト
- SENS: Part-Aware Sketch-based Implicit Neural Shape Modeling [124.3266213819203]
SENSは手描きスケッチから3Dモデルを生成し編集するための新しい手法である。
SENSはスケッチを分析し、部品をViTパッチエンコーディングにエンコードする。
SENSは部分再構成による精細化をサポートし、微調整とアーティファクトの除去を可能にする。
論文 参考訳(メタデータ) (2023-06-09T17:50:53Z) - Sketch2Cloth: Sketch-based 3D Garment Generation with Unsigned Distance
Fields [12.013968508918634]
ユーザのスケッチ入力から符号なし距離場を用いたスケッチベースの3D衣料生成システムであるSketch2Clothを提案する。
Sketch2Clothはまず、スケッチ入力からターゲット3Dモデルの符号なし距離関数を推定し、マーチングキューブを用いて推定フィールドからメッシュを抽出する。
また、生成されたメッシュを修正するためのモデル編集機能も提供します。
論文 参考訳(メタデータ) (2023-03-01T01:45:28Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - SingleSketch2Mesh : Generating 3D Mesh model from Sketch [1.6973426830397942]
スケッチから3Dモデルを生成する現在の方法は、手動またはタイトに3Dモデリングプラットフォームと結合されている。
我々は手描きスケッチから3Dモデルを生成するための新しいAIベースのアンサンブルアプローチであるSingleSketch2Meshを提案する。
論文 参考訳(メタデータ) (2022-03-07T06:30:36Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z) - SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence [68.63311821718416]
我々はマルチビュースケッチ対応の問題について検討し、同じオブジェクトの異なるビューを持つ複数のフリーハンドスケッチを入力として扱う。
異なる視点における対応する点の視覚的特徴は、非常に異なる可能性があるため、この問題は困難である。
我々は、深層学習アプローチを採用し、データから新しいローカルスケッチ記述子を学習する。
論文 参考訳(メタデータ) (2020-01-16T11:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。