論文の概要: Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches
- arxiv url: http://arxiv.org/abs/2104.00482v1
- Date: Thu, 1 Apr 2021 14:10:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:35:29.212847
- Title: Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches
- Title(参考訳): sketch2mesh: スケッチからの3d形状の再構築と編集
- Authors: Benoit Guillard and Edoardo Remelli and Pierre Yvernay and Pascal Fua
- Abstract要約: スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
- 参考スコア(独自算出の注目度): 65.96417928860039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing 3D shape from 2D sketches has long been an open problem
because the sketches only provide very sparse and ambiguous information. In
this paper, we use an encoder/decoder architecture for the sketch to mesh
translation. This enables us to leverage its latent parametrization to
represent and refine a 3D mesh so that its projections match the external
contours outlined in the sketch. We will show that this approach is easy to
deploy, robust to style changes, and effective. Furthermore, it can be used for
shape refinement given only single pen strokes. We compare our approach to
state-of-the-art methods on sketches -- both hand-drawn and synthesized -- and
demonstrate that we outperform them.
- Abstract(参考訳): 2Dのスケッチから3Dの形状を再構築することは、長い間オープンな問題だった。
本稿では,メッシュ変換のためのスケッチにエンコーダ/デコーダアーキテクチャを用いる。
これにより、潜在パラメトリゼーションを利用して3Dメッシュを表現・洗練し、プロジェクションがスケッチで概略された外部の輪郭にマッチするようにします。
このアプローチはデプロイが容易であり、スタイル変更に堅牢であり、効果的であることを示します。
また、一本のペンストロークしか持たない形状の精細化にも使用できる。
我々は、手書きと合成の両方でスケッチの最先端の手法と比較し、それらよりも優れていることを示す。
関連論文リスト
- Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Doodle Your 3D: From Abstract Freehand Sketches to Precise 3D Shapes [118.406721663244]
本稿では,抽象モデリングとクロスモーダル対応を容易にする,新しい部分レベルモデリング・アライメントフレームワークを提案する。
提案手法は,CLIPassoエッジマップと投影された3次元部分領域との対応性を確立することで,スケッチモデリングにシームレスに拡張する。
論文 参考訳(メタデータ) (2023-12-07T05:04:33Z) - SENS: Part-Aware Sketch-based Implicit Neural Shape Modeling [124.3266213819203]
SENSは手描きスケッチから3Dモデルを生成し編集するための新しい手法である。
SENSはスケッチを分析し、部品をViTパッチエンコーディングにエンコードする。
SENSは部分再構成による精細化をサポートし、微調整とアーティファクトの除去を可能にする。
論文 参考訳(メタデータ) (2023-06-09T17:50:53Z) - Sketch2Cloth: Sketch-based 3D Garment Generation with Unsigned Distance
Fields [12.013968508918634]
ユーザのスケッチ入力から符号なし距離場を用いたスケッチベースの3D衣料生成システムであるSketch2Clothを提案する。
Sketch2Clothはまず、スケッチ入力からターゲット3Dモデルの符号なし距離関数を推定し、マーチングキューブを用いて推定フィールドからメッシュを抽出する。
また、生成されたメッシュを修正するためのモデル編集機能も提供します。
論文 参考訳(メタデータ) (2023-03-01T01:45:28Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - SingleSketch2Mesh : Generating 3D Mesh model from Sketch [1.6973426830397942]
スケッチから3Dモデルを生成する現在の方法は、手動またはタイトに3Dモデリングプラットフォームと結合されている。
我々は手描きスケッチから3Dモデルを生成するための新しいAIベースのアンサンブルアプローチであるSingleSketch2Meshを提案する。
論文 参考訳(メタデータ) (2022-03-07T06:30:36Z) - SimpModeling: Sketching Implicit Field to Guide Mesh Modeling for 3D
Animalmorphic Head Design [40.821865912127635]
そこで本研究では,3次元動物型頭部の簡易なモデリングを支援するスケッチベースシステムであるSimpModelingを提案する。
我々は,手書きスケッチと合成スケッチの領域間を効果的に処理できる高度な暗黙的形状推論手法を用いる。
また、アーティストが手作業で作成する高品質な3D動物の頭部のデータセットにも貢献する。
論文 参考訳(メタデータ) (2021-08-05T12:17:36Z) - 3D Shape Reconstruction from Free-Hand Sketches [42.15888734492648]
歪みのない線図からの3次元再構成では大きな進歩があったが、フリーハンドスケッチから3次元形状を再構築する努力はほとんど行われていない。
インタラクティブデザインやVR/ARゲームといった3D関連アプリケーションにおけるスケッチのパワー向上を目指す。
フリーハンドスケッチ3D再構成の大きな課題は、トレーニングデータ不足とフリーハンドスケッチの多様性にある。
論文 参考訳(メタデータ) (2020-06-17T07:43:10Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。