論文の概要: Geometric Understanding of Sketches
- arxiv url: http://arxiv.org/abs/2204.06675v1
- Date: Wed, 13 Apr 2022 23:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-16 03:40:22.099576
- Title: Geometric Understanding of Sketches
- Title(参考訳): スケッチの幾何学的理解
- Authors: Raghav Brahmadesam Venkataramaiyer
- Abstract要約: そこで本研究では,システムのスケッチの幾何学的理解を支援する2つの手法について検討する。
最初の研究は、グラフ構造としての2次元線描画の解釈を扱い、また、ロボットによる物理的再構成によってその効果を示す。
2つ目の研究では、3次元幾何学に関する情報に明示的にアクセスすることなく、スケッチベースシステムの3次元幾何学的理解をテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sketching is used as a ubiquitous tool of expression by novices and experts
alike. In this thesis I explore two methods that help a system provide a
geometric machine-understanding of sketches, and in-turn help a user accomplish
a downstream task.
The first work deals with interpretation of a 2D-line drawing as a graph
structure, and also illustrates its effectiveness through its physical
reconstruction by a robot. We setup a two-step pipeline to solve the problem.
Formerly, we estimate the vertices of the graph with sub-pixel level accuracy.
We achieve this using a combination of deep convolutional neural networks
learned under a supervised setting for pixel-level estimation followed by the
connected component analysis for clustering. Later we follow it up with a
feedback-loop-based edge estimation method. To complement the
graph-interpretation, we further perform data-interchange to a robot legible
ASCII format, and thus teach a robot to replicate a line drawing.
In the second work, we test the 3D-geometric understanding of a sketch-based
system without explicit access to the information about 3D-geometry. The
objective is to complete a contour-like sketch of a 3D-object, with
illumination and texture information. We propose a data-driven approach to
learn a conditional distribution modelled as deep convolutional neural networks
to be trained under an adversarial setting; and we validate it against a
human-in-the-loop. The method itself is further supported by synthetic data
generation using constructive solid geometry following a standard graphics
pipeline. In order to validate the efficacy of our method, we design a
user-interface plugged into a popular sketch-based workflow, and setup a simple
task-based exercise, for an artist. Thereafter, we also discover that
form-exploration is an additional utility of our application.
- Abstract(参考訳): スケッチは初心者や専門家によるユビキタスな表現ツールとして使われる。
本論文では,システムによるスケッチの幾何学的理解を支援する2つの手法と,ユーザが下流のタスクを達成できるようにする2つの方法について考察する。
最初の作品では、2d線描画をグラフ構造として解釈し、ロボットによる物理的再構築によってその効果を示す。
問題を解決するために、2ステップのパイプラインを設定します。
従来,グラフの頂点をピクセル単位の精度で推定していた。
本研究では,ピクセルレベル推定のための教師付き設定下で学習した深層畳み込みニューラルネットワークと,クラスタリングのための連結成分分析を組み合わせた。
その後,フィードバックループに基づくエッジ推定手法を提案する。
このグラフ解釈を補完するために、さらにロボットのレジブルなasciiフォーマットへのデータ交換を行い、ロボットに線画の複製を教える。
第2の研究では、3dジオメトリに関する情報を明示的にアクセスすることなく、スケッチベースのシステムの3dジオメトリの理解をテストする。
目的は、3Dオブジェクトの輪郭のようなスケッチを照明とテクスチャ情報で仕上げることである。
本研究では,深い畳み込みニューラルネットワークとしてモデル化された条件分布を,対向的な条件下で学習するためのデータ駆動型アプローチを提案する。
この手法自体は、標準グラフィックパイプラインに続く構成的固体形状を用いた合成データ生成によってさらに支持される。
提案手法の有効性を検証するため,一般的なスケッチベースのワークフローにプラグインされたユーザインタフェースを設計し,簡単なタスクベースのエクササイズをアーティストのために設定する。
その後、フォーム探索がアプリケーションに追加の効用であることも判明した。
関連論文リスト
- GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Building-GAN: Graph-Conditioned Architectural Volumetric Design
Generation [10.024367148266721]
本稿では,入力プログラムグラフに基づくボリュームデザイン生成について述べる。
密度の高い3次元ボクセルを出力する代わりに、ジオメトリを構築するためにコンパクトかつ表現性の高い新しい3次元表現であるボクセルグラフを提案する。
私たちのジェネレータは、入力プログラムグラフと出力ボキセルグラフを接続するためのポインタメカニズムを使用するクロスモーダルグラフニューラルネットワークであり、パイプライン全体が逆のフレームワークを使用して訓練されます。
論文 参考訳(メタデータ) (2021-04-27T16:49:34Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - SHAD3S: A model to Sketch, Shade and Shadow [20.209172586699175]
スケッチの3次元をアクセント化し、シーンを照らすために、画家がよく使う手法である。
我々のシステムSHAD3Sは、一般的な3次元形状(3D)をハッチする人間と競い合い、フォーム探索運動で彼女を助ける。
論文 参考訳(メタデータ) (2020-11-13T09:25:46Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。