論文の概要: DifferSketching: How Differently Do People Sketch 3D Objects?
- arxiv url: http://arxiv.org/abs/2209.08791v1
- Date: Mon, 19 Sep 2022 06:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:39:52.112197
- Title: DifferSketching: How Differently Do People Sketch 3D Objects?
- Title(参考訳): DifferSketching: 3Dオブジェクトはどのくらい違うのか?
- Authors: Chufeng Xiao, Wanchao Su, Jing Liao, Zhouhui Lian, Yi-Zhe Song, Hongbo
Fu
- Abstract要約: 3Dオブジェクトの描画方法を理解するために,複数のスケッチデータセットが提案されている。
これらのデータセットは、しばしば小さなスケールで、オブジェクトやカテゴリの小さなセットをカバーする。
本研究では,空間的特徴と時間的特性の両面から,収集したデータをスケッチレベル,ストロークレベル,ピクセルレベルという3つのレベルで解析する。
- 参考スコア(独自算出の注目度): 78.44544977215918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple sketch datasets have been proposed to understand how people draw 3D
objects. However, such datasets are often of small scale and cover a small set
of objects or categories. In addition, these datasets contain freehand sketches
mostly from expert users, making it difficult to compare the drawings by expert
and novice users, while such comparisons are critical in informing more
effective sketch-based interfaces for either user groups. These observations
motivate us to analyze how differently people with and without adequate drawing
skills sketch 3D objects. We invited 70 novice users and 38 expert users to
sketch 136 3D objects, which were presented as 362 images rendered from
multiple views. This leads to a new dataset of 3,620 freehand multi-view
sketches, which are registered with their corresponding 3D objects under
certain views. Our dataset is an order of magnitude larger than the existing
datasets. We analyze the collected data at three levels, i.e., sketch-level,
stroke-level, and pixel-level, under both spatial and temporal characteristics,
and within and across groups of creators. We found that the drawings by
professionals and novices show significant differences at stroke-level, both
intrinsically and extrinsically. We demonstrate the usefulness of our dataset
in two applications: (i) freehand-style sketch synthesis, and (ii) posing it as
a potential benchmark for sketch-based 3D reconstruction. Our dataset and code
are available at https://chufengxiao.github.io/DifferSketching/.
- Abstract(参考訳): 3Dオブジェクトの描画方法を理解するために,複数のスケッチデータセットが提案されている。
しかしながら、そのようなデータセットは小さなスケールで、小さなオブジェクトやカテゴリをカバーすることが多い。
さらに、これらのデータセットには、主にエキスパートユーザからのフリーハンドスケッチが含まれており、専門家と初心者ユーザによる描画を比較することは困難である。
これらの観察は、3dオブジェクトをスケッチする適切な描画スキルを持っていない人との違いを分析する動機付けとなります。
我々は,初期ユーザ70名と専門ユーザ38名に136個の3Dオブジェクトのスケッチを依頼し,複数のビューから362枚の画像として提示した。
これにより、3,620個のフリーハンドのマルチビュースケッチのデータセットが新たに作成され、特定のビューの下で対応する3Dオブジェクトに登録される。
我々のデータセットは、既存のデータセットよりも桁違いに大きい。
収集したデータ(スケッチレベル,ストロークレベル,ピクセルレベル)を,空間的特性と時間的特性の両面から,クリエーターのグループ内およびグループ間で分析した。
その結果,プロや初心者の絵は内在的にも外的にも脳卒中レベルでも有意な差を示した。
データセットの有用性を2つのアプリケーションで示す。
(i)フリーハンドスタイルのスケッチ合成、及び
(ii)スケッチに基づく3次元再構成の潜在的なベンチマークとして捉えること。
私たちのデータセットとコードはhttps://chufengxiao.github.io/differsketching/で利用可能です。
関連論文リスト
- SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Fine-Grained VR Sketching: Dataset and Insights [140.0579567561475]
1,497個のVRスケッチと大きな形状の椅子カテゴリーの3次元形状ペアの最初の詳細なデータセットを提示する。
我々のデータセットは、きめ細かいデータ分析に関するスケッチコミュニティの最近のトレンドをサポートする。
論文 参考訳(メタデータ) (2022-09-20T21:30:54Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z) - SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence [68.63311821718416]
我々はマルチビュースケッチ対応の問題について検討し、同じオブジェクトの異なるビューを持つ複数のフリーハンドスケッチを入力として扱う。
異なる視点における対応する点の視覚的特徴は、非常に異なる可能性があるため、この問題は困難である。
我々は、深層学習アプローチを採用し、データから新しいローカルスケッチ記述子を学習する。
論文 参考訳(メタデータ) (2020-01-16T11:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。