論文の概要: SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence
- arxiv url: http://arxiv.org/abs/2001.05744v3
- Date: Mon, 10 Aug 2020 23:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 00:21:55.794874
- Title: SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence
- Title(参考訳): SketchDesc: 多視点対応のためのローカルスケッチ記述子学習
- Authors: Deng Yu, Lei Li, Youyi Zheng, Manfred Lau, Yi-Zhe Song, Chiew-Lan Tai,
Hongbo Fu
- Abstract要約: 我々はマルチビュースケッチ対応の問題について検討し、同じオブジェクトの異なるビューを持つ複数のフリーハンドスケッチを入力として扱う。
異なる視点における対応する点の視覚的特徴は、非常に異なる可能性があるため、この問題は困難である。
我々は、深層学習アプローチを採用し、データから新しいローカルスケッチ記述子を学習する。
- 参考スコア(独自算出の注目度): 68.63311821718416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of multi-view sketch correspondence,
where we take as input multiple freehand sketches with different views of the
same object and predict as output the semantic correspondence among the
sketches. This problem is challenging since the visual features of
corresponding points at different views can be very different. To this end, we
take a deep learning approach and learn a novel local sketch descriptor from
data. We contribute a training dataset by generating the pixel-level
correspondence for the multi-view line drawings synthesized from 3D shapes. To
handle the sparsity and ambiguity of sketches, we design a novel multi-branch
neural network that integrates a patch-based representation and a multi-scale
strategy to learn the pixel-level correspondence among multi-view sketches. We
demonstrate the effectiveness of our proposed approach with extensive
experiments on hand-drawn sketches and multi-view line drawings rendered from
multiple 3D shape datasets.
- Abstract(参考訳): 本稿では,マルチビュースケッチ対応の問題について検討し,同一対象の異なる視点の複数のフリーハンドスケッチを入力として,スケッチ間の意味的対応を出力として予測する。
異なる視点で対応する点の視覚的特徴が非常に異なるため、この問題は難しい。
この目的のために,我々は深層学習アプローチを取り入れ,新しい局所スケッチ記述子をデータから学習する。
3次元形状から合成した多視点線描画に対して画素レベル対応を生成し,学習データセットを提供する。
スケッチのスパース性とあいまいさに対処するために,パッチベース表現とマルチスケール戦略を統合し,マルチビュースケッチ間のピクセルレベル対応を学習する,新しいマルチブランチニューラルネットワークを設計した。
提案手法の有効性を,複数の3次元形状データセットから描画した手描きスケッチや多視点線描画の広範な実験により実証した。
関連論文リスト
- SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - CustomSketching: Sketch Concept Extraction for Sketch-based Image
Synthesis and Editing [21.12815542848095]
大規模なテキスト・ツー・イメージ(T2I)モデルのパーソナライズ技術により、ユーザーは参照画像から新しい概念を組み込むことができる。
既存の手法は主にテキスト記述に依存しており、カスタマイズされた画像の制御が制限されている。
スケッチを直感的で汎用的な表現として識別し,このような制御を容易にする。
論文 参考訳(メタデータ) (2024-02-27T15:52:59Z) - Doodle Your 3D: From Abstract Freehand Sketches to Precise 3D Shapes [118.406721663244]
本稿では,抽象モデリングとクロスモーダル対応を容易にする,新しい部分レベルモデリング・アライメントフレームワークを提案する。
提案手法は,CLIPassoエッジマップと投影された3次元部分領域との対応性を確立することで,スケッチモデリングにシームレスに拡張する。
論文 参考訳(メタデータ) (2023-12-07T05:04:33Z) - DiffFaceSketch: High-Fidelity Face Image Synthesis with Sketch-Guided
Latent Diffusion Model [8.1818090854822]
我々は,Sketch-Guided Latent Diffusion Model (SGLDM)を紹介した。
SGLDMは、さまざまな抽象レベルのスケッチから、異なる表情、顔のアクセサリー、ヘアスタイルで高品質な顔画像を合成することができる。
論文 参考訳(メタデータ) (2023-02-14T08:51:47Z) - DifferSketching: How Differently Do People Sketch 3D Objects? [78.44544977215918]
3Dオブジェクトの描画方法を理解するために,複数のスケッチデータセットが提案されている。
これらのデータセットは、しばしば小さなスケールで、オブジェクトやカテゴリの小さなセットをカバーする。
本研究では,空間的特徴と時間的特性の両面から,収集したデータをスケッチレベル,ストロークレベル,ピクセルレベルという3つのレベルで解析する。
論文 参考訳(メタデータ) (2022-09-19T06:52:18Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from
Transformers by Self-supervised Learning of Sketch Gestalt [125.17887147597567]
我々は、トランスフォーマー(Sketch-BERT)からのSketch BiBERT表現の学習モデルを提案する。
BERTをドメインのスケッチに一般化し、新しいコンポーネントと事前学習アルゴリズムを提案する。
Sketch-BERTの学習表現は,スケッチ認識,スケッチ検索,スケッチゲットといった下流タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-05-19T01:35:44Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。