論文の概要: Deep Learning for Free-Hand Sketch: A Survey
- arxiv url: http://arxiv.org/abs/2001.02600v3
- Date: Tue, 1 Feb 2022 17:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 10:10:40.179091
- Title: Deep Learning for Free-Hand Sketch: A Survey
- Title(参考訳): フリーハンドスケッチのためのディープラーニング: 調査
- Authors: Peng Xu, Timothy M. Hospedales, Qiyue Yin, Yi-Zhe Song, Tao Xiang,
Liang Wang
- Abstract要約: フリーハンドのスケッチは非常に図像的であり、古代から現代にかけての物や物語を描くために人間によって広く用いられてきた。
最近のタッチスクリーンデバイスの普及により、スケッチ作成はこれまでになく簡単になり、スケッチ指向のアプリケーションがますます人気を博している。
- 参考スコア(独自算出の注目度): 159.63186738971953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Free-hand sketches are highly illustrative, and have been widely used by
humans to depict objects or stories from ancient times to the present. The
recent prevalence of touchscreen devices has made sketch creation a much easier
task than ever and consequently made sketch-oriented applications increasingly
popular. The progress of deep learning has immensely benefited free-hand sketch
research and applications. This paper presents a comprehensive survey of the
deep learning techniques oriented at free-hand sketch data, and the
applications that they enable. The main contents of this survey include: (i) A
discussion of the intrinsic traits and unique challenges of free-hand sketch,
to highlight the essential differences between sketch data and other data
modalities, e.g., natural photos. (ii) A review of the developments of
free-hand sketch research in the deep learning era, by surveying existing
datasets, research topics, and the state-of-the-art methods through a detailed
taxonomy and experimental evaluation. (iii) Promotion of future work via a
discussion of bottlenecks, open problems, and potential research directions for
the community.
- Abstract(参考訳): フリーハンドのスケッチは非常にイラスト的であり、古代から現代までの物や物語を描くために人間によって広く用いられてきた。
タッチスクリーンデバイスが最近普及し、スケッチ作成がこれまで以上に簡単になったため、スケッチ指向のアプリケーションがますます人気になった。
ディープラーニングの進歩は、フリーハンドのスケッチ研究と応用に大きな恩恵をもたらした。
本稿では,フリーハンドスケッチデータに指向するディープラーニング技術とその応用について,包括的調査を行う。
本調査の主な内容は以下のとおりである。
一 スケッチデータと他のデータモダリティ、例えば自然写真との本質的な差異を強調するために、フリーハンドスケッチの固有の特徴とユニークな課題について議論すること。
(ii)詳細な分類と実験的評価を通して既存のデータセット、研究トピック、最先端手法を調査して、深層学習時代のフリーハンドスケッチ研究の発展を振り返る。
(iii)ボトルネック、オープン問題、コミュニティの潜在的な研究方向に関する議論による今後の作業の促進。
関連論文リスト
- Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Towards Practicality of Sketch-Based Visual Understanding [15.30818342202786]
スケッチは、先史時代から視覚的な物体を概念化し、描写するために用いられてきた。
この論文は、スケッチに基づく視覚的理解をより実践的に進めることを目的としている。
論文 参考訳(メタデータ) (2022-10-27T03:12:57Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - FS-COCO: Towards Understanding of Freehand Sketches of Common Objects in
Context [112.07988211268612]
フリーハンドシーンスケッチの最初のデータセットであるFS-COCOを用いてスケッチ研究を進めた。
本データセットは,100名の非専門家による1点あたりの時空間情報付きフリーハンドシーンベクトルスケッチからなる。
フリーハンドシーンのスケッチやスケッチのキャプションからきめ細かい画像検索の問題が初めて研究された。
論文 参考訳(メタデータ) (2022-03-04T03:00:51Z) - Sketch-based Creativity Support Tools using Deep Learning [23.366634691081593]
ディープラーニングモデルの最近の進歩は、視覚的コンテンツを理解および生成するマシンの能力を大幅に改善した。
開発中のエキサイティングな領域では、人間のスケッチをモデル化するためのディープラーニングアプローチを探求し、クリエイティブなアプリケーションに機会を与えている。
この章では、スケッチを消費し、生成するディープラーニング駆動の創造性支援ツールを開発するための3つの基本的なステップについて説明する。
論文 参考訳(メタデータ) (2021-11-19T00:57:43Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。