論文の概要: Deep Self-Supervised Representation Learning for Free-Hand Sketch
- arxiv url: http://arxiv.org/abs/2002.00867v1
- Date: Mon, 3 Feb 2020 16:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:04:55.841141
- Title: Deep Self-Supervised Representation Learning for Free-Hand Sketch
- Title(参考訳): 自由ハンドスケッチのための自己教師付き表現学習
- Authors: Peng Xu, Zeyu Song, Qiyue Yin, Yi-Zhe Song, Liang Wang
- Abstract要約: フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 51.101565480583304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we tackle for the first time, the problem of self-supervised
representation learning for free-hand sketches. This importantly addresses a
common problem faced by the sketch community -- that annotated supervisory data
are difficult to obtain. This problem is very challenging in that sketches are
highly abstract and subject to different drawing styles, making existing
solutions tailored for photos unsuitable. Key for the success of our
self-supervised learning paradigm lies with our sketch-specific designs: (i) we
propose a set of pretext tasks specifically designed for sketches that mimic
different drawing styles, and (ii) we further exploit the use of a textual
convolution network (TCN) in a dual-branch architecture for sketch feature
learning, as means to accommodate the sequential stroke nature of sketches. We
demonstrate the superiority of our sketch-specific designs through two
sketch-related applications (retrieval and recognition) on a million-scale
sketch dataset, and show that the proposed approach outperforms the
state-of-the-art unsupervised representation learning methods, and
significantly narrows the performance gap between with supervised
representation learning.
- Abstract(参考訳): 本稿では,自由ハンドスケッチに対する自己教師あり表現学習の課題として,初めて取り組んだ。
これは重要なことで、sketchコミュニティが直面する共通の問題 -- 注釈付き監督データを得るのが困難である -- に対処している。
この問題は、スケッチが非常に抽象的で、異なる描画スタイルの対象となるため、写真に適した既存のソリューションが適さないという点で非常に難しい。
自己教師型学習パラダイムの成功の鍵は、スケッチ特有の設計にある。
(i)異なる描画スタイルを模倣するスケッチ用に特別に設計されたプレテキストタスクのセットを提案する。
(ii)スケッチの逐次ストローク性に対応するために,スケッチ特徴学習のためのデュアルブランチアーキテクチャにおけるテキスト畳み込みネットワーク(tcn)の使用をさらに活用する。
百万規模のスケッチデータセット上での2つのスケッチ関連アプリケーション(検索と認識)によるスケッチ特化設計の優位性を実証し、提案手法が最先端の教師なし表現学習法より優れており、教師付き表現学習による性能ギャップを著しく狭めていることを示す。
関連論文リスト
- CustomSketching: Sketch Concept Extraction for Sketch-based Image
Synthesis and Editing [21.12815542848095]
大規模なテキスト・ツー・イメージ(T2I)モデルのパーソナライズ技術により、ユーザーは参照画像から新しい概念を組み込むことができる。
既存の手法は主にテキスト記述に依存しており、カスタマイズされた画像の制御が制限されている。
スケッチを直感的で汎用的な表現として識別し,このような制御を容易にする。
論文 参考訳(メタデータ) (2024-02-27T15:52:59Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - FS-COCO: Towards Understanding of Freehand Sketches of Common Objects in
Context [112.07988211268612]
フリーハンドシーンスケッチの最初のデータセットであるFS-COCOを用いてスケッチ研究を進めた。
本データセットは,100名の非専門家による1点あたりの時空間情報付きフリーハンドシーンベクトルスケッチからなる。
フリーハンドシーンのスケッチやスケッチのキャプションからきめ細かい画像検索の問題が初めて研究された。
論文 参考訳(メタデータ) (2022-03-04T03:00:51Z) - Multi-granularity Association Learning Framework for on-the-fly
Fine-Grained Sketch-based Image Retrieval [7.797006835701767]
きめ細かいスケッチベース画像検索(FG-SBIR)は、与えられたクエリスケッチで特定の写真を取得する問題に対処する。
本研究では,最小のストローク数で対象写真を検索することを目的とした(不完全スケッチ)。
非完全スケッチの埋め込み空間をさらに最適化する多粒性関連学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-13T14:38:50Z) - On Learning Semantic Representations for Million-Scale Free-Hand
Sketches [146.52892067335128]
百万のフリーハンドスケッチのための学習意味表現について研究する。
スケッチを表現するために,デュアルブランチCNNRNNネットワークアーキテクチャを提案する。
ハッシュ検索とゼロショット認識におけるスケッチ指向の意味表現の学習について検討する。
論文 参考訳(メタデータ) (2020-07-07T15:23:22Z) - SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence [68.63311821718416]
我々はマルチビュースケッチ対応の問題について検討し、同じオブジェクトの異なるビューを持つ複数のフリーハンドスケッチを入力として扱う。
異なる視点における対応する点の視覚的特徴は、非常に異なる可能性があるため、この問題は困難である。
我々は、深層学習アプローチを採用し、データから新しいローカルスケッチ記述子を学習する。
論文 参考訳(メタデータ) (2020-01-16T11:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。