論文の概要: Edge Augmentation for Large-Scale Sketch Recognition without Sketches
- arxiv url: http://arxiv.org/abs/2202.13164v1
- Date: Sat, 26 Feb 2022 15:37:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:41:46.714635
- Title: Edge Augmentation for Large-Scale Sketch Recognition without Sketches
- Title(参考訳): スケッチのない大規模スケッチ認識のためのエッジ拡張
- Authors: Nikos Efthymiadis, Giorgos Tolias, Ondrej Chum
- Abstract要約: この作業は、スケッチ分類タスクを多数のカテゴリにスケールアップする作業に対処する。
我々は、手軽に取得できる自然画像のラベル付きコレクションを活用することで、スケッチデータのトレーニングが欠如していることを克服する。
スケールアップの能力は、CNNベースのスケッチ認識をトレーニングすることで実証される。
- 参考スコア(独自算出の注目度): 30.552168294716292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses scaling up the sketch classification task into a large
number of categories. Collecting sketches for training is a slow and tedious
process that has so far precluded any attempts to large-scale sketch
recognition. We overcome the lack of training sketch data by exploiting labeled
collections of natural images that are easier to obtain. To bridge the domain
gap we present a novel augmentation technique that is tailored to the task of
learning sketch recognition from a training set of natural images.
Randomization is introduced in the parameters of edge detection and edge
selection. Natural images are translated to a pseudo-novel domain called
"randomized Binary Thin Edges" (rBTE), which is used as a training domain
instead of natural images. The ability to scale up is demonstrated by training
CNN-based sketch recognition of more than 2.5 times larger number of categories
than used previously. For this purpose, a dataset of natural images from 874
categories is constructed by combining a number of popular computer vision
datasets. The categories are selected to be suitable for sketch recognition. To
estimate the performance, a subset of 393 categories with sketches is also
collected.
- Abstract(参考訳): この作業は、スケッチ分類タスクを多数のカテゴリにスケールアップする作業に対処する。
トレーニング用のスケッチの収集は遅くて面倒なプロセスであり、大規模なスケッチ認識の試みを妨げてきた。
我々は、手軽に取得できる自然画像のラベル付きコレクションを活用することで、スケッチデータのトレーニングが欠如していることを克服する。
ドメインギャップを埋めるために,自然画像のトレーニングセットからスケッチ認識を学習するタスクに合わせて,新たな拡張手法を提案する。
エッジ検出とエッジ選択のパラメータにランダム化が導入される。
自然画像は"randomized binary thin edges"(rbte)と呼ばれる擬似ノイズドメインに変換され、自然画像の代わりにトレーニングドメインとして使用される。
スケールアップ能力は、cnnベースのスケッチ認識を、従来よりも2.5倍以上のカテゴリでトレーニングすることで実証される。
この目的のために、一般的なコンピュータビジョンデータセットを組み合わせて、874カテゴリの自然画像のデータセットを構築した。
スケッチ認識に適したカテゴリが選択される。
性能を推定するために、スケッチを含む393のカテゴリのサブセットも収集する。
関連論文リスト
- Co-Segmentation without any Pixel-level Supervision with Application to Large-Scale Sketch Classification [3.3104978705632777]
画像の集合における共通物体の画素レベルの局所化という,オブジェクトの分離のための新しい手法を提案する。
この方法は、同じレベルの監督で訓練された方法のうち、最先端のパフォーマンスを達成する。
大規模スケッチ認識の課題において,提案手法の利点をさらに示す。
論文 参考訳(メタデータ) (2024-10-17T14:16:45Z) - Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - Adapt and Align to Improve Zero-Shot Sketch-Based Image Retrieval [85.39613457282107]
スケッチに基づく画像検索のクロスドメイン性は困難である。
重要な課題に対処する効果的なAdaptとAlignのアプローチを提案する。
ゼロショットシナリオにおける画像テキスト基盤モデル(例えばCLIP)の最近の進歩に触発されて、学習したイメージの埋め込みを、より意味的なテキスト埋め込みと明確に整合させ、見知らぬクラスから見つからないクラスへの所望の知識伝達を実現する。
論文 参考訳(メタデータ) (2023-05-09T03:10:15Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Three-Stream Joint Network for Zero-Shot Sketch-Based Image Retrieval [15.191262439963221]
ZS-SBIR(Zero-Shot Sketch-based Image Retrieval)は、スケッチと自然画像の間に大きな領域ギャップがあるため、難しい課題である。
本稿では,ZS-SBIRタスクのための3ストリーム共同学習ネットワーク(JOIN)を提案する。
論文 参考訳(メタデータ) (2022-04-12T09:52:17Z) - Domain-Smoothing Network for Zero-Shot Sketch-Based Image Retrieval [66.37346493506737]
Zero-Shot Sketch-Based Image Retrieval (ZS-SBIR) は、新しいクロスモーダル検索タスクである。
ZS-SBIRのための新しいドメイン・スムーシング・ネットワーク(DSN)を提案する。
我々のアプローチは、SketchyとTU-Berlinの両方のデータセットで最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-22T14:58:08Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image
Retrieval [203.2520862597357]
きめ細かいスケッチベースの画像検索(FG-SBIR)は、ユーザのクエリのスケッチから特定の写真インスタンスを検索する問題に対処する。
これらの課題に対処するため、従来のFG-SBIRフレームワークを再構築する。
ユーザが絵を描き始めるとすぐに検索を開始できるオンザフライ設計を提案する。
論文 参考訳(メタデータ) (2020-02-24T15:36:02Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。