論文の概要: Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image
Retrieval
- arxiv url: http://arxiv.org/abs/2002.10310v4
- Date: Mon, 11 May 2020 18:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:16:01.339374
- Title: Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image
Retrieval
- Title(参考訳): sketch less for more: オンザフライのきめ細かなスケッチベースの画像検索
- Authors: Ayan Kumar Bhunia, Yongxin Yang, Timothy M. Hospedales, Tao Xiang,
Yi-Zhe Song
- Abstract要約: きめ細かいスケッチベースの画像検索(FG-SBIR)は、ユーザのクエリのスケッチから特定の写真インスタンスを検索する問題に対処する。
これらの課題に対処するため、従来のFG-SBIRフレームワークを再構築する。
ユーザが絵を描き始めるとすぐに検索を開始できるオンザフライ設計を提案する。
- 参考スコア(独自算出の注目度): 203.2520862597357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained sketch-based image retrieval (FG-SBIR) addresses the problem of
retrieving a particular photo instance given a user's query sketch. Its
widespread applicability is however hindered by the fact that drawing a sketch
takes time, and most people struggle to draw a complete and faithful sketch. In
this paper, we reformulate the conventional FG-SBIR framework to tackle these
challenges, with the ultimate goal of retrieving the target photo with the
least number of strokes possible. We further propose an on-the-fly design that
starts retrieving as soon as the user starts drawing. To accomplish this, we
devise a reinforcement learning-based cross-modal retrieval framework that
directly optimizes rank of the ground-truth photo over a complete sketch
drawing episode. Additionally, we introduce a novel reward scheme that
circumvents the problems related to irrelevant sketch strokes, and thus
provides us with a more consistent rank list during the retrieval. We achieve
superior early-retrieval efficiency over state-of-the-art methods and
alternative baselines on two publicly available fine-grained sketch retrieval
datasets.
- Abstract(参考訳): きめ細かいスケッチベースの画像検索(fg-sbir)は、ユーザーの問合せスケッチから特定の写真インスタンスを取得する問題に対処する。
しかし、その適用性はスケッチを描くのに時間がかかり、ほとんどの人が完全で忠実なスケッチを描くのに苦労しているという事実によって妨げられている。
本稿では,これらの課題に取り組むために従来のfg-sbirフレームワークを再構成し,最小のストローク数でターゲット写真を取得することを最終的な目標とした。
さらに,ユーザが描画を開始するとすぐに検索を開始するオンザフライデザインを提案する。
そこで本研究では,全スケッチ描画エピソードにおいて,地軸写真のランクを直接最適化する強化学習に基づくクロスモーダル検索フレームワークを提案する。
さらに,無関係なスケッチストロークに関連する問題を回避し,検索中により一貫したランクリストを提供する新たな報奨スキームを導入する。
2つの公開きめ細かなスケッチ検索データセットにおいて,最先端手法や代替ベースラインよりも優れた早期リトライ効率を実現する。
関連論文リスト
- Active Learning for Fine-Grained Sketch-Based Image Retrieval [1.994307489466967]
フリーハンドスケッチによる写真検索能力は、きめ細かなスケッチベース画像検索(FG-SBIR)の可能性を強調している。
本稿では,写真スケッチ作成の必要性を大幅に軽減する,新しい能動的学習サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T20:07:14Z) - Sketch Less Face Image Retrieval: A New Challenge [9.703239229149261]
完全な顔のスケッチを描くには、しばしばスキルと時間が必要です。
そこで本研究では,各ストロークで顔画像検索を行い,ストロークの少ない部分スケッチを用いて対象の顔写真を検索することを目的とした,スケッチ少ない顔画像検索(SLFIR)を提案する。
実験は、新しいフレームワークが部分的またはプール描画スケッチを使用して検索を終了できることを示している。
論文 参考訳(メタデータ) (2023-02-11T02:36:00Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - FS-COCO: Towards Understanding of Freehand Sketches of Common Objects in
Context [112.07988211268612]
フリーハンドシーンスケッチの最初のデータセットであるFS-COCOを用いてスケッチ研究を進めた。
本データセットは,100名の非専門家による1点あたりの時空間情報付きフリーハンドシーンベクトルスケッチからなる。
フリーハンドシーンのスケッチやスケッチのキャプションからきめ細かい画像検索の問題が初めて研究された。
論文 参考訳(メタデータ) (2022-03-04T03:00:51Z) - Multi-granularity Association Learning Framework for on-the-fly
Fine-Grained Sketch-based Image Retrieval [7.797006835701767]
きめ細かいスケッチベース画像検索(FG-SBIR)は、与えられたクエリスケッチで特定の写真を取得する問題に対処する。
本研究では,最小のストローク数で対象写真を検索することを目的とした(不完全スケッチ)。
非完全スケッチの埋め込み空間をさらに最適化する多粒性関連学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-13T14:38:50Z) - Deep Reinforced Attention Regression for Partial Sketch Based Image
Retrieval [6.7667046211131066]
Fine-Grained Sketch-Based Image Retrieval (FG-SBIR)は、クエリスケッチを与えられた大きなギャラリーから特定の画像を見つけることを目的としている。
既存のアプローチは、スケッチで不要なストロークのような外部ノイズに敏感でありながら、依然として低い精度で悩まされている。
本稿では,一意に設計された深部強化学習モデルを用いて,部分スケッチトレーニングと注意領域選択に対処する2段階探索を行うフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-21T23:12:51Z) - Domain-Smoothing Network for Zero-Shot Sketch-Based Image Retrieval [66.37346493506737]
Zero-Shot Sketch-Based Image Retrieval (ZS-SBIR) は、新しいクロスモーダル検索タスクである。
ZS-SBIRのための新しいドメイン・スムーシング・ネットワーク(DSN)を提案する。
我々のアプローチは、SketchyとTU-Berlinの両方のデータセットで最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-22T14:58:08Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。