論文の概要: Beyond Domain Gap: Exploiting Subjectivity in Sketch-Based Person
Retrieval
- arxiv url: http://arxiv.org/abs/2309.08372v1
- Date: Fri, 15 Sep 2023 12:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:42:33.727452
- Title: Beyond Domain Gap: Exploiting Subjectivity in Sketch-Based Person
Retrieval
- Title(参考訳): beyond domain gap: スケッチに基づく人物検索における主観性の利用
- Authors: Kejun Lin and Zhixiang Wang and Zheng Wang and Yinqiang Zheng and
Shin'ichi Satoh
- Abstract要約: 人物再識別(re-ID)には、密集したカメラが必要である。
スケッチをスケッチ再識別(Sketch re-ID)として用いた従来研究による定義
マルチウィットネス記述による新しいデータセットのポーズをモデル化し,検討する。
4,763枚以上のスケッチと32,668枚の写真が含まれており、Sketch re-IDデータセットとしては最大である。
- 参考スコア(独自算出の注目度): 40.257842079152255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Person re-identification (re-ID) requires densely distributed cameras. In
practice, the person of interest may not be captured by cameras and, therefore,
needs to be retrieved using subjective information (e.g., sketches from
witnesses). Previous research defines this case using the sketch as sketch
re-identification (Sketch re-ID) and focuses on eliminating the domain gap.
Actually, subjectivity is another significant challenge. We model and
investigate it by posing a new dataset with multi-witness descriptions. It
features two aspects. 1) Large-scale. It contains over 4,763 sketches and
32,668 photos, making it the largest Sketch re-ID dataset. 2) Multi-perspective
and multi-style. Our dataset offers multiple sketches for each identity.
Witnesses' subjective cognition provides multiple perspectives on the same
individual, while different artists' drawing styles provide variation in sketch
styles. We further have two novel designs to alleviate the challenge of
subjectivity. 1) Fusing subjectivity. We propose a non-local (NL) fusion module
that gathers sketches from different witnesses for the same identity. 2)
Introducing objectivity. An AttrAlign module utilizes attributes as an implicit
mask to align cross-domain features. To push forward the advance of Sketch
re-ID, we set three benchmarks (large-scale, multi-style, cross-style).
Extensive experiments demonstrate our leading performance in these benchmarks.
Dataset and Codes are publicly available at:
https://github.com/Lin-Kayla/subjectivity-sketch-reid
- Abstract(参考訳): 人物識別(re-ID)には、密集したカメラが必要である。
実際には、興味のある人物はカメラで捉えられないため、主観的な情報(例えば目撃者からのスケッチ)を使って取り出す必要がある。
前回の研究では、スケッチをスケッチの再識別(sketch re-id)として定義し、ドメインギャップの排除に焦点を当てている。
実際、主観性もまた重要な課題です。
マルチウィットネス記述による新しいデータセットのポーズをモデル化し,検討する。
2つの側面がある。
1)大規模化。
4,763枚のスケッチと32,668枚の写真が含まれており、最大のスケッチ再識別データセットである。
2)マルチパースペクティブ,マルチスタイル。
私たちのデータセットは、アイデンティティ毎に複数のスケッチを提供します。
目撃者の主観的認知は同一個人に対して複数の視点を与え、異なるアーティストの描画スタイルはスケッチスタイルのバリエーションを提供する。
さらに,主観性の課題を緩和する2つの新しいデザインを考案した。
1)主観性の導入。
同一の同一性のために異なる目撃者からスケッチを収集する非局所(NL)融合モジュールを提案する。
2)客観性の導入。
attralignモジュールは属性を暗黙のマスクとして利用し、クロスドメインの機能を調整する。
Sketch re-IDの進歩を推し進めるため、3つのベンチマーク(大規模、マルチスタイル、クロススタイル)を設定しました。
大規模な実験は、これらのベンチマークで主要なパフォーマンスを示します。
DatasetとCodesは、https://github.com/Lin-Kayla/subjectivity-sketch-reidで公開されている。
関連論文リスト
- Freeview Sketching: View-Aware Fine-Grained Sketch-Based Image Retrieval [85.73149096516543]
微細スケッチベース画像検索(FG-SBIR)におけるスケッチ作成時の視点選択について検討する。
パイロットスタディでは、クエリスケッチがターゲットインスタンスと異なる場合、システムの苦労を強調している。
これを解決するために、ビューに依存しないタスクとビュー固有のタスクの両方をシームレスに収容するビューアウェアシステムを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:20:44Z) - SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - Fine-Tuned but Zero-Shot 3D Shape Sketch View Similarity and Retrieval [8.540349872620993]
ゼロショット設定では、スケッチが抽象的になるほど、誤った画像が一致する可能性が高くなることを示す。
我々の研究の重要な発見の1つは、ある種類の3次元形状を巧妙に微調整することで、他の形状のクラスの性能が向上することである。
論文 参考訳(メタデータ) (2023-06-14T14:40:50Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - DifferSketching: How Differently Do People Sketch 3D Objects? [78.44544977215918]
3Dオブジェクトの描画方法を理解するために,複数のスケッチデータセットが提案されている。
これらのデータセットは、しばしば小さなスケールで、オブジェクトやカテゴリの小さなセットをカバーする。
本研究では,空間的特徴と時間的特性の両面から,収集したデータをスケッチレベル,ストロークレベル,ピクセルレベルという3つのレベルで解析する。
論文 参考訳(メタデータ) (2022-09-19T06:52:18Z) - On Learning Semantic Representations for Million-Scale Free-Hand
Sketches [146.52892067335128]
百万のフリーハンドスケッチのための学習意味表現について研究する。
スケッチを表現するために,デュアルブランチCNNRNNネットワークアーキテクチャを提案する。
ハッシュ検索とゼロショット認識におけるスケッチ指向の意味表現の学習について検討する。
論文 参考訳(メタデータ) (2020-07-07T15:23:22Z) - SketchDesc: Learning Local Sketch Descriptors for Multi-view
Correspondence [68.63311821718416]
我々はマルチビュースケッチ対応の問題について検討し、同じオブジェクトの異なるビューを持つ複数のフリーハンドスケッチを入力として扱う。
異なる視点における対応する点の視覚的特徴は、非常に異なる可能性があるため、この問題は困難である。
我々は、深層学習アプローチを採用し、データから新しいローカルスケッチ記述子を学習する。
論文 参考訳(メタデータ) (2020-01-16T11:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。