論文の概要: Copy and Paste method based on Pose for Re-identification
- arxiv url: http://arxiv.org/abs/2107.10479v2
- Date: Fri, 23 Jul 2021 15:47:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 11:01:18.574143
- Title: Copy and Paste method based on Pose for Re-identification
- Title(参考訳): 再同定のためのポーズに基づくコピー・ペースト法
- Authors: Cheng Yang
- Abstract要約: 本稿では、視点、背景、ポーズ(歩行、サイクリング)が異なる再識別の新しいシナリオについて検討する。
そこで本研究では,Pose(CPP)をベースとしたCopy and Paste法という,新たなシナリオにおける画像生成手法を提案する。
CPPは、新しいシナリオにおけるReIDタスクに適している。
- 参考スコア(独自算出の注目度): 7.995803205396033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Re-identification (ReID) aims at matching objects in surveillance cameras
with different viewpoints. It's developing very fast, but there is no
processing method for the ReID task in multiple scenarios at this stage.
However, this dose happen all the time in real life, such as the security
scenarios. This paper explores a new scenario of Re-identification, which
differs in perspective, background, and pose(walking or cycling). Obviously,
ordinary ReID processing methods cannot handle this scenario well. As we all
know, the best way to deal with that it is to introduce image datasets in this
scanario, But this one is very expensive.
To solve this problem, this paper proposes a simple and effective way to
generate images in some new scenario, which is named Copy and Paste method
based on Pose(CPP). The CPP is a method based on key point detection, using
copy and paste, to composite a new semantic image dataset in two different
semantic image datasets. Such as, we can use pedestrians and bicycles to
generate some images that shows the same person rides on different bicycles.
The CPP is suitable for ReID tasks in new scenarios and it outperforms
state-of-the-art on the original datasets in original ReID tasks. Specifically,
it can also have better generalization performance for third-party public
datasets. Code and Datasets which composited by the CPP will be available in
the future.
- Abstract(参考訳): ReID(Re-identification)は、異なる視点で監視カメラ内のオブジェクトをマッチングすることを目的としている。
非常に高速に開発されていますが、この段階では複数のシナリオでReIDタスクの処理方法はありません。
しかし、この用量は、セキュリティシナリオなど、実生活において常に発生する。
本稿では,視点,背景,ポーズ(歩行やサイクリング)が異なる再同定の新しいシナリオについて検討する。
もちろん、通常のReID処理方法は、このシナリオをうまく扱えない。
誰もが知っているように、このスキャナリオに画像データセットを導入することが最善の方法ですが、これは非常に高価です。
そこで本稿では,新たなシナリオにおいて,ポーズ(cpp)に基づくコピー&ペースト法という,簡易かつ効果的な画像生成手法を提案する。
CPPは、2つの異なるセマンティックイメージデータセットに新しいセマンティックイメージデータセットを合成するために、コピーとペーストを使用したキーポイント検出に基づく手法である。
例えば、歩行者や自転車を使って、同じ人が異なる自転車に乗っていることを示す画像を生成することができます。
cppは新しいシナリオでのreidタスクに適しており、オリジナルのreidタスクのオリジナルのデータセットの最先端を上回っている。
具体的には、サードパーティの公開データセットの一般化パフォーマンスも向上する。
CPPで合成されたコードとデータセットは将来的に利用可能になる。
関連論文リスト
- Towards Realistic Incremental Scenario in Class Incremental Semantic Segmentation [24.303188123990186]
重なり合うことで、実際の漸進的な学習シナリオとはかけ離れた、異なるピクセルラベルで、同じイメージが将来のタスクに再び現れることを指摘しています。
メモリからデータを取得する際のコード実装の問題を特定し,対処する。
メモリ上でのタスクのバックグラウンドシフトを処理するシンプルなメモリベースベースラインであるMiB-AugMを導入する。
論文 参考訳(メタデータ) (2024-05-16T07:25:15Z) - EigenPlaces: Training Viewpoint Robust Models for Visual Place
Recognition [22.98403243270106]
EigenPlacesと呼ばれる新しい手法を提案し、異なる視点からの画像に基づいてニューラルネットワークをトレーニングする。
基本的な考え方は、トレーニングデータをクラスタ化して、同じ関心点の異なるビューでモデルを明示的に提示することだ。
文献における最も包括的なデータセットのセットに関する実験を行い、EigenPlacesは、ほとんどのデータセットにおいて、過去の最先端の技術を上回ることができることを示した。
論文 参考訳(メタデータ) (2023-08-21T16:27:31Z) - Are Local Features All You Need for Cross-Domain Visual Place
Recognition? [13.519413608607781]
視覚的位置認識は、視覚的手がかりのみに基づいて画像の座標を予測することを目的としている。
近年の進歩にもかかわらず、クエリがかなり異なる分布から来るのと同じ場所を認識することは、依然として最先端の検索手法にとって大きなハードルである。
本研究では,空間的検証に基づく手法がこれらの課題に対処できるかどうかを考察する。
論文 参考訳(メタデータ) (2023-04-12T14:46:57Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - TAGPerson: A Target-Aware Generation Pipeline for Person
Re-identification [65.60874203262375]
本稿では,TAGPerson と呼ばれる合成人物画像を生成する新しいターゲット・アウェア・ジェネレーション・パイプラインを提案する。
具体的には、パラメータが制御可能で、ターゲットのシーンに応じて調整できるパラメータ化レンダリング手法である。
本実験では,MSMT17の一般合成画像,すなわちランク1精度の47.5%対40.9%に対して,目標認識合成画像よりもはるかに高い性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-28T17:56:19Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Benchmarking Image Retrieval for Visual Localization [41.38065116577011]
視覚的ローカライゼーションは、自律運転や拡張現実といったテクノロジーの中核的なコンポーネントである。
これらのタスクには最先端の画像検索アルゴリズムを用いるのが一般的である。
本稿では,複数の視覚的ローカライゼーションタスクにおける画像検索の役割を理解することに焦点を当てる。
論文 参考訳(メタデータ) (2020-11-24T07:59:52Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - A Fast Fully Octave Convolutional Neural Network for Document Image
Segmentation [1.8426817621478804]
ID画像中の文書のエッジやテキスト領域を検出するためのU-Netに基づく手法について検討する。
本研究では,オクタベ・コンボリューションに基づくモデル最適化手法を提案する。
その結果,提案手法はセグメンテーションタスクの文書化やポータブル化に有効であることがわかった。
論文 参考訳(メタデータ) (2020-04-03T00:57:33Z) - Same Features, Different Day: Weakly Supervised Feature Learning for
Seasonal Invariance [65.94499390875046]
「夜も昼も」は2つのことが全く違うことを暗示するためによく使われる表現である。
本研究の目的は、局所化、スパースマッチング、画像検索に使用できる高密度特徴表現を提供することである。
Deja-Vuは、画素単位の地上真実データを必要としない季節不変の特徴を学習するための弱い教師付きアプローチである。
論文 参考訳(メタデータ) (2020-03-30T12:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。