論文の概要: Domain Adaptive Egocentric Person Re-identification
- arxiv url: http://arxiv.org/abs/2103.04870v1
- Date: Mon, 8 Mar 2021 16:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 21:42:06.416939
- Title: Domain Adaptive Egocentric Person Re-identification
- Title(参考訳): Domain Adaptive Egocentric Person Re-identification
- Authors: Ankit Choudhary and Deepak Mishra and Arnab Karmakar
- Abstract要約: ファーストパーソン(エゴセントリック)ビジョンにおける人物の再識別(再ID)は、かなり新しく未知の問題です。
ウェアラブルビデオ録画デバイスの増加に伴い、エゴセントリックなデータがすぐに利用可能になります。
大規模な構造化エゴセントリックデータセットは、人の再識別に大きく欠けている。
- 参考スコア(独自算出の注目度): 10.199631830749839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (re-ID) in first-person (egocentric) vision is a
fairly new and unexplored problem. With the increase of wearable video
recording devices, egocentric data becomes readily available, and person
re-identification has the potential to benefit greatly from this. However,
there is a significant lack of large scale structured egocentric datasets for
person re-identification, due to the poor video quality and lack of individuals
in most of the recorded content. Although a lot of research has been done in
person re-identification based on fixed surveillance cameras, these do not
directly benefit egocentric re-ID. Machine learning models trained on the
publicly available large scale re-ID datasets cannot be applied to egocentric
re-ID due to the dataset bias problem. The proposed algorithm makes use of
neural style transfer (NST) that incorporates a variant of Convolutional Neural
Network (CNN) to utilize the benefits of both fixed camera vision and
first-person vision. NST generates images having features from both egocentric
datasets and fixed camera datasets, that are fed through a VGG-16 network
trained on a fixed-camera dataset for feature extraction. These extracted
features are then used to re-identify individuals. The fixed camera dataset
Market-1501 and the first-person dataset EGO Re-ID are applied for this work
and the results are on par with the present re-identification models in the
egocentric domain.
- Abstract(参考訳): ファーストパーソン(エゴセントリック)ビジョンにおける人物の再識別(再ID)は、かなり新しく未知の問題です。
ウェアラブルビデオ録画デバイスの増加に伴い、エゴセントリックなデータがすぐに利用可能になり、人物の再識別はこれの恩恵を受ける可能性があります。
しかし、ビデオ品質の低さと記録されたコンテンツのほとんどにおいて個人が不足していることから、人物再同定のための大規模な構造化エゴセントリックデータセットが著しく欠落している。
多くの研究が固定監視カメラに基づいて人の再識別で行われてきましたが、これらはエゴセントリック再IDに直接利益をもたらしません。
公開されている大規模再IDデータセットで訓練された機械学習モデルは、データセットバイアス問題のために自我中心の再IDに適用することはできません。
このアルゴリズムは、Convolutional Neural Network(CNN)の変種を組み込んだニューラルスタイル転送(NST)を利用して、固定カメラビジョンとファーストパーソンビジョンの両方の利点を利用する。
NSTは、エゴセントリックデータセットと固定カメラデータセットの両方から特徴を持つ画像を生成し、特徴抽出のために固定カメラデータセットでトレーニングされたVGG-16ネットワークを介して供給される。
抽出された特徴は、個人を再識別するために使用される。
固定カメラデータセット Market-1501 と 1 人データセット EGO Re-ID を本研究に適用し,エゴセントリック領域における現在の再識別モデルと同等の結果を得た。
関連論文リスト
- Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - AG-ReID.v2: Bridging Aerial and Ground Views for Person Re-identification [39.58286453178339]
空中人物再識別(Re-ID)は、コンピュータビジョンにおいて固有の課題を提示する。
AG-ReID.v2は、空中および地上の混合シナリオにおいて、人物Re-ID用に特別に設計されたデータセットである。
このデータセットは、1,615人のユニークな個人の100,502枚の画像で構成され、それぞれに一致するIDと15のソフト属性ラベルが付加されている。
論文 参考訳(メタデータ) (2024-01-05T04:53:33Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Temporal Continuity Based Unsupervised Learning for Person
Re-Identification [15.195514083289801]
本稿では,非教師なしの集中型クラスタリング手法を提案し,その基盤となるre-id識別情報を段階的に学習し活用する。
我々は、時間連続性に基づく教師なし学習(TCUL)と呼ぶ。
特に、TCULは、無ラベル(ターゲット)データセットのセンターベースのクラスタリングを同時に行い、無関係なラベル付き(ソース)データセットで事前トレーニングされた畳み込みニューラルネットワーク(CNN)を微調整する。
カメラ内の画像の時間的連続性と、カメラ間の特徴マップの空間的類似性を利用して、再識別モデルをトレーニングするための信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-09-01T05:29:30Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。