論文の概要: MEVID: Multi-view Extended Videos with Identities for Video Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2211.04656v1
- Date: Wed, 9 Nov 2022 03:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:56:44.136767
- Title: MEVID: Multi-view Extended Videos with Identities for Video Person
Re-Identification
- Title(参考訳): MEVID: ビデオパーソン再識別のためのアイデンティティ付きマルチビュー拡張ビデオ
- Authors: Daniel Davila, Dawei Du, Bryon Lewis, Christopher Funk, Joseph Van
Pelt, Roderick Collins, Kellie Corona, Matt Brown, Scott McCloskey, Anthony
Hoogs, Brian Clipp
- Abstract要約: 本稿では,大規模ビデオパーソン再識別(ReID)のためのMulti-view Extended Videos with Identities(MEVID)データセットを提案する。
我々は,約590フレームのトラックレット8,092枚から採取した598枚の衣装を身に着けている158人のユニークな人物の身元をラベル付けした。
MEVAビデオデータセットをベースとして、人口統計学的にアメリカ大陸にバランスのとれたデータを継承する。
- 参考スコア(独自算出の注目度): 17.72434646703505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present the Multi-view Extended Videos with Identities
(MEVID) dataset for large-scale, video person re-identification (ReID) in the
wild. To our knowledge, MEVID represents the most-varied video person ReID
dataset, spanning an extensive indoor and outdoor environment across nine
unique dates in a 73-day window, various camera viewpoints, and entity clothing
changes. Specifically, we label the identities of 158 unique people wearing 598
outfits taken from 8, 092 tracklets, average length of about 590 frames, seen
in 33 camera views from the very large-scale MEVA person activities dataset.
While other datasets have more unique identities, MEVID emphasizes a richer set
of information about each individual, such as: 4 outfits/identity vs. 2
outfits/identity in CCVID, 33 viewpoints across 17 locations vs. 6 in 5
simulated locations for MTA, and 10 million frames vs. 3 million for LS-VID.
Being based on the MEVA video dataset, we also inherit data that is
intentionally demographically balanced to the continental United States. To
accelerate the annotation process, we developed a semi-automatic annotation
framework and GUI that combines state-of-the-art real-time models for object
detection, pose estimation, person ReID, and multi-object tracking. We evaluate
several state-of-the-art methods on MEVID challenge problems and
comprehensively quantify their robustness in terms of changes of outfit, scale,
and background location. Our quantitative analysis on the realistic, unique
aspects of MEVID shows that there are significant remaining challenges in video
person ReID and indicates important directions for future research.
- Abstract(参考訳): 本稿では,大規模ビデオパーソン再識別(ReID)のためのMulti-view Extended Videos with Identities(MEVID)データセットを提案する。
私たちの知る限り、MEVIDは最も有望なビデオ人物ReIDデータセットであり、73日間の窓で9つのユニークな日付の屋内および屋外環境、様々なカメラ視点、そして実体的な衣服の変化にまたがる。
具体的には,大規模 meva パーソン・アクティビティ・データセット の 33 台のカメラ・ビュー で見た,8,092 個のトラックレット,約 590 フレームの平均長の 598 個の衣装を身に着けた 158 人の身元を分類した。
他のデータセットには、よりユニークなアイデンティティがあるが、MEVIDでは、CCVIDの4つの服/アイデンティティ対2の服/アイデンティティ、MTAの5つのシミュレーションされたロケーションの6つに対して33の視点、LS-VIDの1000万フレーム対300万といった、個々の情報の豊富なセットを強調している。
MEVAビデオデータセットをベースとして、人口統計学的にアメリカ大陸にバランスのとれたデータを継承する。
アノテーション処理を高速化するために,オブジェクト検出,ポーズ推定,人物ReID,多対象追跡のための最先端のリアルタイムモデルを組み合わせた半自動アノテーションフレームワークとGUIを開発した。
我々は,MEVID問題に対するいくつかの最先端手法を評価し,その堅牢性を,衣装,規模,背景位置の変化の観点から総合的に定量化する。
MEVIDの現実的でユニークな側面を定量的に分析したところ、ビデオパーソンのReIDには大きな課題が残っており、今後の研究にとって重要な方向性を示している。
関連論文リスト
- Multimodal Group Emotion Recognition In-the-wild Using Privacy-Compliant
Features [0.0]
グループレベルの感情認識は、社会ロボティクス、会話エージェント、e-coaching、学習分析など、多くの分野で有用である。
本稿では,EmotiW Challenge 2023の中で,プライバシに適合したグループレベルの感情認識について検討する。
論文 参考訳(メタデータ) (2023-12-06T08:58:11Z) - Replay: Multi-modal Multi-view Acted Videos for Casual Holography [76.49914880351167]
Replayは、社会的に対話する人間のマルチビュー、マルチモーダルビデオのコレクションである。
全体として、データセットには4000分以上の映像と700万のタイムスタンプ付き高解像度フレームが含まれている。
Replayデータセットには、新規ビュー合成、3D再構成、新規ビュー音響合成、人体と顔の分析、生成モデルの訓練など、多くの潜在的な応用がある。
論文 参考訳(メタデータ) (2023-07-22T12:24:07Z) - Human-Object Interaction Prediction in Videos through Gaze Following [9.61701724661823]
我々は、現在のHOIを検出し、将来のHOIをビデオで予測するためのフレームワークを設計する。
我々は、人間がオブジェクトと対話する前にしばしば固定するので、人間の情報を活用することを提案する。
我々のモデルは、日々の生活を捉えたビデオを含むVidHOIデータセットで訓練され、検証されている。
論文 参考訳(メタデータ) (2023-06-06T11:36:14Z) - Seq-Masks: Bridging the gap between appearance and gait modeling for
video-based person re-identification [10.490428828061292]
イデオをベースとした人物識別(Re-ID)は、不随意監視カメラが捉えた映像の人物像をマッチングすることを目的としている。
従来のビデオベースのRe-ID手法では、外観情報の探索に重点を置いており、照明の変化、シーンノイズ、カメラパラメータ、特に衣服やキャリーのバリエーションに対して脆弱である。
映像中のシークエンスマスク(SeqMask)を利用して、外観情報と歩行モデリングを密接な方法で統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-10T16:00:20Z) - Ego4D: Around the World in 3,000 Hours of Egocentric Video [276.1326075259486]
Ego4Dは大規模なビデオデータセットとベンチマークスイートである。
世界中の74か国と9か国から、855人のユニークなカメラ着用者が捉えた数百のシナリオを、毎日3,025時間の動画で見ることができる。
ビデオにはオーディオ、環境の3Dメッシュ、視線、ステレオ、および/または複数のエゴセントリックカメラからの同期ビデオが添付されている。
論文 参考訳(メタデータ) (2021-10-13T22:19:32Z) - APES: Audiovisual Person Search in Untrimmed Video [87.4124877066541]
音声人物探索データセット(APES)について述べる。
APESには36時間のビデオにラベル付けされた1,9K以上のIDが含まれている。
APESの重要な特徴は、顔と同一アイデンティティの音声セグメントをリンクする密集した時間アノテーションを含むことである。
論文 参考訳(メタデータ) (2021-06-03T08:16:42Z) - Long-term Person Re-identification: A Benchmark [57.97182942537195]
現実の世界では、場所、時間、日付、季節、天気、イベントによって異なる服装をすることが多い。
この研究は、大きくて現実的な人物の再識別ベンチマークにタイムリーに貢献する。
1,1K人の身元から171Kの箱からなり、12ヶ月にわたって収集・構築されている。
論文 参考訳(メタデータ) (2021-05-31T03:35:00Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Surpassing Real-World Source Training Data: Random 3D Characters for
Generalizable Person Re-Identification [109.68210001788506]
本研究では,大規模人物再識別データセットを,実際の監視に類似したセットアップに従って自動生成することを提案する。
私たちはUnity3Dを使って様々な仮想環境をシミュレートし、実際の監視システムに似たカメラネットワークをカスタマイズした。
その結果、8000のアイデンティティを持つ1,801,816人の人物画像を持つRandPersonという仮想データセットが得られた。
論文 参考訳(メタデータ) (2020-06-23T05:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。