論文の概要: A Simple Baseline for Pose Tracking in Videos of Crowded Scenes
- arxiv url: http://arxiv.org/abs/2010.10007v2
- Date: Wed, 21 Oct 2020 03:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:33:05.085328
- Title: A Simple Baseline for Pose Tracking in Videos of Crowded Scenes
- Title(参考訳): 群衆シーンの映像におけるポーズ追跡のための簡易ベースライン
- Authors: Li Yuan, Shuning Chang, Ziyuan Huang, Yichen Zhou, Yunpeng Chen,
Xuecheng Nie, Francis E.H. Tay, Jiashi Feng, Shuicheng Yan
- Abstract要約: 混み合った複雑な環境での人間のポーズを追跡する方法は、十分に対処されていない。
検出モデルにより生成された各境界ボックスに人体IDを割り当てるために,多目的追跡手法を用いる。
最終的に、ビデオ中の時間情報を利用して、最終的なポーズ追跡結果を生成するために光学フローが使用される。
- 参考スコア(独自算出の注目度): 130.84731947842664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our solution to ACM MM challenge: Large-scale
Human-centric Video Analysis in Complex Events\cite{lin2020human};
specifically, here we focus on Track3: Crowd Pose Tracking in Complex Events.
Remarkable progress has been made in multi-pose training in recent years.
However, how to track the human pose in crowded and complex environments has
not been well addressed. We formulate the problem as several subproblems to be
solved. First, we use a multi-object tracking method to assign human ID to each
bounding box generated by the detection model. After that, a pose is generated
to each bounding box with ID. At last, optical flow is used to take advantage
of the temporal information in the videos and generate the final pose tracking
result.
- Abstract(参考訳): 本稿では,ACM MMの課題に対する解決策について述べる。 複合イベントにおける大規模人間中心ビデオ分析。
近年,多地点訓練において著しい進歩がみられた。
しかし、混み合った複雑な環境で人間のポーズを追跡する方法は、うまく解決されていない。
問題を解くためのいくつかのサブプロブレムとして定式化する。
まず,検出モデルにより生成された各境界ボックスに人体IDを割り当てる多目的追跡手法を提案する。
その後、各バウンディングボックスにIDでポーズが生成される。
最終的に、ビデオ中の時間情報を利用して、最終的なポーズ追跡結果を生成するために光学フローが使用される。
関連論文リスト
- Reconstructing Close Human Interactions from Multiple Views [38.924950289788804]
本稿では,複数のキャリブレーションカメラで捉えた密接なインタラクションを行う複数の個人のポーズを再構築する上での課題について述べる。
これらの課題に対処する新しいシステムを導入する。
本システムは,学習に基づくポーズ推定コンポーネントと,それに対応するトレーニングと推論戦略を統合する。
論文 参考訳(メタデータ) (2024-01-29T14:08:02Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Iterative Greedy Matching for 3D Human Pose Tracking from Multiple Views [22.86745487695168]
キャリブレーションカメラのセットから複数の人の3D人間のポーズを推定するアプローチを提案する。
提案手法は,リアルタイム2次元多人数ポーズ推定システムを構築し,複数視点間の連想問題を柔軟に解決する。
論文 参考訳(メタデータ) (2021-01-24T16:28:10Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Toward Accurate Person-level Action Recognition in Videos of Crowded
Scenes [131.9067467127761]
我々は、シーンの情報を完全に活用し、新しいデータを集めることで、アクション認識を改善することに集中する。
具体的には、各フレームの空間的位置を検出するために、強い人間の検出器を採用する。
そして、行動認識モデルを適用して、HIEデータセットとインターネットから多様なシーンを持つ新しいデータの両方でビデオフレームから時間情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-16T13:08:50Z) - Human in Events: A Large-Scale Benchmark for Human-centric Video
Analysis in Complex Events [106.19047816743988]
我々は、Human-in-Events(Human-in-Events)またはHiEve(HiEve)という、包括的なアノテーションを備えた新しい大規模データセットを提案する。
これには、複雑なイベントにおけるアクションインスタンスの最大数(>56k)と、長時間続くトラジェクトリの最大数(>1M)が含まれている。
多様なアノテーションに基づいて、アクション認識とポーズ推定のための2つのシンプルなベースラインを提示する。
論文 参考訳(メタデータ) (2020-05-09T18:24:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。