論文の概要: CoMotion: Concurrent Multi-person 3D Motion
- arxiv url: http://arxiv.org/abs/2504.12186v1
- Date: Wed, 16 Apr 2025 15:40:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 18:06:30.712701
- Title: CoMotion: Concurrent Multi-person 3D Motion
- Title(参考訳): CoMotion: 同時マルチパーソン3Dモーション
- Authors: Alejandro Newell, Peiyun Hu, Lahav Lipson, Stephan R. Richter, Vladlen Koltun,
- Abstract要約: 単眼カメラストリームから複数の人物の詳細な3Dポーズを検出し,追跡するためのアプローチを提案する。
私たちのモデルは、フレーム単位の強い検出と、フレームからフレームまでの人々の追跡のための学習されたポーズ更新の両方を実行します。
我々は、擬似ラベル付きアノテーションを利用して、多数の画像とビデオのデータセットをトレーニングし、3次元ポーズ推定精度で最先端のシステムにマッチするモデルを生成する。
- 参考スコア(独自算出の注目度): 88.27833466761234
- License:
- Abstract: We introduce an approach for detecting and tracking detailed 3D poses of multiple people from a single monocular camera stream. Our system maintains temporally coherent predictions in crowded scenes filled with difficult poses and occlusions. Our model performs both strong per-frame detection and a learned pose update to track people from frame to frame. Rather than match detections across time, poses are updated directly from a new input image, which enables online tracking through occlusion. We train on numerous image and video datasets leveraging pseudo-labeled annotations to produce a model that matches state-of-the-art systems in 3D pose estimation accuracy while being faster and more accurate in tracking multiple people through time. Code and weights are provided at https://github.com/apple/ml-comotion
- Abstract(参考訳): 単眼カメラストリームから複数の人物の詳細な3Dポーズを検出し,追跡するためのアプローチを提案する。
本システムは,難解なポーズやオクルージョンに満ちた混み合ったシーンにおいて,時間的コヒーレントな予測を継続する。
私たちのモデルは、フレーム単位の強い検出と、フレームからフレームまでの人々の追跡のための学習されたポーズ更新の両方を実行します。
時間にまたがる検出と一致するのではなく、新しい入力イメージから直接、ポーズが更新される。
我々は、擬似ラベル付きアノテーションを利用して、多数の画像やビデオのデータセットをトレーニングし、3Dで最先端のシステムにマッチするモデルを作成する。
コードとウェイトはhttps://github.com/apple/ml-comotionで提供されている。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - Tracking People by Predicting 3D Appearance, Location & Pose [78.97070307547283]
私たちはまず、1つのフレームから3Dまで、堅牢な方法で人々を持ち上げます。
人を追跡すると、時間とともに3Dの観察結果をトラックレット表現で収集する。
これらのモデルを用いて、トラックレットの将来状態を予測します。
論文 参考訳(メタデータ) (2021-12-08T18:57:15Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Cross-View Tracking for Multi-Human 3D Pose Estimation at over 100 FPS [13.191601826570786]
マルチキャリブレーションカメラビューから複数人の3Dポーズを推定する新しい手法を提案する。
異なるカメラ座標の2Dポーズを入力として取り、グローバル座標の正確な3Dポーズを目指しています。
カメラビューが12から28の大規模マルチヒューマンデータセットを提案する。
論文 参考訳(メタデータ) (2020-03-09T08:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。