論文の概要: RapidPoseTriangulation: Multi-view Multi-person Whole-body Human Pose Triangulation in a Millisecond
- arxiv url: http://arxiv.org/abs/2503.21692v1
- Date: Thu, 27 Mar 2025 16:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:22.845852
- Title: RapidPoseTriangulation: Multi-view Multi-person Whole-body Human Pose Triangulation in a Millisecond
- Title(参考訳): RapidPoseTriangulation: 1ミリ秒で多面体全球三角測量
- Authors: Daniel Bermuth, Alexander Poeppel, Wolfgang Reif,
- Abstract要約: 本研究は,高速三角測量速度と優れた一般化機能に着目し,多視点多人数ポーズ推定を改善するアルゴリズムを提案する。
アプローチは全身のポーズ推定にまで拡張され、表情から複数の個人と視点にわたる指の動きまでの詳細を捉えている。
- 参考スコア(独自算出の注目度): 45.085830389820956
- License:
- Abstract: The integration of multi-view imaging and pose estimation represents a significant advance in computer vision applications, offering new possibilities for understanding human movement and interactions. This work presents a new algorithm that improves multi-view multi-person pose estimation, focusing on fast triangulation speeds and good generalization capabilities. The approach extends to whole-body pose estimation, capturing details from facial expressions to finger movements across multiple individuals and viewpoints. Adaptability to different settings is demonstrated through strong performance across unseen datasets and configurations. To support further progress in this field, all of this work is publicly accessible.
- Abstract(参考訳): 多視点イメージングとポーズ推定の統合は、人間の動きと相互作用を理解するための新たな可能性を提供するコンピュータビジョンアプリケーションにおいて、大きな進歩を示している。
本研究は,高速三角測量速度と優れた一般化機能に着目し,多視点多人数ポーズ推定を改善するアルゴリズムを提案する。
アプローチは全身のポーズ推定にまで拡張され、表情から複数の個人と視点にわたる指の動きまでの詳細を捉えている。
異なる設定への適応性は、目に見えないデータセットと設定にまたがる強力なパフォーマンスによって示される。
この分野のさらなる進歩を支援するため、これらの研究はすべて一般に公開されている。
関連論文リスト
- SimpleDepthPose: Fast and Reliable Human Pose Estimation with RGBD-Images [45.085830389820956]
本稿では,深度情報を組み込んだ多視点多人数ポーズ推定アルゴリズムを提案する。
広範に評価した結果,提案アルゴリズムは未知のデータセットをうまく一般化するだけでなく,高速な実行性能を示すとともに,異なるキーポイントにも適応可能であることがわかった。
論文 参考訳(メタデータ) (2025-01-30T16:51:40Z) - VoxelKeypointFusion: Generalizable Multi-View Multi-Person Pose Estimation [45.085830389820956]
本研究では,多視点多人数ポーズ推定器のデータセットに対する一般化能力の評価を行う。
また、深度情報を利用した改良も検討している。
この新しいアプローチは、未知のデータセットだけでなく、異なるキーポイントにもうまく一般化できるため、最初のマルチパーソン全体の推定器が提示される。
論文 参考訳(メタデータ) (2024-10-24T13:28:40Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - Snipper: A Spatiotemporal Transformer for Simultaneous Multi-Person 3D
Pose Estimation Tracking and Forecasting on a Video Snippet [24.852728097115744]
RGBからの多人数ポーズ理解には、ポーズ推定、トラッキング、動き予測という3つの複雑なタスクが含まれる。
既存の作業の多くは、ひとつのタスクに集中するか、複数のタスクを別々に解決するためのマルチステージアプローチを採用するかのどちらかです。
Snipperは、複数の人物によるポーズ推定、追跡、動き予測を同時に行うための統合されたフレームワークである。
論文 参考訳(メタデータ) (2022-07-09T18:42:14Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Weakly-Supervised 3D Human Pose Learning via Multi-view Images in the
Wild [101.70320427145388]
本稿では、3Dアノテーションを必要としない弱教師付きアプローチを提案し、ラベルのないマルチビューデータから3Dポーズを推定する。
提案手法を2つの大規模データセット上で評価する。
論文 参考訳(メタデータ) (2020-03-17T08:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。