論文の概要: Real-time, low-cost multi-person 3D pose estimation
- arxiv url: http://arxiv.org/abs/2110.11414v1
- Date: Mon, 11 Oct 2021 12:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 09:26:41.572586
- Title: Real-time, low-cost multi-person 3D pose estimation
- Title(参考訳): リアルタイム・低コスト多人数3次元ポーズ推定
- Authors: Alice Ruget, Max Tyler, Germ\'an Mora Mart\'in, Stirling Scholes, Feng
Zhu, Istvan Gyongy, Brent Hearn, Steve McLaughlin, Abderrahim Halimi,
Jonathan Leach
- Abstract要約: 伝統的に3次元ポーズ推定には、深度画像を生成するために複数の連結強度カメラや高解像度の飛行時間カメラのような高度な装置が必要である。
本稿では, 高精度なポーズ推定を実現し, より簡単な作業のために設計された飛行時間センサの限界を克服できることを実証する。
この作業は、それまで高度なハードウェア要件と飛行時間技術によって制限されていたシナリオにおける有望な現実的なアプリケーションを開く。
- 参考スコア(独自算出の注目度): 8.093696116585717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The process of tracking human anatomy in computer vision is referred to pose
estimation, and it is used in fields ranging from gaming to surveillance.
Three-dimensional pose estimation traditionally requires advanced equipment,
such as multiple linked intensity cameras or high-resolution time-of-flight
cameras to produce depth images. However, there are applications, e.g.~consumer
electronics, where significant constraints are placed on the size, power
consumption, weight and cost of the usable technology. Here, we demonstrate
that computational imaging methods can achieve accurate pose estimation and
overcome the apparent limitations of time-of-flight sensors designed for much
simpler tasks. The sensor we use is already widely integrated in consumer-grade
mobile devices, and despite its low spatial resolution, only 4$\times$4 pixels,
our proposed Pixels2Pose system transforms its data into accurate depth maps
and 3D pose data of multiple people up to a distance of 3 m from the sensor. We
are able to generate depth maps at a resolution of 32$\times$32 and 3D
localization of a body parts with an error of only $\approx$10 cm at a frame
rate of 7 fps. This work opens up promising real-life applications in scenarios
that were previously restricted by the advanced hardware requirements and cost
of time-of-flight technology.
- Abstract(参考訳): コンピュータビジョンにおける人間の解剖を追跡するプロセスはポーズ推定と呼ばれ、ゲームから監視まで幅広い分野で使用される。
従来の3次元ポーズ推定では、深度画像を生成するために複数の連結強度カメラや高分解能の飛行時間カメラなどの高度な機器が必要となる。
しかし、例えば、-consumer electronicsのような応用があり、使用する技術のサイズ、消費電力、重量、コストに重大な制約が課されている。
本稿では,高精度なポーズ推定を実現し,より簡単な作業のために設計された飛行時間センサの明らかな限界を克服できることを示す。
我々が使っているセンサーは、すでに消費者向けのモバイルデバイスに広く統合されており、空間解像度は4ドル(約4万4000円)と低いが、提案したPixels2Poseシステムは、データを正確な深度マップに変換し、複数の人のデータをセンサーから3mの距離まで3Dポーズする。
我々は32$\times$32の解像度で深度マップを生成でき、フレームレート7 fpsでわずか$\approx$10 cmの誤差で身体部分の3次元局所化を行うことができる。
この作業は、それまで高度なハードウェア要件と飛行時間技術によって制限されていたシナリオにおける有望な現実的なアプリケーションを開く。
関連論文リスト
- Improving Real-Time Omnidirectional 3D Multi-Person Human Pose Estimation with People Matching and Unsupervised 2D-3D Lifting [3.231937990387248]
現在の人間のポーズ推定システムは、一人の人の正確な3次元世界的推定を取得することに焦点を当てている。
本稿では,リアルタイムに動作可能な最初の3次元人体ポーズ推定システムについて述べる。
論文 参考訳(メタデータ) (2024-03-14T14:30:31Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Economical Quaternion Extraction from a Human Skeletal Pose Estimate
using 2-D Cameras [0.0]
提案アルゴリズムは,5ミリ秒以下の遅延時間で人間の物体の画像をキャプチャする2次元フレームから四元数を抽出する。
このアルゴリズムは、資金の障壁を回避し、制御システムを設計するロボット研究者のアクセシビリティを向上させる。
論文 参考訳(メタデータ) (2023-03-15T14:41:17Z) - E$^3$Pose: Energy-Efficient Edge-assisted Multi-camera System for
Multi-human 3D Pose Estimation [5.50767672740241]
実世界と仮想世界とのシームレスな接続を確立する上で,マルチヒューマン3次元ポーズ推定が重要な役割を担っている。
実時間マルチヒューマン3Dポーズ推定のためのエネルギー効率の良いエッジアシスト型マルチカメラシステム E$3$Pose を提案する。
その結果,3次元ポーズ推定精度を最先端の手法に匹敵する精度を維持しつつ,省エネルギー化(最大31.21%)が達成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-21T21:53:33Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Gated3D: Monocular 3D Object Detection From Temporal Illumination Cues [28.806932489163888]
低コストな単分子ゲート型画像処理装置から時間的照度を利用した新しい3次元物体検出法を提案する。
提案手法は,1万km以上の運転データから得られたゲート画像を含む新しい3次元検出データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-02-06T16:06:51Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。