論文の概要: From Point to Space: 3D Moving Human Pose Estimation Using Commodity
WiFi
- arxiv url: http://arxiv.org/abs/2012.14066v1
- Date: Mon, 28 Dec 2020 02:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 10:57:54.689668
- Title: From Point to Space: 3D Moving Human Pose Estimation Using Commodity
WiFi
- Title(参考訳): 宇宙へ向けて:コモディティWiFiを用いた3D移動型人間の視点推定
- Authors: Yiming Wang, Lingchao Guo, Zhaoming Lu, Xiangming Wen, Shuang Zhou,
and Wanyu Meng
- Abstract要約: Wi-Moseは、商品WiFiを用いた最初の3D移動人間のポーズ推定システムです。
振幅と位相をチャネル状態情報(csi)画像に融合し,ポーズ情報と位置情報の両方を提供する。
実験結果は、Wi-Moseが29.7mmおよび37.8mm Procrustes分析で、Sight of Sight(LoS)およびnon-Line of Sight(NLoS)シナリオにおける共同位置誤差(P-MPJPE)を局在化できることを示しています。
- 参考スコア(独自算出の注目度): 21.30069619479767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present Wi-Mose, the first 3D moving human pose estimation
system using commodity WiFi. Previous WiFi-based works have achieved 2D and 3D
pose estimation. These solutions either capture poses from one perspective or
construct poses of people who are at a fixed point, preventing their wide
adoption in daily scenarios. To reconstruct 3D poses of people who move
throughout the space rather than a fixed point, we fuse the amplitude and phase
into Channel State Information (CSI) images which can provide both pose and
position information. Besides, we design a neural network to extract features
that are only associated with poses from CSI images and then convert the
features into key-point coordinates. Experimental results show that Wi-Mose can
localize key-point with 29.7mm and 37.8mm Procrustes analysis Mean Per Joint
Position Error (P-MPJPE) in the Line of Sight (LoS) and Non-Line of Sight
(NLoS) scenarios, respectively, achieving higher performance than the
state-of-the-art method. The results indicate that Wi-Mose can capture
high-precision 3D human poses throughout the space.
- Abstract(参考訳): 本稿では,コモディティWiFiを用いた最初の3次元移動型ポーズ推定システムであるWi-Moseを提案する。
これまでのWiFiベースの作品は2Dと3Dのポーズ推定に成功している。
これらのソリューションは、ある視点からポーズを捉えたり、一定地点にいる人々のポーズを構築したりすることで、日々のシナリオで広く採用されるのを防ぐ。
固定点ではなく空間中を移動する人々の3Dポーズを再構成するために、振幅と位相をチャネル状態情報(CSI)画像に融合し、ポーズ情報と位置情報の両方を提供する。
さらに,CSI画像からのポーズのみに関連する特徴を抽出し,その特徴をキーポイント座標に変換するニューラルネットワークを設計する。
実験結果から,Wi-Moseは29.7mm,37.8mmProcrustes解析により,Line of Sight(LoS),Non-Line of Sight(NLoS)シナリオにおけるP-MPJPE(P-MPJPE)の平均値でキーポイントをローカライズできることがわかった。
その結果,Wi-Moseは空間全体の高精度な3Dポーズをキャプチャできることがわかった。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Scene-aware Egocentric 3D Human Pose Estimation [72.57527706631964]
頭部に1台の魚眼カメラを装着したエゴセントリックな3Dポーズ推定は、仮想現実や拡張現実における多くの応用により、近年注目を集めている。
既存の方法はまだ、人間の体が非常に隠蔽されている、あるいはシーンと密接な相互作用がある、挑戦的なポーズに苦慮している。
本研究では,シーン制約による自己中心型ポーズの予測を導くシーン認識型自己中心型ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T21:35:39Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - SPGNet: Spatial Projection Guided 3D Human Pose Estimation in Low
Dimensional Space [14.81199315166042]
本研究では,多次元再投影と教師あり学習を混合した3次元人間のポーズ推定手法を提案する。
提案手法は,データセットHuman3.6Mの推定結果に基づいて,定性的にも定量的にも,多くの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-04T00:51:00Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - Real-Time Multi-View 3D Human Pose Estimation using Semantic Feedback to
Smart Edge Sensors [28.502280038100167]
各カメラビューに対する2次元関節検出は、専用の埋め込み推論プロセッサ上で局所的に行われる。
3次元ポーズは、三角法と体モデルに基づいて、中央のバックエンドにある2次元関節から回収される。
パイプライン全体がリアルタイム操作が可能なのです。
論文 参考訳(メタデータ) (2021-06-28T14:00:00Z) - Weakly-supervised Cross-view 3D Human Pose Estimation [16.045255544594625]
弱教師付きクロスビュー3次元ポーズ推定のための簡易かつ効果的なパイプラインを提案する。
本手法は,最先端の性能を弱い教師付きで達成することができる。
本手法を標準ベンチマークデータセットHuman3.6Mで評価する。
論文 参考訳(メタデータ) (2021-05-23T08:16:25Z) - Multi-Scale Networks for 3D Human Pose Estimation with Inference Stage
Optimization [33.02708860641971]
モノクロビデオから3Dのポーズを推定することは、まだまだ難しい課題だ。
既存の多くのメソッドは、対象の人が他のオブジェクトに干渉されたり、トレーニングデータのスケールや速度に対して動きが速すぎたり、遅くなったりすると低下する。
頑健な3次元ポーズ推定のための時間的ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T15:24:28Z) - HDNet: Human Depth Estimation for Multi-Person Camera-Space Localization [83.57863764231655]
本稿では,根の絶対的局所化のためのエンドツーエンドフレームワークであるHuman Depth Estimation Network (HDNet)を提案する。
関節間の特徴伝達に骨格ベースのグラフニューラルネットワーク(GNN)を用いる。
我々は,2つのベンチマークデータセットを用いて,ルートジョイントローカライゼーションとルート相対的な3次元ポーズ推定タスクについて,HDNetの評価を行った。
論文 参考訳(メタデータ) (2020-07-17T12:44:23Z) - HOPE-Net: A Graph-based Model for Hand-Object Pose Estimation [7.559220068352681]
本稿では,2次元と3次元で手とオブジェクトのポーズをリアルタイムに推定するHOPE-Netという軽量モデルを提案する。
我々のネットワークは2つの適応グラフ畳み込みニューラルネットワークのカスケードを用いており、1つは手関節と物体角の2D座標を推定し、もう1つは2D座標を3Dに変換する。
論文 参考訳(メタデータ) (2020-03-31T19:01:42Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。