論文の概要: E$^3$Pose: Energy-Efficient Edge-assisted Multi-camera System for
Multi-human 3D Pose Estimation
- arxiv url: http://arxiv.org/abs/2301.09015v1
- Date: Sat, 21 Jan 2023 21:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:24:07.185038
- Title: E$^3$Pose: Energy-Efficient Edge-assisted Multi-camera System for
Multi-human 3D Pose Estimation
- Title(参考訳): e$^3$pose:マルチヒューマン3dポーズ推定のためのエネルギー効率の高いエッジアシストマルチカメラシステム
- Authors: Letian Zhang, Jie Xu
- Abstract要約: 実世界と仮想世界とのシームレスな接続を確立する上で,マルチヒューマン3次元ポーズ推定が重要な役割を担っている。
実時間マルチヒューマン3Dポーズ推定のためのエネルギー効率の良いエッジアシスト型マルチカメラシステム E$3$Pose を提案する。
その結果,3次元ポーズ推定精度を最先端の手法に匹敵する精度を維持しつつ,省エネルギー化(最大31.21%)が達成できることが示唆された。
- 参考スコア(独自算出の注目度): 5.50767672740241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-human 3D pose estimation plays a key role in establishing a seamless
connection between the real world and the virtual world. Recent efforts adopted
a two-stage framework that first builds 2D pose estimations in multiple camera
views from different perspectives and then synthesizes them into 3D poses.
However, the focus has largely been on developing new computer vision
algorithms on the offline video datasets without much consideration on the
energy constraints in real-world systems with flexibly-deployed and
battery-powered cameras. In this paper, we propose an energy-efficient
edge-assisted multiple-camera system, dubbed E$^3$Pose, for real-time
multi-human 3D pose estimation, based on the key idea of adaptive camera
selection. Instead of always employing all available cameras to perform 2D pose
estimations as in the existing works, E$^3$Pose selects only a subset of
cameras depending on their camera view qualities in terms of occlusion and
energy states in an adaptive manner, thereby reducing the energy consumption
(which translates to extended battery lifetime) and improving the estimation
accuracy. To achieve this goal, E$^3$Pose incorporates an attention-based LSTM
to predict the occlusion information of each camera view and guide camera
selection before cameras are selected to process the images of a scene, and
runs a camera selection algorithm based on the Lyapunov optimization framework
to make long-term adaptive selection decisions. We build a prototype of
E$^3$Pose on a 5-camera testbed, demonstrate its feasibility and evaluate its
performance. Our results show that a significant energy saving (up to 31.21%)
can be achieved while maintaining a high 3D pose estimation accuracy comparable
to state-of-the-art methods.
- Abstract(参考訳): 実世界と仮想世界とのシームレスな接続を確立する上で,マルチヒューマン3次元ポーズ推定が重要な役割を果たす。
最近の取り組みでは、まず異なる視点から複数のカメラビューで2Dポーズを推定し、3Dポーズに合成する2段階のフレームワークを採用している。
しかし、主にオフラインのビデオデータセット上の新しいコンピュータビジョンアルゴリズムの開発に焦点が当てられ、フレキシブルに展開されバッテリー駆動のカメラを備えた現実世界のシステムのエネルギー制約をあまり考慮していない。
本稿では,適応型カメラ選択の鍵となる考え方に基づいて,実時間多人数3次元ポーズ推定のためのエネルギー効率の高いエッジアシストマルチカメラシステムe$^3$poseを提案する。
E$3$Poseは、既存の作品のように、常に利用可能なカメラをすべて使用して2Dポーズ推定を行う代わりに、カメラビューの品質に応じて、オクルージョンとエネルギー状態の点で、カメラのサブセットのみを適応的に選択することで、エネルギー消費(バッテリー寿命を延長する)を減らし、推定精度を向上させる。
この目的を達成するために、E$^3$Poseは注意に基づくLSTMを導入し、カメラがシーンの画像を処理するために選択される前のカメラビューの閉塞情報を予測し、Lyapunov最適化フレームワークに基づいてカメラ選択アルゴリズムを実行し、長期適応選択を決定する。
5カメラテストベッド上でe$^3$poseのプロトタイプを作成し,その実現可能性を示し,その性能評価を行った。
その結果,最先端手法に匹敵する高い3次元ポーズ推定精度を維持しながら,大幅な省エネルギー(最大31.21%)を実現することができた。
関連論文リスト
- Self-learning Canonical Space for Multi-view 3D Human Pose Estimation [57.969696744428475]
マルチビュー3次元人間のポーズ推定は、自然に単一ビューのポーズ推定よりも優れている。
これらの情報の正確な注釈を得るのは難しい。
完全自己管理型多視点アグリゲーションネットワーク(CMANet)を提案する。
CMANetは、大規模で質的な分析において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-19T04:54:59Z) - Improving Real-Time Omnidirectional 3D Multi-Person Human Pose Estimation with People Matching and Unsupervised 2D-3D Lifting [3.231937990387248]
現在の人間のポーズ推定システムは、一人の人の正確な3次元世界的推定を取得することに焦点を当てている。
本稿では,リアルタイムに動作可能な最初の3次元人体ポーズ推定システムについて述べる。
論文 参考訳(メタデータ) (2024-03-14T14:30:31Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - 3D Human Pose Estimation in Multi-View Operating Room Videos Using
Differentiable Camera Projections [2.486571221735935]
本稿では,3次元の損失に基づいて2次元CNNをエンドツーエンドにトレーニングすることで,3次元のローカライゼーションを直接最適化することを提案する。
MVORデータセットの動画を用いて、このエンドツーエンドアプローチが2次元空間での最適化より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T09:00:02Z) - Multi-modal 3D Human Pose Estimation with 2D Weak Supervision in
Autonomous Driving [74.74519047735916]
自動運転車(AV)における3次元ポーズ推定(HPE)は,多くの要因において他のユースケースと異なる。
他のユースケース(仮想現実、ゲーム、アニメーションなど)のために収集されたデータは、AVアプリケーションには使用できない可能性がある。
本稿では,この問題をAV設定で緩和するための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:57:16Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Exploring Severe Occlusion: Multi-Person 3D Pose Estimation with Gated
Convolution [34.301501457959056]
本稿では,2次元関節を3次元に変換するために,ゲート型畳み込みモジュールを用いた時間回帰ネットワークを提案する。
また, 正規化ポーズを大域軌跡に変換するために, 単純かつ効果的な局所化手法も実施した。
提案手法は,最先端の2D-to-3Dポーズ推定法よりも優れている。
論文 参考訳(メタデータ) (2020-10-31T04:35:24Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z) - Synergetic Reconstruction from 2D Pose and 3D Motion for Wide-Space
Multi-Person Video Motion Capture in the Wild [3.0015034534260665]
マルチカメラの精度と滑らかさを考慮したマーカーレスモーションキャプチャ手法を提案する。
提案手法は,各人物の3Dポーズを予測し,マルチカメラ画像のバウンディングボックスを決定する。
提案手法を,様々なデータセットと実スポーツフィールドを用いて評価した。
論文 参考訳(メタデータ) (2020-01-16T02:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。