論文の概要: BodySLAM++: Fast and Tightly-Coupled Visual-Inertial Camera and Human
Motion Tracking
- arxiv url: http://arxiv.org/abs/2309.01236v1
- Date: Sun, 3 Sep 2023 18:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 20:42:06.908077
- Title: BodySLAM++: Fast and Tightly-Coupled Visual-Inertial Camera and Human
Motion Tracking
- Title(参考訳): bodyslam++: 高速かつ密結合した視覚慣性カメラと人間の動き追跡
- Authors: Dorian F. Henning, Christopher Choi, Simon Schaefer, Stefan
Leutenegger
- Abstract要約: BodySLAM++は、高速で効率的で正確な人間とカメラの状態推定フレームワークである。
システムはIntel i7モデルCPU上で毎秒15フレーム以上のリアルタイムパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 13.42760841894735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust, fast, and accurate human state - 6D pose and posture - estimation
remains a challenging problem. For real-world applications, the ability to
estimate the human state in real-time is highly desirable. In this paper, we
present BodySLAM++, a fast, efficient, and accurate human and camera state
estimation framework relying on visual-inertial data. BodySLAM++ extends an
existing visual-inertial state estimation framework, OKVIS2, to solve the dual
task of estimating camera and human states simultaneously. Our system improves
the accuracy of both human and camera state estimation with respect to baseline
methods by 26% and 12%, respectively, and achieves real-time performance at 15+
frames per second on an Intel i7-model CPU. Experiments were conducted on a
custom dataset containing both ground truth human and camera poses collected
with an indoor motion tracking system.
- Abstract(参考訳): 頑丈で、速く、正確な人間の状態 - 6Dのポーズと姿勢 - は、依然として難しい問題です。
現実世界のアプリケーションでは、人間の状態をリアルタイムで推定する能力が非常に望ましい。
本稿では,視覚慣性データに依存した高速で効率的かつ正確な人間とカメラの状態推定フレームワークであるBodySLAM++を提案する。
BodySLAM++は既存のビジュアル慣性状態推定フレームワークOKVIS2を拡張して、カメラと人間の状態を同時に推定する2つのタスクを解決する。
本システムでは,ベースライン法に関して,人間およびカメラの状態推定の精度を26%,12%向上させ,intel i7モデルcpu上で15フレーム/秒のリアルタイム性能を実現する。
室内のモーショントラッキングシステムで収集した人間とカメラの両方のポーズを含むカスタムデータセットで実験を行った。
関連論文リスト
- Estimating Body and Hand Motion in an Ego-sensed World [64.08911275906544]
頭部装着装置から人体の動きを推定するシステムであるEgoAlloについて述べる。
エゴセントリックなSLAMポーズとイメージのみを使用して、EgoAlloは条件付き拡散モデルからサンプリングを行い、3Dボディポーズ、高さ、手のパラメータを推定する。
論文 参考訳(メタデータ) (2024-10-04T17:59:57Z) - WHAC: World-grounded Humans and Cameras [37.877565981937586]
我々は,表現的パラメトリック人間モデル(SMPL-X)と対応するカメラのポーズを共同で再現することを目指している。
WHACと呼ばれる新しいフレームワークを導入し、世界規模で表現された人間のポーズと形状の推定を容易にする。
我々は、正確に注釈付けされた人間とカメラを含む新しい合成データセットWHAC-A-Moleを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:58:02Z) - Improving Real-Time Omnidirectional 3D Multi-Person Human Pose Estimation with People Matching and Unsupervised 2D-3D Lifting [3.231937990387248]
現在の人間のポーズ推定システムは、一人の人の正確な3次元世界的推定を取得することに焦点を当てている。
本稿では,リアルタイムに動作可能な最初の3次元人体ポーズ推定システムについて述べる。
論文 参考訳(メタデータ) (2024-03-14T14:30:31Z) - TRACE: 5D Temporal Regression of Avatars with Dynamic Cameras in 3D
Environments [106.80978555346958]
現在の方法では、地球上の座標で動く人間を確実に推定することはできない。
TRACEは、ダイナミックカメラからグローバル座標における3D人間の共同回収と追跡を行う最初の1段階の手法である。
トラッキングとHPSベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-05T13:00:44Z) - Markerless 3D human pose tracking through multiple cameras and AI:
Enabling high accuracy, robustness, and real-time performance [0.0]
リアルタイムに3Dの人間の動きを追跡することは、多くの分野にわたる多くのアプリケーションにとって不可欠である。
人工知能の最近の進歩はマーカーレスソリューションを可能にしている。
本稿では,マルチカメラビューと2次元AIに基づくポーズ推定手法を組み合わせたマーカーレスフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T15:06:50Z) - AlphaPose: Whole-Body Regional Multi-Person Pose Estimation and Tracking
in Real-Time [47.19339667836196]
提案するAlphaPoseは,リアルタイムに動作しながら,身体全体のポーズを正確に推定・追跡できるシステムである。
我々は,COCO-全体,COCO,PoseTrack,提案したHalpe-FullBodyポーズ推定データセットにおいて,現在の最先端手法よりも高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2022-11-07T09:15:38Z) - Embodied Scene-aware Human Pose Estimation [25.094152307452]
シーン認識型人間のポーズ推定手法を提案する。
本手法は, シミュレーション環境下でのグローバルな3次元人間のポーズを再現し, 因果関係の1段階である。
論文 参考訳(メタデータ) (2022-06-18T03:50:19Z) - Imposing Temporal Consistency on Deep Monocular Body Shape and Pose
Estimation [67.23327074124855]
本稿では,適合過程における時間的制約の統合に対するエレガントな解法を提案する。
我々は、顎ポーズ、表情、指ポーズを含む人物の形状と動きを表す一連の身体モデルのパラメーターを導出する。
本手法は,表情や手話を含む画像系列からリアルな3次元体モデルの導出を可能にする。
論文 参考訳(メタデータ) (2022-02-07T11:11:55Z) - GLAMR: Global Occlusion-Aware Human Mesh Recovery with Dynamic Cameras [99.07219478953982]
ダイナミックカメラで記録したモノクロビデオから3次元グローバルなヒューマンメッシュリカバリのためのアプローチを提案する。
われわれはまず,視覚的動作に基づいて隠蔽されたヒトの身体運動を自己回帰的に埋め込む,深部再生運動充填装置を提案する。
従来の研究とは対照的に,我々の手法はダイナミックカメラを用いても,一貫したグローバル座標で人間のメッシュを再構築する。
論文 参考訳(メタデータ) (2021-12-02T18:59:54Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。