論文の概要: TransPose: Real-time 3D Human Translation and Pose Estimation with Six
Inertial Sensors
- arxiv url: http://arxiv.org/abs/2105.04605v1
- Date: Mon, 10 May 2021 18:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:49:17.258700
- Title: TransPose: Real-time 3D Human Translation and Pose Estimation with Six
Inertial Sensors
- Title(参考訳): TransPose:6つの慣性センサーによるリアルタイム3D翻訳と詩推定
- Authors: Xinyu Yi, Yuxiao Zhou, Feng Xu
- Abstract要約: 今回紹介するTransPoseは、わずか6つの慣性測定ユニット(IMU)から90fps以上でフルモーションキャプチャを実行するDNNベースのアプローチです。
身体のポーズ推定には, 葉間関節位置を中間結果として推定する多段階ネットワークを提案する。
グローバル翻訳推定のために,グローバル翻訳を頑健に解くためのサポートフット法とRNN法を提案する。
- 参考スコア(独自算出の注目度): 7.565581566766422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion capture is facing some new possibilities brought by the inertial
sensing technologies which do not suffer from occlusion or wide-range
recordings as vision-based solutions do. However, as the recorded signals are
sparse and quite noisy, online performance and global translation estimation
turn out to be two key difficulties. In this paper, we present TransPose, a
DNN-based approach to perform full motion capture (with both global
translations and body poses) from only 6 Inertial Measurement Units (IMUs) at
over 90 fps. For body pose estimation, we propose a multi-stage network that
estimates leaf-to-full joint positions as intermediate results. This design
makes the pose estimation much easier, and thus achieves both better accuracy
and lower computation cost. For global translation estimation, we propose a
supporting-foot-based method and an RNN-based method to robustly solve for the
global translations with a confidence-based fusion technique. Quantitative and
qualitative comparisons show that our method outperforms the state-of-the-art
learning- and optimization-based methods with a large margin in both accuracy
and efficiency. As a purely inertial sensor-based approach, our method is not
limited by environmental settings (e.g., fixed cameras), making the capture
free from common difficulties such as wide-range motion space and strong
occlusion.
- Abstract(参考訳): モーションキャプチャーは、視覚ベースのソリューションのように閉塞性や広帯域記録に苦しむことのない慣性センシング技術によってもたらされる新しい可能性に直面している。
しかし、記録された信号は希少で騒々しいため、オンラインのパフォーマンスとグローバル翻訳推定は2つの重要な問題となった。
本稿では,6慣性計測ユニット(IMU)を90fps以上でフルモーションキャプチャー(グローバル翻訳とボディポーズの両方)を実現するための,DNNベースのTransPoseを提案する。
身体のポーズ推定には, 葉間関節位置を中間結果として推定する多段階ネットワークを提案する。
この設計はポーズ推定をはるかに容易にし、精度と計算コストの低減を両立させる。
グローバル翻訳推定のために,信頼度に基づく融合手法を用いて,グローバル翻訳を堅牢に解くためのサポートフット法とRNN法を提案する。
定量的および定性的な比較により,本手法は最先端の学習法や最適化法よりも精度と効率の両面で優れていることが示された。
純粋に慣性センサに基づくアプローチでは, 環境条件(固定カメラなど)に制限されず, 広視野の動作空間や強い咬合など, 一般的な困難を回避できる。
関連論文リスト
- FAR: Flexible, Accurate and Robust 6DoF Relative Camera Pose Estimation [30.710296843150832]
画像間の相対的なカメラのポーズを推定することは、コンピュータビジョンにおいて中心的な問題となっている。
私たちのアプローチは、正確かつ堅牢な結果をもたらします。
包括的解析は設計選択をサポートし,提案手法が様々な特徴抽出器や対応推定器に柔軟に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:59:51Z) - Match and Locate: low-frequency monocular odometry based on deep feature
matching [0.65268245109828]
本稿では,1台のカメラしか必要としないロボットオドメトリーの新たなアプローチを提案する。
アプローチは、深い特徴マッチングモデルを用いて、ビデオストリームの連続フレーム間の画像特徴のマッチングに基づいている。
本研究では,AISG-SLAビジュアルローカライゼーションチャレンジにおける手法の性能評価を行い,計算効率が高く,実装が容易であるにもかかわらず,競合する結果が得られた。
論文 参考訳(メタデータ) (2023-11-16T17:32:58Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Occlusion-Robust Object Pose Estimation with Holistic Representation [42.27081423489484]
State-of-the-art(SOTA)オブジェクトのポーズ推定器は2段階のアプローチを取る。
我々は,新しいブロック・アンド・ブラックアウトバッチ拡張技術を開発した。
また,総合的なポーズ表現学習を促進するためのマルチ精度監視アーキテクチャも開発している。
論文 参考訳(メタデータ) (2021-10-22T08:00:26Z) - Improving Robustness and Accuracy via Relative Information Encoding in
3D Human Pose Estimation [59.94032196768748]
位置および時間的拡張表現を出力する相対情報符号化法を提案する。
提案手法は2つの公開データセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-07-29T14:12:19Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Learning to Estimate Hidden Motions with Global Motion Aggregation [71.12650817490318]
閉塞は、局所的な証拠に依存する光学フローアルゴリズムに重大な課題をもたらす。
最初の画像でピクセル間の長距離依存性を見つけるために,グローバルモーションアグリゲーションモジュールを導入する。
遮蔽領域における光流量推定が非遮蔽領域における性能を損なうことなく大幅に改善できることを実証した。
論文 参考訳(メタデータ) (2021-04-06T10:32:03Z) - 3D Scene Geometry-Aware Constraint for Camera Localization with Deep
Learning [11.599633757222406]
近年、畳み込みニューラルネットワークに基づくエンドツーエンドのアプローチは、従来の3次元幾何学に基づく手法を達成または超えるように研究されている。
本研究では,絶対カメラポーズ回帰のためのコンパクトネットワークを提案する。
これらの従来の手法から着想を得た3Dシーンの幾何学的制約も、動き、深さ、画像の内容を含むすべての利用可能な情報を活用することによって導入される。
論文 参考訳(メタデータ) (2020-05-13T04:15:14Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。