論文の概要: TransPose: Real-time 3D Human Translation and Pose Estimation with Six
Inertial Sensors
- arxiv url: http://arxiv.org/abs/2105.04605v1
- Date: Mon, 10 May 2021 18:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:49:17.258700
- Title: TransPose: Real-time 3D Human Translation and Pose Estimation with Six
Inertial Sensors
- Title(参考訳): TransPose:6つの慣性センサーによるリアルタイム3D翻訳と詩推定
- Authors: Xinyu Yi, Yuxiao Zhou, Feng Xu
- Abstract要約: 今回紹介するTransPoseは、わずか6つの慣性測定ユニット(IMU)から90fps以上でフルモーションキャプチャを実行するDNNベースのアプローチです。
身体のポーズ推定には, 葉間関節位置を中間結果として推定する多段階ネットワークを提案する。
グローバル翻訳推定のために,グローバル翻訳を頑健に解くためのサポートフット法とRNN法を提案する。
- 参考スコア(独自算出の注目度): 7.565581566766422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion capture is facing some new possibilities brought by the inertial
sensing technologies which do not suffer from occlusion or wide-range
recordings as vision-based solutions do. However, as the recorded signals are
sparse and quite noisy, online performance and global translation estimation
turn out to be two key difficulties. In this paper, we present TransPose, a
DNN-based approach to perform full motion capture (with both global
translations and body poses) from only 6 Inertial Measurement Units (IMUs) at
over 90 fps. For body pose estimation, we propose a multi-stage network that
estimates leaf-to-full joint positions as intermediate results. This design
makes the pose estimation much easier, and thus achieves both better accuracy
and lower computation cost. For global translation estimation, we propose a
supporting-foot-based method and an RNN-based method to robustly solve for the
global translations with a confidence-based fusion technique. Quantitative and
qualitative comparisons show that our method outperforms the state-of-the-art
learning- and optimization-based methods with a large margin in both accuracy
and efficiency. As a purely inertial sensor-based approach, our method is not
limited by environmental settings (e.g., fixed cameras), making the capture
free from common difficulties such as wide-range motion space and strong
occlusion.
- Abstract(参考訳): モーションキャプチャーは、視覚ベースのソリューションのように閉塞性や広帯域記録に苦しむことのない慣性センシング技術によってもたらされる新しい可能性に直面している。
しかし、記録された信号は希少で騒々しいため、オンラインのパフォーマンスとグローバル翻訳推定は2つの重要な問題となった。
本稿では,6慣性計測ユニット(IMU)を90fps以上でフルモーションキャプチャー(グローバル翻訳とボディポーズの両方)を実現するための,DNNベースのTransPoseを提案する。
身体のポーズ推定には, 葉間関節位置を中間結果として推定する多段階ネットワークを提案する。
この設計はポーズ推定をはるかに容易にし、精度と計算コストの低減を両立させる。
グローバル翻訳推定のために,信頼度に基づく融合手法を用いて,グローバル翻訳を堅牢に解くためのサポートフット法とRNN法を提案する。
定量的および定性的な比較により,本手法は最先端の学習法や最適化法よりも精度と効率の両面で優れていることが示された。
純粋に慣性センサに基づくアプローチでは, 環境条件(固定カメラなど)に制限されず, 広視野の動作空間や強い咬合など, 一般的な困難を回避できる。
関連論文リスト
- ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - SCIPaD: Incorporating Spatial Clues into Unsupervised Pose-Depth Joint Learning [17.99904937160487]
本研究では,教師なし深層学習のための空間的手がかりを取り入れた新しいアプローチであるSCIPaDを紹介する。
SCIPaDは平均翻訳誤差22.2%、カメラポーズ推定タスクの平均角誤差34.8%をKITTI Odometryデータセットで達成している。
論文 参考訳(メタデータ) (2024-07-07T06:52:51Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - FAR: Flexible, Accurate and Robust 6DoF Relative Camera Pose Estimation [30.710296843150832]
画像間の相対的なカメラのポーズを推定することは、コンピュータビジョンにおいて中心的な問題となっている。
私たちのアプローチは、正確かつ堅牢な結果をもたらします。
包括的解析は設計選択をサポートし,提案手法が様々な特徴抽出器や対応推定器に柔軟に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:59:51Z) - Match and Locate: low-frequency monocular odometry based on deep feature
matching [0.65268245109828]
本稿では,1台のカメラしか必要としないロボットオドメトリーの新たなアプローチを提案する。
アプローチは、深い特徴マッチングモデルを用いて、ビデオストリームの連続フレーム間の画像特徴のマッチングに基づいている。
本研究では,AISG-SLAビジュアルローカライゼーションチャレンジにおける手法の性能評価を行い,計算効率が高く,実装が容易であるにもかかわらず,競合する結果が得られた。
論文 参考訳(メタデータ) (2023-11-16T17:32:58Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Occlusion-Robust Object Pose Estimation with Holistic Representation [42.27081423489484]
State-of-the-art(SOTA)オブジェクトのポーズ推定器は2段階のアプローチを取る。
我々は,新しいブロック・アンド・ブラックアウトバッチ拡張技術を開発した。
また,総合的なポーズ表現学習を促進するためのマルチ精度監視アーキテクチャも開発している。
論文 参考訳(メタデータ) (2021-10-22T08:00:26Z) - Improving Robustness and Accuracy via Relative Information Encoding in
3D Human Pose Estimation [59.94032196768748]
位置および時間的拡張表現を出力する相対情報符号化法を提案する。
提案手法は2つの公開データセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-07-29T14:12:19Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Learning to Estimate Hidden Motions with Global Motion Aggregation [71.12650817490318]
閉塞は、局所的な証拠に依存する光学フローアルゴリズムに重大な課題をもたらす。
最初の画像でピクセル間の長距離依存性を見つけるために,グローバルモーションアグリゲーションモジュールを導入する。
遮蔽領域における光流量推定が非遮蔽領域における性能を損なうことなく大幅に改善できることを実証した。
論文 参考訳(メタデータ) (2021-04-06T10:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。