論文の概要: EHPE: A Segmented Architecture for Enhanced Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2507.09560v2
- Date: Sat, 19 Jul 2025 15:21:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 12:28:43.124221
- Title: EHPE: A Segmented Architecture for Enhanced Hand Pose Estimation
- Title(参考訳): EHPE: 拡張型ハンドポース推定のためのセグメンテーションアーキテクチャ
- Authors: Bolun Zheng, Xinjie Liu, Qianyu Zhang, Canjin Wang, Fangni Chen, Mingen Xu,
- Abstract要約: 本稿では,手ポーズ推定(EHPE)のための新しいセグメンテーションアーキテクチャを提案する。
我々は,TIPと手首の局所抽出を行い,TIP予測に対する誤差蓄積の影響を軽減する。
広く使われている2つのベンチマークの実験は、EHPEが最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 5.656951758454743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D hand pose estimation has garnered great attention in recent years due to its critical applications in human-computer interaction, virtual reality, and related fields. The accurate estimation of hand joints is essential for high-quality hand pose estimation. However, existing methods neglect the importance of Distal Phalanx Tip (TIP) and Wrist in predicting hand joints overall and often fail to account for the phenomenon of error accumulation for distal joints in gesture estimation, which can cause certain joints to incur larger errors, resulting in misalignments and artifacts in the pose estimation and degrading the overall reconstruction quality. To address this challenge, we propose a novel segmented architecture for enhanced hand pose estimation (EHPE). We perform local extraction of TIP and wrist, thus alleviating the effect of error accumulation on TIP prediction and further reduce the predictive errors for all joints on this basis. EHPE consists of two key stages: In the TIP and Wrist Joints Extraction stage (TW-stage), the positions of the TIP and wrist joints are estimated to provide an initial accurate joint configuration; In the Prior Guided Joints Estimation stage (PG-stage), a dual-branch interaction network is employed to refine the positions of the remaining joints. Extensive experiments on two widely used benchmarks demonstrate that EHPE achieves state-of-the-arts performance. Code is available at https://github.com/SereinNout/EHPE.
- Abstract(参考訳): 近年,人間とコンピュータのインタラクション,バーチャルリアリティ,関連分野における重要な応用として,3Dハンドポーズ推定が注目されている。
高品質ハンドポーズ推定には手関節の正確な推定が不可欠である。
しかし、既存の手法は、手関節全体を予測する上での遠位端端端端端端端端端端端(TIP)とリストの重要性を無視しており、ジェスチャー推定において遠位端端端端端端端端端端端端端端端端端端端端端端の誤差蓄積現象を考慮できない場合が多い。
この課題に対処するために,拡張手振り推定(EHPE)のための新しいセグメンテーションアーキテクチャを提案する。
我々は,TIPと手首の局所抽出を行い,TIP予測における誤差蓄積の影響を緩和し,全関節の予測誤差を低減させる。
EHPEは2つの重要な段階から構成される: TIP と Wrist 関節抽出段階(TW-stage)では、TIP と手首関節の位置を推定し、初期的正確な関節構成を提供する。
広く使われている2つのベンチマークの大規模な実験は、EHPEが最先端のパフォーマンスを達成することを示した。
コードはhttps://github.com/SereinNout/EHPEで入手できる。
関連論文リスト
- Aligning Foundation Model Priors and Diffusion-Based Hand Interactions for Occlusion-Resistant Two-Hand Reconstruction [50.952228546326516]
単眼画像からの両手再建は、複雑でダイナミックな手の位置や閉塞が原因で、永続的な課題に直面している。
既存のアプローチはそのようなアライメントの問題に悩まされ、しばしば不整合と侵入の成果物をもたらす。
本研究では,基礎モデルに基づく2次元先行モデルと拡散に基づく相互作用改善を組み込むことにより,手振りとインタラクションを正確に整合させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-22T14:42:27Z) - Towards Robust and Realistic Human Pose Estimation via WiFi Signals [85.60557095666934]
WiFiベースの人間のポーズ推定は、離散的で微妙なWiFi信号を人間の骨格にブリッジする難しいタスクである。
本論文は,本問題を再検討し,(1)ドメイン間ギャップ,(2)ソース・ターゲット領域のポーズ分布の顕著な変化,(2)骨格のポーズが歪んだトポロジーを示す構造的フィデリティギャップ,の2つの重要な問題を明らかにする。
本稿では,タスクをDT-Poseと呼ばれる新しい2段階のフレームワークに書き換えることで,これらのギャップを埋める:ドメイン一貫性表現学習とトポロジ制約ポスデコーディング。
論文 参考訳(メタデータ) (2025-01-16T09:38:22Z) - Occluded Human Pose Estimation based on Limb Joint Augmentation [14.36131862057872]
そこで本研究では,人体におけるポーズ推定モデルの一般化能力を高めるために,手足関節拡張に基づく閉鎖型ポーズ推定フレームワークを提案する。
モデルの局所化能力を高めるために,手足グラフに基づく動的構造損失関数を構築し,閉塞した関節の分布を探索する。
論文 参考訳(メタデータ) (2024-10-13T15:48:24Z) - HCA-Net: Hierarchical Context Attention Network for Intervertebral Disc
Semantic Labeling [3.485615723221064]
本稿では,IVDのセマンティックラベリングのための新しいコンテキストアテンションネットワークアーキテクチャであるHCA-Netを提案する。
本手法は,脊髄内の複雑な空間的関係を捉えるために,様々なスケールの処理機能を強化し,効果的に統合する。
さらに, 骨格損失項を導入し, モデルが脊椎への幾何学的依存を強くする。
論文 参考訳(メタデータ) (2023-11-21T09:58:39Z) - Pose-Oriented Transformer with Uncertainty-Guided Refinement for
2D-to-3D Human Pose Estimation [51.00725889172323]
本研究では,3次元ポーズ推定のための不確実性ガイド付き多目的変換器(POT)を提案する。
我々はまず,人骨のトポロジーを明示的に活用するために,新しいポーズ指向の自己注意機構と距離関連位置埋め込みを開発した。
本稿では,特に難解な関節に対するPOTからのポーズ予測を洗練させるために,不確実性誘導型リファインメントネットワーク(UGRN)を提案する。
論文 参考訳(メタデータ) (2023-02-15T00:22:02Z) - 3D Interacting Hand Pose Estimation by Hand De-occlusion and Removal [85.30756038989057]
単一のRGB画像から3Dインタラクションハンドポーズを推定することは、人間の行動を理解するのに不可欠である。
本稿では,難易度の高い手ポーズ推定タスクを分解し,各手のポーズを別々に推定することを提案する。
実験の結果,提案手法は従来の手ポーズ推定手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-07-22T13:04:06Z) - Self-Supervision and Spatial-Sequential Attention Based Loss for
Multi-Person Pose Estimation [6.92027612631023]
ボトムアップに基づくポーズ推定手法は、補助的な予測を伴うヒートマップを用いて関節位置を推定し、同時に属する。
より明確な監督の欠如は、1つのモデルにおける機能利用の低さと予測間の矛盾をもたらす。
本稿では,自己教師型ヒートマップを用いて予測矛盾や空間的注意を低減し,ネットワークの特徴抽出を向上する新たな損失組織手法を提案する。
論文 参考訳(メタデータ) (2021-10-20T19:13:17Z) - Adversarial Motion Modelling helps Semi-supervised Hand Pose Estimation [116.07661813869196]
そこで本稿では,非ラベルビデオに対人トレーニングとモーションモデリングのアイデアを組み合わせることを提案する。
本研究は,非ラベル映像系列の半教師あり学習により,逆方向が手ポーズ推定器の特性の向上につながることを示す。
このアプローチの主な利点は、ペアのトレーニングデータよりもはるかに容易に、未ペアのビデオとジョイントシーケンスデータを利用することができることです。
論文 参考訳(メタデータ) (2021-06-10T17:50:19Z) - DeepRA: Predicting Joint Damage From Radiographs Using CNN with
Attention [0.0]
関節リウマチ(RA)の関節損傷は手動による手足のX線検査により評価した。
手足の関節レベルの損傷を自動的に予測できるアルゴリズムは、より良い患者ケアと研究の医師を助けることができます。
論文 参考訳(メタデータ) (2021-02-13T18:48:01Z) - Multi-person 3D Pose Estimation in Crowded Scenes Based on Multi-View
Geometry [62.29762409558553]
マルチパーソナライズされた3次元ポーズ推定手法における特徴マッチングと深さ推定のコアは、エピポーラ制約である。
スパサーの群衆シーンにおけるこの定式化の良好なパフォーマンスにもかかわらず、その効果はより密集した群衆の状況下でしばしば挑戦される。
本稿では,マルチパーソン3次元ポーズ推定式から脱却し,群衆ポーズ推定として再編成する。
論文 参考訳(メタデータ) (2020-07-21T17:59:36Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。